Skip to main content

В недавнем подробном интервью пара руководителей Apple пролили больше света на цели и создание нового кинематографического режима в линейке iPhone 13.

Кайанн Дранс, вице-президент Apple по мировому продуктовому маркетингу, и Джонни Манзари, дизайнер Human Interface Team, поговорили с TechCrunch о Cinematic Mode — и о том, как компания реализовала эту идею, несмотря на отсутствие четкой цели.

«У нас не было идеи [for the feature]- сказал Манзари. — Нам было просто любопытно — что такого в кинопроизводстве, которое было вне времени? И это ведет к этому интересному пути, и затем мы начали больше узнавать и больше разговаривать с людьми в компании, которые могут помочь нам решить эти проблемы ».

Эта функция в значительной степени зависит от нового чипа Apple A15 Bionic и Neural Engine. По словам Дранса, добиться качественной глубины видео в видео намного сложнее, чем в фотографиях.

«В отличие от фотографий, видео предназначено для того, чтобы двигаться во время съемки, включая рукопожатие», — сказал Дранс. «А это означало, что нам потребуются данные о глубине еще более высокого качества, чтобы кинематографический режим мог работать с объектами, людьми, домашними животными и объектами, и нам нужны были эти данные о глубине постоянно, чтобы не отставать от каждого кадра. Рендеринг этих изменений автофокуса в реальном времени — это сложная задача. тяжелая вычислительная нагрузка «.

Прежде чем приступить к работе над Cinematic Mode, руководители Apple заявили, что команда потратила время на изучение методов кинематографии, чтобы узнать больше о переходе фокуса и других оптических характеристиках. Манзари сказал, что команда начала с «глубокого почтения и уважения к имиджу и кинопроизводству на протяжении всей истории».

Когда они разрабатывали Portrait Lightning, команда дизайнеров Apple изучала классических художников-портретистов, таких как Энди Уорхол, и художников, таких как Рембрандт.

Процесс был похож на кинематографический режим: команда разговаривала с одними из лучших кинематографистов и операторов в мире. Затем они продолжили работу с операторами-постановщиками, операторами и другими профессионалами в области кинопроизводства.

«Также было очень вдохновляюще иметь возможность поговорить с кинематографистами о том, почему они используют малую глубину резкости», — сказал Манзари. «И какой цели он служит в повествовании. И то, с чем мы ушли, — это, на самом деле, вневременное понимание: вам нужно направлять внимание зрителя».

Конечно, дизайнер Apple понимал, что эти методы требуют высокого уровня навыков, и среднестатистический пользователь iPhone не мог легко справиться с ними.

По словам Манзари, именно здесь и пришла на помощь Apple. Компания решила технические проблемы и решила проблемы с помощью таких исправлений, как обнаружение взгляда. Некоторые проблемы были исправлены с помощью машинного обучения, поэтому режим сильно зависит от встроенного в iPhone Neural Engine.

Манзари сказал, что этот тип разработки функций представляет собой лучшее, что может предложить Apple.

«Мы чувствуем, что это тот вид вещей, который Apple решает лучше всего. Взять что-то сложное и обычно сложное для изучения, а затем превратить это во что-то автоматическое и простое».