Skip to main content

См. обновление Vision Pro в конце статьи.

На вопрос, почему Apple Intelligence не будет доступен на старых iPhone, компания пока что ответила, что чипы просто недостаточно мощные, чтобы обеспечить хороший опыт. Ответы на старые чипы будут длиться слишком долго.

Но многие говорили, что если их телефоны не справляются с этой задачей, почему бы просто не использовать серверы Apple Intelligence – они же Private Cloud Compute? В конце концов, это то, что уже происходит со многими запросами Siri сегодня. Теперь у нас есть ответ на этот вопрос…

Джон Грубер говорил об этом с Apple.

Один вопрос, который мне задавали неоднократно, — почему устройства, не соответствующие требованиям Apple Intelligence, не могут просто делать все через Private Cloud Compute. Все понимают, что если устройство недостаточно быстрое или мощное для обработки на устройстве, то это конец. Но почему старые iPhone (или в случае непрофессиональных iPhone 15, новые iPhone с двухлетними чипами) не могут просто использовать Private Cloud Compute для всего?

Насколько я понимаю, Apple Intelligence предназначена для работы совсем не так. Модели, которые работают на устройстве, совершенно отличаются от моделей, которые работают в облаке, и одна из этих моделей на устройстве — это эвристика, которая определяет, какие задачи могут выполняться с обработкой на устройстве, а какие требуют вычислений в частном облаке или ChatGPT. .

Грубер признает, что, скорее всего, это не только причина; Apple уже приходится предоставлять большой объем серверных вычислений для обработки запросов, которые не могут быть обработаны на устройстве, и потребность в сервере была бы значительно выше, если бы ему пришлось обрабатывать все запросы со старых телефонов. Но приведенная причина звучит правдоподобно.

Еще одно удивительное открытие заключается в том, что Apple Intelligence не будет поддерживаться Vision Pro, несмотря на то, что чип M2 достаточно мощный для этого. Причина здесь, говорит Грубер, в том, что чип уже работает на пределе своих возможностей, поэтому у него недостаточно свободной емкости для Apple Intelligence.

По словам хорошо информированных маленьких птичек, Vision Pro уже активно использует Neural Engine M2 в дополнение к чипу R1 для целей обработки в реальном времени — окклюзии, обнаружения объектов и тому подобного. На компьютерах Mac и iPad, оснащенных серией M, Neural Engine практически полностью доступен для функций Apple Intelligence. В Vision Pro он уже используется.

Опять же, объяснение имеет смысл, хотя и очень досадно, поскольку платформа может показаться почти специально созданной для искусственного интеллекта – и является предшественником возможного продукта Apple Glasses, который наверняка будет включать Apple Intelligence.

Еще один фрагмент из обзора Грубера: Приготовьтесь к постоянному раздражению из-за запроса на разрешение для передачи в ChatGPT. По крайней мере, как обстоят дела во внутренних версиях Apple, опции Always Allow нет.

Некоторые люди захотят иметь опцию «Всегда разрешать» для обработки запросов в ChatGPT, но, по словам представителей Apple, с которыми я общался, такой опции пока не существует.

Я подозреваю, что это изменится, поскольку это быстро станет постоянным раздражением, но Apple, вероятно, хочет действовать осторожно на фронте конфиденциальности в первые дни существования сервиса.

Обновление: Марк Гурман говорит, что Apple намерена внедрить Apple Intelligence в Vision Pro в следующем году, хотя пока неизвестно, как компания будет решать проблему, о которой упомянул Грубер.

Apple Intelligence появится в Vision Pro. Когда в начале этого месяца был представлен Apple Intelligence, его обещали только для Mac, iPhone и iPad. Но есть еще одно устройство, готовое к этому: гарнитура Vision Pro. Мне сказали, что Apple активно работает над добавлением этих функций в устройство, но это произойдет не в этом году.

Фото AltumCode на Unsplash