Skip to main content

На вопрос, почему Apple Intelligence не будет доступна на старых iPhone, компания до сих пор отвечала, что чипы просто недостаточно мощны, чтобы обеспечить хорошее качество работы. На старых чипах ответы будут занимать слишком много времени.

Но многие говорят, что если их телефоны не справляются с этой задачей, почему бы просто не использовать серверы Apple Intelligence, также известные как Private Cloud Compute? В конце концов, именно это уже сегодня происходит со многими запросами Siri. Теперь у нас есть ответ на этот вопрос…

Джон Грубер говорил об этом с Apple.

Мне неоднократно задавали один вопрос: почему устройства, не соответствующие требованиям Apple Intelligence, не могут выполнять все операции через Private Cloud Compute. Все понимают, что если устройство недостаточно быстрое или мощное для обработки данных на нем, то это все. Но почему старые iPhone (или, в случае непрофессиональных iPhone 15, новые iPhone с чипами двухлетней давности) не могут просто использовать Private Cloud Compute для всего?

Насколько я понимаю, Apple Intelligence предназначена для работы совсем не так. Модели, которые работают на устройстве, совершенно отличаются от моделей, которые работают в облаке, и одна из этих моделей на устройстве — это эвристика, которая определяет, какие задачи могут выполняться с обработкой на устройстве, а какие требуют вычислений в частном облаке или ChatGPT. .

Грубер признает, что, скорее всего, это не только причина; Apple уже приходится предоставлять много серверных вычислений для обработки запросов, которые не могут быть обработаны на устройстве, и потребность в сервере была бы значительно выше, если бы ей приходилось обрабатывать запросы. все запросы со старых телефонов. Но приведенная причина звучит правдоподобно.

Еще одним удивительным открытием является то, что Apple Intelligence не будет поддерживаться Vision Pro, несмотря на то, что чип M2 достаточно мощный для этого. Причина здесь, по словам Грубера, в том, что чип уже работает почти на полную мощность, поэтому у него недостаточно резервной мощности для Apple Intelligence.

По словам хорошо информированных маленьких птичек, Vision Pro уже активно использует Neural Engine M2 в дополнение к чипу R1 для целей обработки в реальном времени — окклюзии, обнаружения объектов и тому подобного. На компьютерах Mac и iPad, оснащенных серией M, Neural Engine практически полностью доступен для функций Apple Intelligence. В Vision Pro он уже используется.

Опять же, объяснение имеет смысл, хотя и очень досадно, поскольку платформа может показаться почти специально созданной для искусственного интеллекта – и является предшественником возможного продукта Apple Glasses, который наверняка будет включать Apple Intelligence.

Еще один фрагмент из сводки новостей Грубера: приготовьтесь к тому, что вас постоянно раздражает запрос разрешения на передачу ChatGPT. По крайней мере, во внутренних версиях Apple нет опции «Всегда разрешать».

Некоторым людям понадобится опция «Всегда разрешать» для передачи запросов в ChatGPT, но, по словам представителей Apple, с которыми я разговаривал, такой опции пока не существует.

Я подозреваю, что это изменится, поскольку это быстро станет постоянным раздражением, но Apple, вероятно, хочет действовать осторожно на фронте конфиденциальности в первые дни существования сервиса.

Фото AltumCode на Unsplash