Skip to main content

Когда на прошлой неделе я попробовал очки Ray-Ban Meta, я назвал функции искусственного интеллекта в значительной степени уловкой, но все же заставляю меня с нетерпением ждать будущего продукта Apple Glasses.

Несколько комментаторов отметили, что очки работают несколько лучше, когда им задают дополнительные вопросы, и я опробовал эту функцию во время другой прогулки, чтобы выявить смесь попаданий и промахов. Но что Действительно в настоящее время отсутствует интеграция…

 

У очков нет доступа к GPS подключенного iPhone, поэтому они не могут использовать местоположение в качестве подсказки. У них нет доступа к сторонним приложениям, поэтому они не могут получать из них данные о таких вещах, как общественный транспорт. Что нам действительно здесь нужно, так это полностью связанная экосистема – и я могу вспомнить компанию, которая специализируется на этом…

Долгосрочная мечта об искусственном интеллекте

Ранее я писал о своей давней мечте о полностью подключенной Siri. Почти десять лет назад я мечтал дать ему инструкцию типа «Устроить обед с Сэмом на следующей неделе» и оставить его выяснять все детали.

Сири знает, кто такой Сэм, так что это нормально. У него есть доступ к моему календарю, поэтому он знает, когда у меня есть свободное время для обеда. Далее ему необходимо знать, когда у Сэма будет свободное время для обеда.

Это не должно быть сложно. Microsoft Outlook в течение многих лет предлагал делегированный доступ к календарям, где коллеги по работе могут проверять дневники друг друга на уровне занятости, а уполномоченным лицам разрешено добавлять встречи. Итак, нам нужен эквивалент iCloud.

Мой iPhone проверяет календарь Сэма в iCloud на наличие свободных мест для обеда и сопоставляет их с моими. Он обнаруживает, что в среду мы оба свободны, поэтому назначает обед.

И оно могло бы сделать даже больше. Мой iPhone мог легко запомнить мои любимые рестораны и рестораны Сэма и найти тот, который нравится нам обоим. Затем он может подключиться к системе бронирования ресторана онлайн, чтобы сделать заказ.

OpenAI только что дал нам еще один взгляд на будущее искусственного интеллекта в форме GPT-4o, версии ChatGPT, которая может использовать камеры iPhone, чтобы видеть, что нас окружает (а также Screen Recorder, чтобы видеть, что происходит на нашем экране в других приложениях). .

Эту способность видеть вокруг нас, конечно, гораздо удобнее реализовать с помощью умных очков. Нам не нужно держать телефон в руках, мы просто спрашиваем очки.

Я отметил, что мне подарили очки Ray-Ban Meta. по большей части общая информация о том, что было вокруг меня, за некоторыми исключениями. Задание дополнительных вопросов выявило смесь впечатляющих и не впечатляющих результатов, а также некоторые, которые просто указывают на функции, которые будут существовать, но еще не существуют.

Этот пример был невероятно впечатляющим, тем более, что я уверен, что вывеска была слишком маленькой, чтобы можно было разглядеть текст, и она даже не знала, в каком городе мы находимся:

В прошлый раз я отметил, что они не идентифицировали растения конкретно, но некоторые последующие наблюдения показывают, что иногда они могут хорошо это делать.

Также впечатляет:

Неплохое предположение здесь:

С этим продолжением он также справился достаточно хорошо, хотя, опять же, ключевым моментом здесь будет интеграция — в идеале тогда можно было бы загрузить/открыть приложение на моем телефоне.

Следующий пример действительно демонстрирует необходимость того, чтобы все работало вместе. Я показал ему автобус и спросил, куда он идет. Он должен уметь читать табло и номер пункта назначения, а у меня на телефоне есть CityMapper, но этот обмен был болезненным!

Я сказал ему, что маршрут автобуса 135, но поскольку у него нет доступа к GPS iPhone, он даже не знал, что находится в Лондоне.

Наконец, когда я сказал ему, что мы в Лондоне, оно дошло!

Он не может сканировать QR-коды (прошу прощения, что принял мое отражение за человека за дверью).

Наконец, это неплохо без GPS и, очевидно, визуального распознавания станции (возможно, по чтению знака, но я подозреваю, что нет, поскольку обычно текст не читается, если только он не показан крупным планом):

Он определял возможные следующие остановки, а не пункт назначения. Но имея доступ к CityMapper или аналогичному сервису, он мог бы дать много более полезный ответ.

Итак, чего здесь не хватает, так это специализации Apple.

Meta использует Llama 2. OpenAI только что поднял ставки с помощью GPT-4o. Ожидается, что Apple будет использовать сочетание OpenAI и собственного движка искусственного интеллекта.

Все это отличные новости. ИИ уже развивается феноменальными темпами, и конкуренция между компаниями только ускорит скорость улучшений. В любом случае присоединение Apple было бы хорошей новостью.

Но представьте себе, что Apple предлагает свой экосистемный подход к торговой марке. Аппаратное и программное обеспечение работают вместе. Интеграция различных устройств для использования всех их возможностей. Это что необходимо для реальной трансформации такого рода технологий. Не могу дождаться, чтобы увидеть, что с этим сделает Apple.