Skip to main content

В своем блоге по машинному обучению Apple объявила о решительной поддержке проекта StableDiffusion. Сюда входят обновления только что выпущенных macOS 13.1 beta 4 и iOS 16.2 beta 4 для повышения производительности при работе этих моделей на чипах Apple Silicon.

Apple также опубликовала обширный документ и пример кода, чтобы показать, как преобразовать исходные модели StableDiffusion в собственный формат Core ML.

Это объявление является самой большой официальной поддержкой, которую Apple продемонстрировала недавнему появлению генераторов изображений с искусственным интеллектом.

Напомним, методы генерации изображений, основанные на машинном обучении, получили известность благодаря удивительным результатам модели DALL-E. Эти генераторы изображений ИИ принимают строку текста в качестве подсказки и пытаются создать изображение того, что вы просили.

Вариант под названием StableDiffusion был запущен в августе 2022 года и уже привлек много инвестиций сообщества.

Благодаря новым аппаратным оптимизациям в выпусках Apple OS модели Core ML StableDiffusion в полной мере используют преимущества архитектур Neural Engine и Apple GPU, используемых в чипах серии M.

Это приводит к некоторым впечатляюще быстрым генераторам. Apple заявляет, что базовый MacBook Air M2 может генерировать изображение с использованием модели StableDiffusion с 50 итерациями менее чем за 18 секунд. Даже iPad Pro M1 может выполнить ту же задачу менее чем за 30 секунд.

Apple надеется, что эта работа побудит разработчиков интегрировать StableDiffusion в свои приложения для работы на клиенте, а не в зависимости от серверных облачных сервисов. В отличие от облачных реализаций, запуск на устройстве является «бесплатным» и обеспечивает конфиденциальность.