Skip to main content

Недавние достижения в области искусственного интеллекта и выпуск ChatGPT вызвали новый интерес к искусственному интеллекту как инструменту. Агентизированные LLM — это последняя попытка создать высокоспециализированные ИИ и избежать их выхода из-под контроля.

ИИ сегодня в моде: люди и организации спешат внедрить или использовать ИИ для повышения эффективности и прибыли. Но в мире искусственного интеллекта все еще сохраняется одна неприятная проблема, которая с течением времени становится все более тревожной: согласованность.

Под согласованием ИИ понимается процесс проектирования и внедрения систем ИИ таким образом, чтобы они соответствовали человеческим целям, ценностям и желаемым результатам. Другими словами, согласование направлено на то, чтобы ИИ не вышел из-под контроля.

Это зарождающаяся область ИИ, и исследователи и разработчики только начинают осознавать ее важность. Страх того, что ИИ выйдет из-под контроля и потенциально нанесет вред или уничтожит человечество, лежит в основе стремления к лучшему согласованию ИИ.

Разделение задач ИИ с помощью композиции

Одним из способов добиться работающего согласования ИИ, сохраняющего как точность, так и согласованность, является композиция — концепция, взятая из мира программного обеспечения, в которой часть программного обеспечения создается путем сборки существующих компонентов для создания приложения или пакета.

Выравнивание обычно используется при обучении моделей большого языка (LLM) для изучения конкретной области знаний — и периодическом переобучении этих моделей, когда они начинают отклоняться от курса.

Идея использования композиции в ИИ состоит в том, чтобы разбить модели обучения на подзадачи, при этом каждая задача сосредоточена на чем-то одном. Все программное обеспечение периодически проверяется при каждой задаче, чтобы убедиться, что оно выполняет свою функцию — и только свою функцию.

Используя композицию, чтобы сфокусировать задачи обучения на чем-то одном, системы искусственного интеллекта можно сделать более надежными и точными, поддерживая соответствие подзадач и моделей желаемым целям.

Отражение, или рефлексия

Один из способов научить модели ИИ оставаться на цели — дать им возможность использовать рефлексию, при которой модель или задача периодически проверяют себя, чтобы убедиться, что то, что она преследует, соответствует ее цели. Если модель или задача начинают отклоняться от темы, программное обеспечение может периодически корректировать задачу, чтобы гарантировать, что она остается целенаправленной.

Автономные агенты, управляемые задачами

Поскольку конечной целью согласования является точность и соблюдение границ, а композиция — хороший способ добиться этого, конечной целью является разработка системы агентов. Каждый агент становится экспертом в конкретной области.

Агентизированные LLM и другие общие агенты ИИ уже находятся в разработке, а в некоторых случаях уже выпущены, и вокруг этой темы возникает целая экосистема агентов ИИ.

исследователь искусственного интеллекта Ёхей Накадзима опубликовал в своем блоге статью под названием «Автономный агент, управляемый задачами, использующий GPT-4, шишку и LangChain для различных приложений».

LangChain — это набор инструментов и агентов искусственного интеллекта, который помогает разработчикам создавать агентизированные LLM с помощью возможности компоновки.

У Накадзимы также есть запись в блоге под названием «Восстание автономного агента». В статье Накадзимы показаны диаграммы одного из возможных способов работы агентизированных систем LLM:

Агентизированная модель Накадзимы.

Операционные системы агентов ИИ

e2b.dev выпустила EB2, которую описывает как «Операционную систему для агентов ИИ». Eb2.dev также опубликовал список «Потрясающих ИИ-агентов» на GitHub. Также имеется репозиторий замечательных SDK для агентов ИИ.

В будущем мы можем представить себе системы искусственного интеллекта, которые можно будет изменять, просто меняя агентов и LLM, выбранных для согласования, до тех пор, пока не будет достигнут желаемый результат. Вполне возможно, что мы увидим появление операционных систем агентов ИИ, которые будут выполнять эти задачи за нас.

Дополнительные ресурсы

В дополнение к вышеупомянутым ресурсам также посетите Центр инструментов AI, в частности «Введение в выравнивание ИИ: заставить ИИ работать на благо человечества», а также «Важность согласования ИИ», объясненную в 5 пунктах на форуме AI Alignment Forum.

Есть также хорошая вводная статья по теме согласования ИИ под названием «Понимание исследования согласования ИИ: систематический анализ» Яна Х. Киршнера, Логана Смита, Жака Тибодо и других.

Еще одна интересная компания, занимающаяся веб-агентами искусственного интеллекта, на которую стоит обратить внимание, — Cognosys.

Нам придется подождать и посмотреть, что ждет в будущем ИИ и согласованность, но работа уже идет полным ходом, чтобы попытаться смягчить некоторые риски и потенциальные негативные аспекты, которые ИИ может принести с течением времени.