Skip to main content

Bard — это генеративный инструмент искусственного интеллекта, который может ошибаться

Инструмент Google для моделирования больших языков под названием Bard говорит, что он был обучен работе с Gmail, но Google отрицает это.

Bard — это генеративный ИИ или большая языковая модель (LLM), которая может предоставлять информацию на основе своего большого набора данных. Как и ChatGPT и подобные инструменты, он на самом деле не интеллектуален и часто ошибается, что называется «галлюцинациями».

Твит от Кейт Кроуфорд, автора и главного исследователя Microsoft Research, показывает ответ Барда, предполагающий, что Gmail был включен в его набор данных. Это было бы явным нарушением конфиденциальности пользователей, если бы это было так.

Но Google Workspace Twitter аккаунт ответил, заявив, что Bard является ранним экспериментом и будет совершать ошибки, и подтвердил, что модель не обучалась на информации, полученной из Gmail. Всплывающее окно на веб-сайте Bard также предупреждает пользователей о том, что Bard не всегда правильно отвечает на запросы.

Эти генеративные инструменты искусственного интеллекта далеко не надежны, и пользователи с доступом часто пытаются извлечь информацию, которая в противном случае была бы скрыта. Такие запросы, как у Кроуфорда, иногда могут предоставить полезную информацию, но в данном случае Бард ошибся.

Даже сам Google призывает пользователей возвращаться к веб-поиску всякий раз, когда LLM, такой как Бард, дает ответ. Хотя может быть интересно посмотреть, что он скажет, точность не гарантируется.