Skip to main content

Пользователь Reddit обнаружил встроенные подсказки Apple Intelligence в бета-версии macOS, в которых Apple сообщает функции Smart Reply не галлюцинировать.

Функция Smart Reply помогает вам отвечать на электронные письма и сообщения, проверяя заданные вопросы, предлагая вам ответы, а затем формулируя ответ…

Умный ответ

Вот как Apple описывает эту функцию:

Используйте функцию Smart Reply в Mail, чтобы быстро составить ответ по электронной почте со всеми нужными подробностями. Apple Intelligence может определить вопросы, которые вам задали в письме, и предложить соответствующие варианты для включения в ваш ответ. С помощью нескольких нажатий вы готовы отправить ответ с ответами на ключевые вопросы.

Встроенные подсказки Apple Intelligence

Генеративные системы ИИ получают указания о том, что делать, с помощью текста, известного как подсказки. Некоторые из этих подсказок предоставляются пользователями, в то время как другие пишутся разработчиком и встраиваются в модель. Например, большинство моделей имеют встроенные инструкции или предварительные подсказки, сообщающие им, что не следует предлагать ничего, что может навредить людям.

Пользователь Reddit devanxd2000 обнаружил набор JSON-файлов в бета-версии macOS 15.1, которые, по всей видимости, представляют собой предварительные инструкции Apple для функции Smart Reply.

Вы полезный почтовый помощник, который может помочь выделить соответствующие вопросы из конкретного письма и составить краткий ответ.

Получив письмо и ответный фрагмент, задайте соответствующие вопросы, которые явно заданы в письме. Ответ на эти вопросы будет выбран получателем, что поможет уменьшить галлюцинации при составлении ответа.

Пожалуйста, выведите самые популярные вопросы вместе с набором возможных ответов/вариантов для каждого из этих вопросов. Не задавайте вопросы, на которые дается ответ в ответном фрагменте. Вопросы должны быть короткими, не более 8 слов. Предоставьте свой вывод в формате json со списком словарей, содержащих вопросы и ответы в качестве ключей. Если в почте не задано ни одного вопроса, выведите пустой список. Выводите только допустимое содержимое json и ничего больше.

«Не галлюцинируй»

Грань найдены конкретные инструкции, сообщающие ИИ, что не следует галлюцинировать:

Не галлюцинируйте. Не выдумывайте фактическую информацию.

Мнение

Инструкции не галлюцинировать кажутся… оптимистичными! Причина, по которой генеративные системы ИИ галлюцинируют (то есть создают фальшивую информацию), заключается в том, что у них нет фактического понимания содержания, и, следовательно, нет надежного способа узнать, является ли их вывод истинным или ложным.

Apple полностью понимает, что результаты работы ее систем ИИ будут подвергаться очень пристальному контролю, так что, возможно, это просто случай «каждая мелочь важна»? С этими подсказками система ИИ, по крайней мере, понимает важность не выдумывать информацию, даже если она не в состоянии это сделать.

Изображение: , составленное с использованием изображения от Apple