Skip to main content

Воз призывает к паузе в развитии ИИ |  Стив Возняк

Соучредитель Apple Стив Возняк присоединился к Илону Маску и ведущим ученым в области искусственного интеллекта, призывая приостановить разработку передовых технологий искусственного интеллекта. В частности, в открытом письме содержится просьба о минимальной шестимесячной паузе в разработке систем искусственного интеллекта, более мощных, чем ГПТ-4…

В письме говорится, что текущее развитие ИИ выходит из-под контроля и может представлять «серьезные риски для общества и человечества».

Как указано в широко одобренных Принципах ИИ Asilomar, продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта застряли в неконтролируемой гонке по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели — не может понять. прогнозировать или надежно контролировать.

В нем говорится, что системы ИИ подвергают риску множество рабочих мест, и задается ряд вопросов.

Должны ли мы позволить машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, в том числе выполняющие? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, устаревать и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией?

Разработчик ChatGPT OpenAI ранее указывал, что такая пауза может когда-нибудь понадобиться, и в письме говорится, что этот день настал.

В недавнем заявлении OpenAI относительно общего искусственного интеллекта говорится, что «в какой-то момент может оказаться важным получить независимую оценку, прежде чем приступать к обучению будущих систем, и для самых продвинутых усилий согласиться ограничить скорость роста вычислений, используемых для создания новых». модели». Мы согласны. Этот момент сейчас.

В письме осторожно подчеркивается, что подписавшие его стороны призывают не к остановке всех разработок ИИ, а только к «опасной гонке за все более крупными непредсказуемыми моделями черного ящика с новыми возможностями».

Другие известные подписанты включают длинный список ученых, специализирующихся на искусственном интеллекте, а также старших руководителей технологических компаний.

Полностью письмо можно прочитать здесь.

Фото: Алессандро Виапьяно/CC4.0