Существуют противоречивые взгляды на риски для человечества, связанные с искусственным интеллектом, а некоторые даже заходят так далеко, что предполагают, что ИИ может привести к исчезновению людей. Удивительно, однако, что последнее мнение разделяют многие ведущие эксперты в области искусственного интеллекта, в том числе руководители OpenAI и Google DeepMind…
Это своего рода заявление, которое вы обычно ожидаете от теоретиков заговора, живущих в подвале своей мамы, но у этого не могло быть более безупречных полномочий. Подписанты похожи на «Кто есть кто» в области технологий в целом и науки об искусственном интеллекте в частности.
Среди подписантов есть известные ученые и, что характерно, Сэм Альтман, генеральный директор OpenAI, и Демис Хассабис, генеральный директор Google DeepMind.
Предупреждение приходит в виде одного предложения:
Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война.
В преамбуле говорится, что заявление предназначено для начала обсуждения, но также говорится, что все большее число экспертов действительно считают, что ставки могут быть такими высокими.
Эксперты по ИИ, журналисты, политики и общественность все чаще обсуждают широкий спектр важных и неотложных рисков, связанных с ИИ. Тем не менее, может быть трудно выразить озабоченность по поводу некоторых наиболее серьезных рисков передового ИИ. Приведенное ниже краткое заявление призвано преодолеть это препятствие и открыть дискуссию. Он также предназначен для создания общих знаний о растущем числе экспертов и общественных деятелей, которые также серьезно относятся к некоторым из наиболее серьезных рисков передового ИИ.
The NY Times отмечает, что среди подписантов также есть два крупнейших имени в области искусственного интеллекта.
Джеффри Хинтон и Йошуа Бенджио, двое из трех исследователей, получивших премию Тьюринга за свою новаторскую работу в области нейронных сетей и часто считающихся «крестными отцами» современного движения ИИ, подписали это заявление, как и другие видные исследователи в этой области (The третий обладатель премии Тьюринга, Янн ЛеКун, который возглавляет исследования Meta в области искусственного интеллекта, не подписал контракт со вторником.)
Это следует за более ранним открытым письмом, призывающим к шестимесячной паузе в разработке более продвинутых моделей генеративного ИИ. Среди подписантов был соучредитель Apple Стив Возняк.
В письме говорится, что текущее развитие ИИ выходит из-под контроля и может представлять «серьезные риски для общества и человечества».
Последнее письмо было охарактеризовано как «открытое» для экспертов по ИИ, которые выражали свои опасения в частном порядке, но до сих пор боялись делать это публично, опасаясь насмешек. Письмо обеспечивает безопасность в количестве и в репутации, поскольку теперь потребуется еще более смелый человек, чтобы развеять опасения, выраженные столькими светилами.
Какова ваша точка зрения? Может ли ИИ представлять экзистенциальную угрозу человечеству? Пожалуйста, поделитесь своими мыслями в комментариях.
Изображение: Google DeepMind/Unsplash
Meta продолжает выбирать простые функции Apple Vision Pro для своих гарнитур Quest. Компания также расширяет…
Поскольку Delta дебютировала в App Store около двух недель назад; Я провел слишком много часов,…
Складное устройство может иметь два экрана, нижний из которых выполняет роль «мягкой клавиатуры». Складные устройства…
В некоторых штатах действует поддержка Apple Wallet для безопасного хранения водительских прав и идентификаторов штата…
Ваш iPhone может подумать, что вам нужно полежать Неизвестное количество пользователей iPhone сообщают, что их…