Skip to main content
Apple

Инициативы федерального правительства по искусственному интеллекту подчиняются трем правилам

Поскольку 2024 год выглядит как год, когда Apple сделает большой рывок в области генеративного искусственного интеллекта, федеральное правительство также поощряет использование искусственного интеллекта своими собственными агентствами…

Однако сегодня Белый дом объявил, что правительственные учреждения, желающие воспользоваться преимуществами ИИ, должны применить три меры защиты для смягчения потенциальных рисков, связанных с этой технологией.

Три правила для инициатив федерального правительства по искусственному интеллекту

Engadget отмечает, что вице-президент Камала Харрис объявила о новой политике, которая предъявляет федеральным агентствам три требования при внедрении инициатив в области ИИ:

  • Обеспечьте безопасность
  • Будьте прозрачными
  • Назначить главного специалиста по искусственному интеллекту

«Я считаю, что все лидеры правительства, гражданского общества и частного сектора имеют моральный, этический и социальный долг обеспечить, чтобы искусственный интеллект внедрялся и развивался таким образом, чтобы защитить общественность от потенциального вреда, гарантируя при этом каждому возможность наслаждаться его преимущества», — сказал вице-президент журналистам во время пресс-конференции.

Обеспечьте безопасность

Во-первых, агентствам необходимо будет гарантировать, что любые используемые ими инструменты искусственного интеллекта «не ставят под угрозу права и безопасность американского народа». У них есть время до 1 декабря, чтобы убедиться, что у них есть «конкретные гарантии», гарантирующие, что системы искусственного интеллекта, которые они используют, не влияют на безопасность или права американцев.

Это требование не ограничивается физической безопасностью, но также и такими вещами, как поддержание честности выборов и инфраструктуры голосования.

Одна из серьезных проблем, вызываемых системами ИИ, заключается в том, что, поскольку они извлекают уроки из того, что было сделано в прошлом, они могут увековечить системную предвзятость. Поэтому необходимы соответствующие меры безопасности для использования ИИ в таких областях, как превентивная полицейская деятельность и проверка перед приемом на работу.

Будьте прозрачными

Федеральные агентства должны раскрывать информацию об используемых ими системах искусственного интеллекта, при этом в большинстве случаев публикуется полная информация.

«Сегодня президент Байден и я требуем, чтобы каждый год правительственные учреждения США публиковали в Интернете список своих систем искусственного интеллекта, оценку рисков, которые эти системы могут представлять, и то, как этими рисками управляют», — сказал Харрис.

В рамках этих усилий агентствам необходимо будет публиковать принадлежащие правительству коды, модели и данные ИИ, если это не нанесет вред обществу или деятельности правительства.

Назначить главного специалиста по искусственному интеллекту

И последнее, но не менее важное: федеральным агентствам необходимо будет осуществлять внутренний надзор за использованием ИИ. Это включает в себя назначение каждым департаментом главного специалиста по искусственному интеллекту, который будет контролировать все использование искусственного интеллекта агентством.

«Это делается для того, чтобы гарантировать ответственное использование ИИ, понимая, что у нас должны быть старшие руководители в нашем правительстве, которым конкретно поручено контролировать внедрение и использование ИИ», — отметил Харрис. Многим агентствам также необходимо будет создать советы по управлению ИИ к 27 мая.

Относительно медленный переход Apple к генеративному искусственному интеллекту почти наверняка является результатом собственных опасений компании по поводу потенциальных рисков.

Фото Аны Ланца на Unsplash