Skip to main content

угрозы ИИ |  Криптовалюта с молотком судьи

Растет признание угроз ИИ, с которыми мы можем столкнуться, поскольку компании все быстрее и быстрее продвигаются в области технологий искусственного интеллекта. В ответ на это Министерство юстиции США назначило своего первого федерального сотрудника правоохранительных органов, занимающегося вопросами ИИ…

Минюст США назначил офицера по искусственному интеллекту

Reuters сообщает о назначении на эту должность профессора Принстонского университета.

Джонатан Майер, профессор Принстонского университета, занимающийся исследованиями в области технологий и права, будет выполнять функции главного советника по науке и технологиям и главного специалиста по искусственному интеллекту, сообщили в департаменте.

«Министерство юстиции должно идти в ногу с быстро развивающимися научными и технологическими разработками, чтобы выполнять нашу миссию по поддержанию верховенства закона, обеспечению безопасности нашей страны и защите гражданских прав», — заявил генеральный прокурор Меррик Гарланд в своем заявлении.

Риск использования ИИ для оказания помощи в преступной деятельности, такой как мошенничество и даже в разработке опасных биохимических веществ, недавно был подчеркнут Белым домом. Apple была одной из более чем 200 компаний и других организаций, которые отреагировали на указ президента и помогли решить эту проблему.

Министерство юстиции заявляет, что Майеру будет поручено заниматься обеими сторонами ИИ: его использованием преступниками, а также использованием США для устранения угроз со стороны террористов и национальных государств.

Заместитель генерального прокурора Лиза Монако заявила, что эта технология может помочь Соединенным Штатам обнаруживать и пресекать террористические заговоры и враждебные действия противников США. Но она сказала, что департамент также обеспокоен тем, что он может усилить существующие предубеждения, фальсифицировать выборы и создать новые возможности для киберпреступников.

«Каждая новая технология — это палка о двух концах, но ИИ, возможно, является самым острым лезвием», — заявили в Монако.

Призыв к действию в отношении дипфейков

Кроме того, Mashable сообщает, что сотни ученых, политиков и технологических лидеров подписали открытое письмо, в котором выражают обеспокоенность по поводу рисков так называемых дипфейков: созданных искусственным интеллектом фальшивых видеороликов, из-за которых может показаться, что кто-то говорит что угодно.

Помимо очевидных рисков мошенничества, существует обеспокоенность по поводу использования дипфейков для влияния на выборы, создавая впечатление, что кандидаты делают дискредитирующие заявления или совершают оскорбительные действия. Кроме того, существуют опасения, что даже полностью вымышленный CSAM, созданный искусственным интеллектом, может нормализовать жестокое обращение с реальными детьми.

Открытое письмо, которое может подписать каждый, призывает к принятию законодательства для решения этих проблем.

Новые законы должны:

Полностью криминализировать дипфейковую детскую порнографию, даже если изображены только вымышленные дети; Установить уголовную ответственность для тех, кто сознательно создает или сознательно способствует распространению вредных дипфейков; Требовать от разработчиков и дистрибьюторов программного обеспечения не допускать создания вредоносных дипфейков в своих аудио- и видеопродуктах и ​​нести ответственность, если их превентивные меры слишком легко обойти.

Фото Канчанара на Unsplash