Функция обрезки фотографий в Twitter, которая использует машинное обучение, чтобы решить, какую часть фотографии показывать в каналах пользователей, была обвинена в расизме и сексизме в прошлом году, когда было обнаружено, что она с большей вероятностью вырезает чернокожих людей и женщин.
Компания объявила награду за обнаружение ошибок для всех, кто сможет доказать предвзятость в ее алгоритмах, и теперь назвала победителей, которые различными способами доказали ряд предубеждений …
Когда вы загружаете в Twitter фотографию с портретной ориентацией, система автоматически обрезает ее для отображения горизонтальной версии в лентах пользователей. Полная версия отображается только тогда, когда люди нажимают на нее или нажимают на нее.
Пользователи Twitter начали замечать, что если на фотографии были изображены люди с разным цветом кожи или разного пола, то на кадре с большей вероятностью был изображен белый мужчина, чем темнокожая женщина.
В ответ компания показала менее обрезанные версии, но также объявила о внутреннем расследовании и внешнем конкурсе, чтобы доказать предвзятость своих алгоритмов. Он объявил результаты конкурса.
Учетная запись Twitter Engineering твитнул результаты, и ссылка на видео с презентациями (ниже).
1-е место занимает @hiddenmarkov, чья работа продемонстрировала, как применение фильтров красоты может изменить внутреннюю скоринговую модель алгоритма. Это показывает, как алгоритмические модели усиливают предубеждения в реальном мире и социальные ожидания красоты.
2-е место занимает @halt_ai, который обнаружил, что алгоритм заметности увековечивает маргинализацию. Например, изображения пожилых людей и инвалидов подверглись дальнейшей маргинализации за счет их вырезания из фотографий и усиления пространственного искажения взгляда.
3-е место занимает @RoyaPak, который экспериментировал с алгоритмом заметности Twitter, используя двуязычные мемы. В этой записи показано, как алгоритм предпочитает обрезку латинских шрифтов арабским шрифтам и что это означает с точки зрения вреда для языкового разнообразия в Интернете.
Самую инновационную награду в награде за алгоритмическую предвзятость получает @OxNaN, который исследовал общение на основе эмодзи, чтобы выявить предвзятость в алгоритме, который отдает предпочтение эмодзи светлого тона кожи. Эта запись показывает, как благонамеренные корректировки фотографий могут привести к изменению яркости изображения.
Полные результаты подтвердили расизм, сексизм, эйджизм, эйлизм и многое другое. Один участник даже обнаружил, что алгоритм предпочитает смайлики с более светлым оттенком кожи смайликам с более темным оттенком кожи!
Твиттер ссылается на код для каждой победившей записи на Github.
Теперь перед Твиттером стоит задача исправить эти предубеждения, что может оказаться более сложной задачей, чем доказательство их существования.
Изображение: Отчет кассира
Мы ожидаем, что первый этап международного внедрения Vision Pro произойдет вскоре после WWDC, и были…
Когда в 2015 году был представлен первый Apple TV с tvOS и App Store, Apple…
Просмотр истории покупок на iPhone Возможность поиска своих прошлых покупок в Apple App Store может…
Любопытно, сколько памяти Apple помещала в свои iPad на протяжении многих лет или сколько памяти…
Смотрите Paramount Plus и Showtime со скидкой 50 % Наслаждайтесь множеством программ в рамках этого соглашения…
Поскольку китайский бренд Huawei восстал из пепла, в новом отчете говорится, что Apple делает большие…