Делает ли искусственный интелект роботов расистскими?

Делает ли искусственный интелект роботов расистскими?

Новое исследование показало, что робот, работающий с широко используемой интернет-системой искусственного интеллекта, постоянно предпочитает мужчин женщинам, белых людей цветным и делает поспешные выводы о профессии или должности людей, основываясь исключительно на фотографии их лица.

В исследовании представлено первое задокументированное свидетельство, показывающее, что роботы с этой моделью ИИ, работают со значительными гендерными и расовыми предубеждениями.

Рецензируемое исследование, проведенное под руководством Университета Джона Хопкинса, Технологического института Джорджии и исследователей Вашингтонского университета, должно быть представлено и опубликовано на Конференции 2022 года по вопросам справедливости, подотчетности и прозрачности.

"Мы рискуем создать поколение расистских и сексистских роботов, но люди и организации решили, что можно создавать эти продукты, не решая проблем", — сказал Эндрю Хундт, научный сотрудник Технологического института Джорджии, который руководил работой в Лаборатории вычислительного взаимодействия и робототехники Джона Хопкинса.

Модели искусственного интеллекта, используемые для распознавания людей и объектов, часто обращаются к огромным наборам данных, доступных бесплатно в Интернете. Проблема в том, что Интернет, как известно, наполнен неточным и откровенно предвзятым контентом, в результате чего любой алгоритм, построенный на основе этих наборов данных, потенциально может наследовать эти черты.

Это может привести к расовым и гендерным предубеждениям в реальном мире, оказывая потенциально опасное влияние на владельцев таких роботов.

ПОДЕЛИТЬСЯ
ВСЕ ПО ТЕМЕ
КОММЕНТАРИИ
НОВОСТИ ПАРТНЕРОВ
ЗНАКОМСТВА
МЫ НА FACEBOOK