В спорах по поводу искусственного интеллекта многие исследователи склонны считать, что механизм может быть лишь холодно рациональным и логичным. Однако исследователи из Принстонского университета доказали, что ИИ перенимает все черты человека, в том числе крайне негативные. Материалы исследования были опубликованы в журнале Science.
Как стало известно, в ходе обучения система может приобретать определенные моральные ценности, которые внедряются разработчиком. Однако в машину может быть заложен как механизм предпочтения одного насекомого другому, так и национальные предпочтения, то есть расизм.
Исследователь из Принстона Эрвин Нараянан объяснил, что вопросы этики в программировании искусственного интеллекта крайне важны при разработке новых систем. Он отмечает, что в ИИ могут быть заложены закономерности исторического смещения, от которых общество старательно пытается отойти.
Ученые разработали программу, схожую с психологическим тестом на ассоциации, когда человеку показывают определенные изображения, которые вызывают у него либо позитивные, либо негативные эмоции. В ходе эксперимента с программой и ИИ стало понятно, что все данные, которые загружаются в систему, имеют определенные отклонение, будь то расовые или гендерные различия, затем «интеллект» обрабатывает их и начинает обладать негативными чертами, такими как расизм или сексизм.
Данное исследование продемонстрировало, что машинные методы обучения не являются идеальными. Ученые уверены, что пока ИИ будет обучаться на данных общества, которое имеет какие-то отрицательные черты, система будет перенимать негативные аспекты человека.