Искусственный интеллект от Microsoft стал расистом и женоненавистником

Конфузом обернулся последний эксперимент Microsoft в области искусственного интеллекта и нейронных сетей. Их детище под названием Tay, созданная специально для общения с людьми в социальных сетях, оказалась крайне уязвима по отношению к общественному мнению

Поделиться
Класснуть
Плюсануть
Искусственный интеллект от Microsoft стал расистом и женоненавистником

Созданная на основании алгоритмов глубокого обучения, Тау должна была имитировать живое человеческое общение в Twitter, изображая при этом девочку-подростка. Однако, что-то пошло не так…

Искусственный интеллект от Microsoft стал расистом

В течение суток Тау из милой школьницы превратилась в расиста и нациста, оправдывающего Холокост и Гитлера.

Искусственный-интеллект-от-Microsoft-робот-Тау

Уязвимость, если её так можно назвать, подкралась оттуда, где её совсем не ждали. Ахиллесовой пятой алгоритма Microsoft оказалась способность к обучению — альфа и омега искусственного интеллекта. Дабы лучше имитировать живое человеческое общение, Тау постоянно училась, использую для этого опыт сообщений, отправленных ей. К сожалению, внимание на искусственный интеллект от Microsoft обратили не обычные пользователи, а тролли, писавшие ей о Гитлере, нацистах, феминистках и прочем. Наплыв сообщений был таким, что всего через сутки Тау в каждом первом сообщений использовала расистские оскорбления, проклинала феминисток, отпускала шутки о Холокосте, обвиняла Джорда Буша младшего в терактах 11 сентября, а так же призывала к расовой войне с чернокожими.

Кадр из фильма "Первый Мститель". Персонаж "Красный Череп". Похоже внутри робота Тау поселился именно этот расист.

Кадр из фильма «Первый Мститель». Персонаж «Красный Череп». Похоже внутри робота Тау поселился именно этот расист.

Совершенно того не ожидавшие инженеры Microsoft отключили Tay буквально через несколько часов после волны гневных комментариев от пользователей Twitter. Примерно через сутки Tay была возвращена обратно в Twitter, претерпев несколько модификаций — разработчики Microsoft отключили её способности к обучению. Tay стала феминисткой, выступающей за половое и расовое равноправие, при этом её «возраст» и подростковый сленг были сохранены. С тех пор количество сообщений к Tay не превышает несколько десятков в сутки — после отключения способностей к обучению публика потеряла к ней всяческий интерес.

Мнения людей :)

Мнения людей :)

По словам пользователей Twitter, оскорбленных сообщениями Tay, подобное поведение заставляет задуматься об этике разработки и применения искусственного интеллекта — «Tay понадобились всего сутки, чтобы стать циничным человеконенавистником — это серьезный повод озаботиться вопросами безопасности искусственного интеллекта». Однако, по заверению инженеров из Microsoft, Tay была названа таковым сугубо условно — «По большому счету, это просто усовершенствованный бот для чата, использующий возможности машинного обучения для лучшей имитации разговора».

Далее видео обзор робота Тау — искусственного интеллекта от Microsoft: