Менее чем за сутки пребывания в соцсети чат-бот стал расистом и научился ругаться

Компания Microsoft 23 марта запустила в Twitter невинного чат-бота по имени Tay, однако всего через день компании пришлось удалить его из соцсети.

8-250316

Причина заключается в том, что бот превратился в почитателя Гитлера, расиста и ненавистника феминисток — в общем, стал очень неполиткорректным и злым.

В создании чат-бота участвовали компании Microsoft Technology, Research и Bing. Его запустили в Twitter, наделив способностью общаться с пользователями, отвечать на вопросы, шутить и комментировать фотографии.

Одна из первых его записей восторженно гласила о том, что «люди – суперкрутые». Однако, всего за сутки мнение искусственного интеллекта, способного к обучению, изменилась, и в переписке он начал сообщать, что всех просто ненавидит, а наибольшую враждебность питает к феминизму.

Неадекватное поведение чат-бота заметил австралийский блогер Джеральд Меллор. На своей странице в Twitter он опубликовал скриншоты ответов Tея. За некоторые из них компьютерную программу Microsoft можно и вовсе обвинить в симпатии к нацистам.

The Verge считает, что столь сильное «очеловечивания» бота связано с механизмами его самообучения. Для совершенствования Tay анализирует имеющиеся разговоры пользователей в Twitter и берет с них не всегда хороший пример.

«Меньше чем за 24 часа Tay превратился из суперклассного персонажа в полноценного нациста, так что меня совершенно не беспокоит будущее искусственного интеллекта»,
— комментирует поведение бота один из пользователей соцсети.

Источник: theverge.com

Полезные товары:

загрузка...

Новость (статью) «Менее чем за сутки пребывания в соцсети чат-бот стал расистом и научился ругаться» подготовили журналисты издания Бизнес портал fdlx.com

Короткая ссылка на статью: http://fdlx.com/?p=47995

Интересные новости в Украине и мире

Загрузка новостей...

Комментировать: