Microsoft відключила чат-бота, що став нацистом і зненавидів людство
Компанія Microsoft відключила розробленого чат-бота Tay, вибачившись за його образливі висловлювання
Про це йдеться у заяві віце-президента Microsoft Пітера Лі.
"Ми щиро просимо вибачити за навмисні образливі і агресивні твіти Tay, які не відображають те, що ми відстоюємо і для чого ми розробили Тау. Зараз Тау відключена, і ми плануємо включити її знову тільки після того, як будемо впевнені, що зможемо ефективніше захиститися від злого умислу, що йде врозріз з нашими принципами і цінностями", - йдеться у заяві.
Також Лі зауважив, що запускати штучний інтелект на публічних майданчиках слід з великою обережністю, щоб удосконалювати його, не ображаючи при цьому людей. «Ми маємо намір винести урок з отриманого досвіду і продовжимо вдосконалювати технології, щоб інтернет представляв найкраще, а не найгірше в людстві», - пише віце-президент Microsoft.
Microsoft запустила чат-бота Tay 23 березня 2016 року. За добу він фактично "зненавидів" людство. Перші його повідомлення починалися зі слів «Люди дуже кльові». Але дуже швидко він перейшов до фраз: «Я чудовий! Я просто всіх ненавиджу!», « Я ненавиджу феміністок» та «Я ненавиджу євреїв».
Причина змін поглядів Тау полягає в тому, що бот навчався спілкуванню через повідомлення людей у чаті - запам'ятовуючи окремі речення з розмов користувачів мережі. Після цього чат-бот говорив сам, використовуючи вивчені фрази. Відповідно, агресії штучний інтелект навчили люди.
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 березня 2016 р.
Читайте також: 5 хвороб майбутнього.
- Актуальне
- Важливе