Штучний інтелект Google навчився агресії заради виграшу

У випадках, коли штучному інтелекту DeepMind загрожує можливість програшу, нейромережа схильна використовувати агресивні тактики поведінки для того, щоб забезпечити собі виграш

Це виявили розробники штучного інтелекту під час перевірки його здатності співпрацювати з іншими, повідомляє Business Insider.

Під час дослідження вчені провели 40 мільйонів раундів комп'ютерної гри зі збирання фруктів між двома "агентами" DeepMind, які повинні були змагатися один з одним і зібрати настільки багато віртуальних яблук, наскільки це буде можливо.

Виявилося, що поки в грі була достатня кількість яблук, штучний інтелект вів себе мирно, але по мірі того, як яблук ставало все менше, агенти були схильні використовувати лазер для того, щоб вибити опонента з гри і зібрати яблука.

При цьому жодної додаткової "винагороди" за використання лазерного променя штучний інтелект не отримував. Він просто вибивав суперника з гри і отримував можливість спокійно збирати яблука.

Якщо ж агенти не використовували лазерні промені, вони могли закінчити гру з однаковою кількістю яблук. Цікаво, що саме таку тактику обрали "менш інтелектуальні" версії DeepMind. Саботаж, агресію і жадібність демонстрували тільки більш комплексні версії штучного інтелекту.

Більш того, більш комплексні форми DeepMind були схильні раніше почати використання лазера і таким чином отримати доступ до левової частки яблук.

На думку дослідників, це свідчить про те, що більш інтелектуально розвинені агенти більше схильні до навчання у навколишнього середовища і, як наслідок, до більш агресивних тактик поведінки.

Дослідники також перевірили можливості штучного інтелекту в грі Wolfpack, в якій два агента DeepMind грали як вовки, а один - як вівця. Вчені наголошують, що з цієї гри штучний інтелект виніс думку про те, що кооперація з іншими може принести бажаний результат.