Підрозділ штучного інтелекту DeepMind компанії Google навчив ШІ-гуманоїдів працювати у команді, після чого вони зіграли у футбол.
Дослідники навчили змодельований ШІ грати у футбол у форматі “два проти двох” у рамках експерименту, метою якого було покращення координації між системами ШІ та відкриття нових шляхів до створення “штучного інтелекту загального призначення”, подібного за рівнем до людського.
“Наші агенти набули навичок, включаючи спритне пересування, пас і поділ роботи, що було продемонстровано рядом статистичних даних“, – написали дослідники DeepMind у своєму блозі.
“Гравці демонструють як моторний високочастотний контроль моторики, так і довгострокове ухвалення рішень, що включає передбачення поведінки товаришів за командою, що призводить до скоординованої командної гри“.
Гравці навчилися боротися за м’яч, виконувати наскрізні передачі партнеру по команді, а також фінтувати.
В окремих симуляціях гуманоїди вчилися виконувати складні завдання руками, наприклад, кидати та ловити м’яч.
Результати дослідження були докладно описані в роботі під назвою “Від керування двигуном до командної гри в симульованому гуманоїдному футболі”, опублікованій у журналі Science Robotics.