8 серпня Google DeepMind перейшов на платформу соціальних мереж X (раніше відома як Twitter), щоб поділитися інформацією про свій останній дослідницький проект, пов’язаний із робототехнічною системою, призначеною для гри в настільний теніс.

Google DeepMind — це видатна дослідницька лабораторія штучного інтелекту (AI), яка працює під егідою Alphabet Inc., материнської компанії Google. Він був утворений шляхом злиття двох провідних команд AI: Google Brain і оригінальної команди DeepMind. Ці спільні зусилля підштовхнули Google DeepMind до авангарду інновацій ШІ, зосередившись на розробці передових систем ШІ, які можуть вирішувати деякі з найскладніших наукових та інженерних завдань.

DeepMind спочатку було засновано в 2010 році з сильним акцентом на глибоке навчання з підкріпленням, метод, який поєднує глибоке навчання з навчанням з підкріпленням. Лабораторія привернула широку увагу завдяки створенню AlphaGo, першій системі штучного інтелекту, яка перемогла чемпіона світу з гри Го, подвиг, який вважався на десятиліття випереджаючим свій час. Цей успіх призвів до подальшого прогресу в області штучного інтелекту, включаючи розробку AlphaFold, штучного інтелекту, який прогнозує 3D-моделі білкових структур з надзвичайною точністю, зробивши революцію в галузі біології.

У 2023 році Google об’єднав свої дослідницькі підрозділи штучного інтелекту, щоб створити Google DeepMind, щоб об’єднати зусилля та прискорити прогрес у галузі штучного інтелекту. Одним із їхніх останніх проектів є Gemini, модель штучного інтелекту нового покоління, яка, як повідомляється, перевершує деякі існуючі моделі штучного інтелекту, як-от GPT-4, за певними тестами.

Відповідно до теми Google Deepmind на X, настільний теніс давно використовується як еталон у дослідженнях робототехніки завдяки унікальному поєднанню в цьому виді спорту високошвидкісних фізичних рухів, прийняття стратегічних рішень і точності. Починаючи з 1980-х років дослідники використовували гру як тестовий стенд для розвитку та вдосконалення робототехнічних навичок, що робить її ідеальним кандидатом для останнього дослідження Google DeepMind, керованого ШІ.

Щоб навчити робота з настільного тенісу, Google DeepMind почав зі збору повного набору даних початкового стану м’яча. Цей набір даних включав важливі параметри, такі як положення, швидкість і обертання м’яча, які є важливими для розуміння та прогнозування траєкторій м’яча під час матчу. Вправляючись із цією великою бібліотекою даних, робот зміг розвинути низку навичок, необхідних для настільного тенісу, включно з форхендом, націлюванням з бекхенду та здатністю повертати подачі.

Процес навчання спочатку проходив у симульованому середовищі, що дозволяло роботу тренуватися в контрольованому середовищі, яке точно моделювало фізику настільного тенісу. Після того, як робот продемонстрував навички роботи в змодельованому середовищі, його розгорнули в сценаріях реального світу, де він грав проти людей. Ця практика в реальному світі створювала додаткові дані, які потім поверталися в симуляцію для подальшого вдосконалення здібностей робота, створюючи безперервну петлю зворотного зв’язку між симуляцією та реальністю.

Одним із ключових нововведень цього проекту є здатність робота адаптуватися до різних супротивників. Google DeepMind розробив систему для відстеження та аналізу поведінки та стилю гри своїх ворогів-людей, наприклад, з якого боку столу вони воліють повертати м’яч. Ця здатність дозволяла роботу експериментувати з різними техніками, відстежувати їхню ефективність і коригувати свою стратегію в реальному часі, подібно до того, як гравець-людина може змінити тактику на основі тенденцій суперника.

Під час дослідження робот зіткнувся з 29 опонентами-людьми з різними рівнями навичок, починаючи від початківців і закінчуючи досвідченими гравцями. Продуктивність робота оцінювалася на цих різних рівнях, і в цілому він посідав середину рейтингу учасників, що вказує на те, що він працює на рівні середнього аматора. Однак, зіткнувшись з більш просунутими гравцями, робот зіткнувся з обмеженнями. Google DeepMind визнав, що робот не зміг стабільно перемогти досвідчених гравців, посилаючись на такі фактори, як швидкість реакції, можливості камери, керування обертанням і труднощі точного моделювання гуми весла в симуляції як сприяючі фактори.

Google DeepMind завершив свою тему роздумом про ширші наслідки цієї роботи. Вони підкреслили, як такі види спорту, як настільний теніс, створюють сприятливі умови для тестування та розвитку робототехнічних можливостей. Так само, як люди можуть навчитися виконувати складні завдання, які вимагають фізичних навичок, сприйняття та прийняття стратегічних рішень, так само можуть і роботи, якщо вони мають належне навчання та адаптивні системи. Це дослідження не тільки просуває сферу робототехніки, але й пропонує зрозуміти, як машини можна навчити вирішувати складні реальні завдання, потенційно відкриваючи шлях для майбутніх інновацій у ШІ та робототехніці.

Роботизований настільний теніс служить еталоном для цього типу досліджень з 1980-х років. Робот повинен добре володіти навичками низького рівня, наприклад повертати м’яч, а також навиками високого рівня, як-от розробка стратегії та довгострокове планування досягнення гол. pic.twitter.com/IX7VuDyC4J

— Google DeepMind (@GoogleDeepMind) 8 серпня 2024 р

Рекомендоване зображення через Pixabay