Raport

    Rozwój sztucznej inteligencji w ostatnich latach skupił się na modelach multimodalnych, zdolnych do przetwarzania tekstu, obrazów, dźwięku czy wideo. Równie ważne jest przełamanie bariery między cyfrowym światem a rzeczywistością fizyczną. Google DeepMind wprowadza modele Gemini Robotics oraz Gemini Robotics-ER, oparte na technologii Gemini 2.0, aby przenieść moce obliczeniowe AI do świata robotów.

    Gemini Robotics – wizja przyszłości robotyki

    Czym jest Gemini Robotics?

    Gemini Robotics to zaawansowany model Vision-Language-Action (VLA), który rozszerza możliwości AI o fizyczne interakcje z otoczeniem. Umożliwia on robotom wykonywanie złożonych operacji, takich jak manipulacja przedmiotami, reagowanie na dynamiczne zmiany w środowisku oraz dostosowywanie się do nowych sytuacji.

    Kluczowe cechy Gemini Robotics

    • Generality – model potrafi adaptować się do nowych środowisk i przedmiotów, nawet jeśli nie miał z nimi wcześniej styczności.
    • Interactivity – zdolność do przetwarzania języka naturalnego i dynamicznego reagowania na zmiany w otoczeniu.
    • Dexterity – precyzyjna manipulacja obiektami, umożliwiająca np. składanie origami czy pakowanie jedzenia.
    • Adaptacja do różnych form – kompatybilność z różnymi rodzajami robotów, od platform dwuramięcznych po humanoidalne konstrukcje.

    Pozostała część artykułu pod materiałem wideo:

    Gemini Robotics-ER – embodied reasoning w praktyce

    Nowy poziom przestrzennej percepcji

    Gemini Robotics-ER to rozwinięcie Gemini Robotics, kładące nacisk na rozumowanie przestrzenne i czasowe. Model ten pozwala na bardziej precyzyjne kontrolowanie robotów i integrację ich z istniejącymi systemami sterowania.

    Funkcjonalności Gemini Robotics-ER

    • Zaawansowane rozpoznawanie obiektów i przestrzeni – model potrafi rozpoznawać obiekty w 2D i 3D oraz przewidywać trajektorie ruchu.
    • Planowanie ruchu – zdolność do przewidywania i generowania optymalnych trajektorii chwytów oraz manipulacji przedmiotami.
    • Uczenie się na podstawie demonstracji – możliwość dostosowywania się do nowych zadań po kilkudziesięciu przykładach.

    Współpraca z liderami robotyki

    Google DeepMind nie pracuje nad swoimi modelami w izolacji. Współpracuje z kluczowymi graczami rynku, takimi jak Apptronik, Boston Dynamics, Agility Robotics czy Enchanted Tools. Celem jest rozwój humanoidalnych robotów zdolnych do wykonywania realnych zadań, od automatyzacji procesów w fabrykach po wspieranie osób starszych i niepełnosprawnych.

    REKLAMA
    Raport

    Bezpieczeństwo i etyka AI w robotyce

    Roboty zgodne z etycznymi zasadami AI

    Rozwój AI dla robotyki wymaga zaawansowanych systemów zapewniających bezpieczeństwo. Google wprowadza ASIMOV, czyli zestaw reguł opartych na klasycznych zasadach robotyki Asimova, pozwalający na:

    • unikanie niebezpiecznych interakcji,
    • generowanie bezpiecznych trajektorii ruchu,
    • dostosowanie do kontekstu sytuacyjnego.

    Testowanie w kontrolowanych warunkach

    Gemini Robotics-ER jest testowany przez wyselekcjonowanych partnerów i badaczy, co pozwala na minimalizowanie ryzyka związanego z wdrożeniem modeli AI w rzeczywiste środowisko.

    Modele Gemini Robotics i Robotics-ER zwiastują zmiany dla robotyki, w której AI nie tylko analizuje dane, ale także aktywnie wchodzi w interakcje ze światem fizycznym. Google DeepMind, dzięki swoim zaawansowanym multimodalnym modelom, otwiera drogę do bardziej inteligentnych i użytecznych robotów, które mogą wspierać ludzi w codziennych zadaniach, przemyśle czy medycynie.

    Czytaj dalej: