100-krotna redukcja zużycia energii przy jednoczesnym wzroście dokładności – taką zmianę obiecuje podejście oparte na hybrydzie sieci neuronowych i symbolicznej  sztucznej inteligencji.

    Sztuczna inteligencja konsumuje obecnie oszałamiające ilości energii, co staje się coraz poważniejszym wyzwaniem dla infrastruktury energetycznej i środowiska. Naukowcy z Tufts University zaprezentowali podejście, które może drastycznie ograniczyć zapotrzebowanie na prąd przy jednoczesnej poprawie precyzji działania systemów.

    Neuro-symboliczna recepta na kryzys energetyczny w świecie algorytmów

    Zgodnie z danymi Międzynarodowej Agencji Energetycznej, w 2024 roku systemy AI i centra danych w Stanach Zjednoczonych zużyły około 415 terawatogodzin energii, co stanowi ponad 10% całkowitej produkcji energii elektrycznej w kraju. Prognozy wskazują, że do 2030 roku popyt ten może się podwoić. Tradycyjne systemy, w tym popularne modele wielkojęzykowe (LLM) oraz modele wizualno-językowo-ruchowe (VLA) stosowane w robotyce, opierają się na metodzie „prób i błędów” oraz przetwarzaniu gigantycznych zbiorów danych, co jest skrajnie nieefektywne.

    Zespół pod kierownictwem profesora Matthiasa Scheutza opracował system oparty na tzw. AI neuro-symbolicznej. Jest to hybrydowe podejście, które łączy sieci neuronowe, odpowiedzialne za naukę na wzorcach z danych oraz rozumowanie symboliczne, pozwalające systemowi na stosowanie logicznych zasad i abstrakcyjnych pojęć (takich jak kształt czy równowaga), podobnie jak robią to ludzie.

    Dzięki temu roboty nie muszą zgadywać kolejnych ruchów, lecz mogą planować działania w oparciu o konkretne reguły, co eliminuje zbędne powtórzenia i błędy.

    Imponujące wyniki testów

    Skuteczność nowej metody sprawdzono na klasycznej łamigłówce „Wieża Hanoi”. Wyniki pokazały miażdżącą przewagę systemu neuro-symbolicznego nad standardowymi modelami.

    System hybrydowy osiągnął 95% skuteczności, podczas gdy tradycyjne modele zaledwie 34%. W przypadku nowej, trudniejszej wersji zadania, system neuro-symboliczny radził sobie w 78% przypadków, podczas gdy standardowe modele zawiodły całkowicie. Trening nowego systemu trwał zaledwie 34 minuty, w porównaniu do ponad półtora dnia (36+ godzin) wymaganych przez konwencjonalne podejście.

    Kluczowym osiągnięciem jest jednak redukcja kosztów energetycznych. Trening modelu neuro-symbolicznego wymagał zaledwie 1% energii zużywanej przez standardowe systemy VLA. Z kolei podczas bieżącej pracy, system ten zużywał tylko 5% energii potrzebnej obecnym rozwiązaniom.

    Zrównoważony rozwój AI?

    Profesor Scheutz zauważa, że narzędzia AI często zużywają nieproporcjonalnie dużo energii w stosunku do wykonywanych zadań. Na przykład podsumowanie generowane przez AI w wyszukiwarce Google może pochłaniać nawet 100 razy więcej energii niż samo wygenerowanie listy wyników wyszukiwania.

    Badacze sugerują, że obecna ścieżka rozwoju AI, oparta wyłącznie na skalowaniu modeli i brute-force, jest na dłuższą metę nie do utrzymania. AI neuro-symboliczna oferuje bardziej zrównoważony kierunek, zapewniając systemy nie tylko bardziej energooszczędne, ale także bardziej niezawodne i mniej podatne na tzw. „halucynacje” (generowanie błędnych wyników). Wyniki badań zostaną oficjalnie zaprezentowane w maju 2026 roku na Międzynarodowej Konferencji Robotyki i Automatyki w Wiedniu.

    CZYTAJ TEŻ: Nadchodzi eksplozja popytu na energię przez AI. Czy Big Techy są skazane na Europę i czy pozbawią nas prądu?

    CZYTAJ TEŻ: Dlaczego AI popełniło koszmarny błąd? Rekonstrukcja operacji: Maven Smart System w Iranie