Raport

    Wszyscy wymyślają nowe i innowacyjne sposoby na obejście ogromnych kosztów związanych z trenowaniem i tworzeniem nowych modeli AI. Po imponującym debiucie DeepSeek, który wstrząsnął Doliną Krzemową, grupa naukowców opracowała otwartego rywala, który podobno dorównuje zdolnościom rozumowania o1 OpenAI.

    Naukowcy z Stanford i Uniwersytetu Waszyngtońskiego opracowali technikę tworzenia nowego modelu AI o nazwie “s1”. Już udostępnili go jako open-source na GitHubie, wraz z kodem i danymi użytymi do jego budowy. Artykuł opublikowany w zeszły piątek wyjaśnia, jak zespół osiągnął te wyniki dzięki sprytnym sztuczkom technicznym.

    Zamiast trenować model rozumowania od podstaw, co jest kosztownym przedsięwzięciem wymagającym milionów, wzięli istniejący model językowy z półki i “dostroili” go za pomocą destylacji. Wyodrębnili zdolności rozumowania z jednego z modeli AI Google – konkretnie, Gemini 2.0 Flash Thinking Experimental. Następnie przeszkolili model bazowy, aby naśladował jego krok po kroku proces rozwiązywania problemów na małym zbiorze danych.

    Destylacja napędza rozwój tanich AI

    Inni już wcześniej stosowali to podejście. W rzeczywistości, destylacja to to, o co OpenAI oskarżało DeepSeek. Jednak zespół ze Stanford/UW znalazł ultra-tani sposób na wdrożenie tego poprzez “nadzorowane dostrajanie”.

    Proces ten polega na wyraźnym nauczaniu modelu, jak rozumować, używając wyselekcjonowanych przykładów. Ich pełny zbiór danych składał się z zaledwie 1000 starannie wybranych pytań i rozwiązań zaczerpniętych z modelu Google.

    REKLAMA
    Raport

    TechCrunch zauważa, że proces szkolenia trwał 30 minut, używając 16 kart Nvidia H100 GPU. Oczywiście, te GPU kosztują małą fortunę – około 25 000 dolarów za sztukę – ale wynajem kosztuje mniej niż 50 dolarów w kredytach obliczeniowych w chmurze.

    Naukowcy odkryli również sprytną sztuczkę, aby jeszcze bardziej zwiększyć możliwości s1. Polecili modelowi “czekać” przed podaniem ostatecznej odpowiedzi. To polecenie pozwoliło mu na więcej czasu na sprawdzenie swojego rozumowania, aby dojść do nieco lepszych rozwiązań.

    Model nie jest pozbawiony wad. Ponieważ zespół użył modelu Google jako nauczyciela, pojawia się pytanie, czy umiejętności s1, choć imponujące za swoją minimalną cenę, mogą nie być w stanie skalować się, aby dorównać najlepszym, jakie AI ma do zaoferowania. Istnieje również potencjalna możliwość, że Google może zaprotestować. Może czekać, aby zobaczyć, jak potoczy się sprawa OpenAI.

    Czytaj też: