FutureHouse, organizacja non-profit wspierana przez Erica Schmidta, która planuje stworzyć „naukowca AI” w ciągu najbliższej dekady, zaprezentowała swój pierwszy poważny produkt: platformę i API z narzędziami opartymi na sztucznej inteligencji, zaprojektowanymi z myślą o wspieraniu pracy naukowej.
Wiele startupów intensywnie pracuje nad rozwojem narzędzi badawczych opartych na AI dla sektora naukowego — niektóre z nich mają za sobą ogromne wsparcie ze strony funduszy venture capital. Giganci technologiczni również wierzą w potencjał AI dla nauki — na początku tego roku Google zaprezentowało „AI współnaukowca”, który według firmy może pomagać naukowcom w tworzeniu hipotez i planów badań eksperymentalnych.
Prezesi firm AI, takich jak OpenAI i Anthropic, twierdzą, że narzędzia oparte na sztucznej inteligencji mogą znacząco przyspieszyć odkrycia naukowe, szczególnie w medycynie. Jednak wielu badaczy uważa, że obecnie AI nie jest szczególnie przydatna w prowadzeniu procesu naukowego — głównie z powodu jej zawodności.
W czwartek FutureHouse zaprezentowało cztery narzędzia AI: Crow, Falcon, Owl i Phoenix.
- Crow potrafi przeszukiwać literaturę naukową i odpowiadać na pytania dotyczące jej treści.
- Falcon prowadzi głębsze przeszukiwania literatury, w tym w naukowych bazach danych.
- Owl wyszukuje wcześniejsze prace z określonego obszaru tematycznego.
- Phoenix wykorzystuje narzędzia wspomagające planowanie eksperymentów chemicznych.
„W przeciwieństwie do innych [AI], narzędzia FutureHouse mają dostęp do ogromnego korpusu wysokiej jakości artykułów z otwartym dostępem oraz wyspecjalizowanych narzędzi naukowych” — napisała organizacja w poście na blogu. „Posiadają również przejrzysty tok rozumowania i wykorzystują wieloetapowy proces analizy każdego źródła […]. Łącząc te [narzędzia AI] ze sobą na dużą skalę, naukowcy mogą znacznie przyspieszyć tempo odkryć naukowych”.
Na razie bez sukcesów
Wymowne jest to, że FutureHouse jak dotąd nie osiągnęło żadnego przełomowego odkrycia naukowego ani nowatorskiego wyniku z pomocą swoich narzędzi AI.
Jednym z wyzwań w tworzeniu „naukowca AI” jest konieczność przewidzenia niezliczonych czynników zakłócających. Sztuczna inteligencja może okazać się pomocna w dziedzinach wymagających szerokiego przeszukiwania możliwości — np. przy zawężaniu długich list opcji — jednak trudno stwierdzić, czy poradzi sobie z nieszablonowym rozwiązywaniem problemów prowadzącym do prawdziwych przełomów.
Dotychczasowe wyniki systemów AI zaprojektowanych dla nauki są raczej rozczarowujące. W 2023 roku Google poinformowało, że z pomocą jednego z ich systemów AI — GNoME — udało się zsyntezować około 40 nowych materiałów. Jednak zewnętrzna analiza wykazała, że żaden z tych materiałów nie był w rzeczywistości zupełnie nowy.
Techniczne ograniczenia i zagrożenia związane z AI, takie jak tendencja do „halucynowania” (wymyślania fałszywych informacji), również sprawiają, że naukowcy podchodzą do niej z rezerwą. Nawet dobrze zaprojektowane badania mogą zostać wypaczone przez błędy AI, która wciąż ma trudności z precyzyjnym działaniem.
FutureHouse przyznaje zresztą, że jego narzędzia AI — zwłaszcza Phoenix — mogą popełniać błędy.
„Udostępniamy [to] teraz w duchu szybkiej iteracji” — napisano na blogu firmy. „Prosimy o przesyłanie opinii podczas korzystania z narzędzi”.
Czytaj też: