OpenAI wprowadziło bardziej zaawansowaną wersję swojego modelu AI o1 „rozumowanie”, o1-pro, w swojej API dla deweloperów.
Według OpenAI, o1-pro wykorzystuje więcej mocy obliczeniowej niż o1, aby zapewnić „konsekwentnie lepsze odpowiedzi”. Obecnie jest dostępny tylko dla wybranych deweloperów — tych, którzy wydali co najmniej 5 dolarów na usługi OpenAI API — i jest drogi. Bardzo drogi.
OpenAI pobiera 150 dolarów za milion tokenów (~750 000 słów) wprowadzonych do modelu i 600 dolarów za milion tokenów generowanych przez model. To dwa razy więcej niż cena GPT-4.5 OpenAI za dane wejściowe i 10 razy więcej niż zwykły o1.
OpenAI liczy na to, że lepsza wydajność o1-pro przekona deweloperów do zapłacenia tych wysokich kwot.
„O1-pro w API to wersja o1, która wykorzystuje więcej mocy obliczeniowej, aby myśleć intensywniej i dostarczać jeszcze lepsze odpowiedzi na najtrudniejsze problemy,” powiedział rzecznik OpenAI dla TechCrunch. „Po wielu prośbach od naszej społeczności deweloperów, cieszymy się, że możemy wprowadzić go do API, aby oferować jeszcze bardziej niezawodne odpowiedzi.”
Jednak wczesne wrażenia z o1-pro, który jest dostępny na platformie chatbotowej OpenAI ChatGPT dla subskrybentów ChatGPT Pro od grudnia, nie były zbyt pozytywne. Użytkownicy zauważyli, że model miał trudności z łamigłówkami Sudoku i był zdezorientowany prostymi żartami z iluzji optycznych.
Ponadto, niektóre wewnętrzne testy OpenAI z końca ubiegłego roku pokazały, że o1-pro działał tylko nieznacznie lepiej niż standardowy o1 w problemach z kodowaniem i matematyką. Jednak testy wykazały, że odpowiadał na te problemy bardziej niezawodnie.