Tech.BiznesINFO.pl > Sztuczna inteligencja > Kulisy zwolnienia szefa OpenAI. Miało dojść do niebezpiecznego przełomu w rozwoju SI
Maciej Olanicki
Maciej Olanicki 23.11.2023 22:58

Kulisy zwolnienia szefa OpenAI. Miało dojść do niebezpiecznego przełomu w rozwoju SI

Sam Altman
Photo by Steve Jennings/Getty Images for TechCrunch na licencji CC BY 2.0 DEED

Nie słabną echa kryzysu, jaki podczas minionych dni miał miejsce w OpenAI, firmie odpowiedzialną za rozwój GPT i ChatGPT. Po wielokrotnych zwrotach akcji Sam Altman wrócił na stanowisko CEO, jednak na jaw wychodzą nowe okoliczności, jakie miały doprowadzić do jego zwolnienia.

List przestrzegający przed rozwojem SI

Jak donosi Reuters, jednym z czynników, który miał wpłynąć na decyzję o zwolnieniu Altmana z posady, był list, jaki zarząd otrzymał od części pracowników. Zawarto w nim przestrogę przed rzekomym przełomowym odkryciem, jakiego dokonano w pracach nad sztuczną inteligencją.

Według dwóch anonimowych źródeł pracownicy OpenAI byli zaniepokojeni konsekwencjami kamienia milowego, wewnętrznie określanego jako Q* (wym. Q-Star), jaki udało się uzyskać w tym, jak GPT radzi sobie z matematyką. Dziś, co udowadnia choćby pobieżna praca z ChatGPT, silnik ma problemy z tak elementarnymi operacjami, jak wskazanie, która z dwóch liczb naturalnych jest większa.

Dzieje się tak za sprawą trenowania GPT na zasobach językowych i koncentracji działania modelu na bazującym na statystyce przewidywaniu elementów w materii języka naturalnego. To sprawiło, że zdolny do generowania bardzo przekonujących wypowiedzi ChatGPT jest znacznie bardziej ułomny w przypadku elementarnych operacji matematycznych.

Sam Altman ponownie szefem OpenAI. Prawdziwym zwycięzcą jest jednak ktoś inny

Sukces w pracach nad AGI

Według zaniepokojonych pracowników OpenAI postępy prac nad zastosowaniami GPT w matematyce miały doprowadzić do czegoś, co znamy z prac futurystów i powieści science fiction – do opracowania ogólnej sztucznej inteligencji, zwanej tez silną sztuczną inteligencją.

Ogólna sztuczna inteligencja (AGI) jest zdolna do generalizacji wykraczającej poza dotychczasowe znane dokonania OpenAI. Mowa o oprogramowaniu dysponującym zdolnością kompletnego odwzorowania tego, jak działa ludzki mózg pod względem funkcjonalnym, a także jego przewyższenia. Często opracowanie AGI wiązane jest z uzyskaniem przez nią samoświadomości.

Decyzja o zwolnieniu motywowana obawami?

Rzekoma informacja o postępach w pracach nad silną SI miała wywołać w zarządzie OpenAI popłoch. Obawiano się przede wszystkim tego, że Sam Altman prowadzi firmę do prób komercjalizacji produktu, którego skutków działań nikt nie będzie w stanie przewidywać. To miało zaważyć o następnych krokach kierownictwa OpenAI – dzień po otrzymaniu listu Altman został zwolniony.

Informacje na temat przełomu w rozwoju sztucznej inteligencji o niemożliwych do przewidzenia skutkach pochodzą z dwóch źródeł, zaś jakiekolwiek próby ich weryfikacji zakończyły się niepowodzeniem. Z drugiej strony zachowują one pewną zgodność z jednym z oficjalnych powodów prób pozbycia się Altmana. W oficjalnym komunikacji decyzję uzasadniano brakiem szczerości byłego i aktualnego dyrektora wykonawczego firmy.

Źródło: Reuters