Nauka

Przełomowa Truskawka. OpenAI ma nowy ChatGPT. Podobno rozumuje jak człowiek

Q* to już nieaktualna nazwa mocno utajnionego projektu, który obecnie nosi kryptonim „Strawberry” (ang. truskawka). Jego celem jest stworzenie modelu AI wyposażonego w zdolność rozumowania przypominającego ludzkie. Q* to już nieaktualna nazwa mocno utajnionego projektu, który obecnie nosi kryptonim „Strawberry” (ang. truskawka). Jego celem jest stworzenie modelu AI wyposażonego w zdolność rozumowania przypominającego ludzkie. CFOTO / Forum
Prace nad nim odbywały się w ramach dwóch tajnych projektów: Q*, a później Strawberry (truskawka). Informacje na ten temat właśnie wyciekły do prasy.

W listopadzie ubiegłego roku Agencja Reutera wywołała sensację. Według niej grupa naukowców pracująca w OpenAI mocno zaniepokoiła się potencjalnymi zagrożeniami dla ludzkości ze strony tajemniczego projektu o nazwie Q* (czytaj: Q star). Miałby się on opierać na pracach ówczesnego dyrektora naukowego firmy Ilyi Sutskevera (w maju tego roku opuścił OpenAI), wykorzystanych przez Jakuba Pachockiego i Szymona Sidora, informatyków wcześniej odpowiedzialnych za projekt ChatGPT-4. Ich nowy algorytm rzekomo posiadł umiejętność rozumienia matematyki, choć na poziomie szkoły podstawowej. Pytany o to później Sam Altman, szef OpenAI, nie zaprzeczył istnieniu Q*, ale nie chciał wyjaśnić, czym ów projekt jest. Ograniczył się tylko do stwierdzenia, że nastąpił „niefortunny wyciek informacji”. I zapadła cisza.

Kryptonim „Truskawka”

Jednak kilka dni temu temat Q* powrócił, znów dzięki Agencji Reutera. Jej dziennikarze napisali, że dotarli do osób zaznajomionych ze sprawą oraz uzyskali dostęp do wewnętrznych dokumentów OpenAI. Zebrane informacje wskazują, że Q* to już nieaktualna nazwa mocno utajnionego projektu, który obecnie nosi kryptonim „Strawberry” (ang. truskawka). Jego celem jest stworzenie modelu AI wyposażonego w zdolność rozumowania przypominającego ludzkie.

Chodzi o to, że obecne tzw. duże modele językowe (LLM), czyli algorytmy, na których opiera się m.in. ChatGPT-4o, choć potrafią przetwarzać duże ilości tekstu i generować odpowiedzi na pytania, mają problemy z zadaniami wymagającymi logicznego myślenia i planowania.

Reklama