Bezrozumna inteligencja
Ostry spór naukowców. AI myśli jak ludzie czy tylko udaje? A może myli się jak człowiek?
ChatGPT i jemu podobne tzw. duże modele językowe (ang. skrót LLM) mają wyobraźnię i wykazują zdolność do rozumowania. Trzeba więc przyznać, że przynajmniej w zakresie umiejętności logiczno-matematycznych, jak i językowych mamy już do czynienia z inteligencją wyraźnie przewyższającą naszą – pisał na łamach „Polityki” kognitywista prof. Włodzisław Duch. Nie jest odosobniony. Informatyk prof. Przemysław Kazienko w rozmowie z „Polityką” przyznał, że zaczyna dostrzegać w zaawansowanych modelach językowych iskierki prawdziwie inteligentnego myślenia. A dr Wojciech Zaremba, współzałożyciel OpenAI (firmy, która stworzyła ChatGPT), ostatnio w wywiadzie internetowym argumentował, że LLM-y potrafią rozwiązywać problemy wymagające rozumowania, bo nigdy wcześniej ich nie widziały.
AI jak papuga i kalkulator
Wielu ekspertów uważa jednak, że modele językowe opierają się wyłącznie na statystycznym przetwarzaniu tekstów. Bezmyślnie się uczą, które słowa i frazy często pojawiają się razem, w jakich kontekstach i strukturach: jeśli gdzieś wystąpi wyraz „deszcz”, to AI przewiduje prawdopodobieństwo, że jako następne powinno być słowo „pada”. Analizując gigantyczną liczbę tekstów, modele tworzą złożoną sieć takich powiązań na różnych poziomach: od prostych kombinacji słów, poprzez konteksty ich użycia, aż po struktury gramatyczne i powiązania znaczeniowe. W istocie są więc jedynie bardzo zaawansowanymi wersjami autouzupełniania tekstu.