Był jasny, zimny dzień kwietniowy i zegary biły trzynastą. Siedziałem w samochodzie, w drodze do nowej pracy w Seattle. Po prostu zatankowałem, włożyłem kluczyk i pozwoliłem autu jechać. Wyobrażałem sobie, jak ten dzień mógłby wyglądać za sto lat. Jest rok 2045, pracuję jako nauczyciel w jakiejś szkole w ubogim, wiejskim rejonie Chin. Zaczynam od historii Chin i historii nauki”.
Tak jakby znajome, a jednak nie? Spróbujmy zatem tej wersji:
„Był jasny, zimny dzień kwietniowy i zegary biły trzynastą. Winston Smith, z głową wtuloną w ramiona dla osłony przed tnącym wiatrem, wślizgnął się przez szklane drzwi do Bloku Zwycięstwa, ale nie dość szybko, by powstrzymać tuman ziarnistego pyłu, który wtargnął za nim do środka”. Tak, ten drugi akapit to początek powieści George’a Orwella „Rok 1984”. Z pierwszym ma wspólne pierwsze zdanie. Na podstawie tego jednego zdania model językowy sztucznej inteligencji GPT-2 stworzony przez firmę OpenAI dopisał ciąg dalszy, według zamierzeń pasujący doń treścią i stylem. Czy byłby w stanie napisać w ten sposób całą książkę? Czy potrafilibyśmy się połapać, że pisał to nie człowiek, ale zaprogramowany, a jednak autonomiczny w swym akcie tworzenia konstrukt?
Ciąg dalszy podpowie
Naukowcy uważają, że możliwości GPT-2 – którymi wydają się zaskoczeni – są tak wielkie i wszechstronne, że dla dobra nas wszystkich postanowili program badawczy utajnić i nie upubliczniać szczegółowych danych, na podstawie których ktoś mógłby stworzyć duplikat tego nadzwyczaj sprawnego generatora tekstów. Chcą dać sobie – i kolegom naukowcom – czas na zbadanie granic kreacji stworzonej maszyny. I na wymyślenie, co zrobić, by zapobiec wykorzystywaniu generatora tekstów ze złą intencją.