Paul Virilio, francuski krytyk cywilizacji, w 1998 r. opublikował „Bombę informacyjną”, ponurą wizję współczesności. W tym samym czasie Larry Page i Sergey Brin, doktoranci z Uniwersytetu Stanforda, zakładali firmę o nazwie Google. Mieli pomysł, jak rozbroić tę bombę – swoje narzędzie nazwali PageRank. To wyrażony językiem matematyki sposób na analizę znaczenia stron internetowych. Dzięki niemu internauta, który zadaje wyszukiwarce pytanie, w odpowiedzi dostaje uporządkowaną listę adresów witryn zawierających poszukiwane informacje. Wyszukiwarka, by przygotować odpowiedź, musi zindeksować witryny, czyli wprowadzić do specjalnej bazy danych informacje zebrane z całej sieci przez krążące po niej nieustannie wścibskie programy – crawlery. Pierwszy indeks Google’a liczył 26 mln stron. Dużo? 10 lat później był już bilion!
Firma analityczna IDC prognozowała w 2006 r., że w okresie pięciu lat ilość informacji wzrośnie dziesięciokrotnie. To najprawdopodobniej zaniżone szacunki. Każdej minuty użytkownicy You Tube nagrywają na dyski tego serwisu 13 godz. nowych treści wideo. Każdego dnia użytkownicy popularnego serwisu społecznościowego Facebook wrzucają do sieci 14 mln fotografii. Każdego dnia przybywa kilka miliardów nowych stron. Ile? Nikt już nie liczy. A przecież tempo będzie jeszcze bardziej rosło, bo nieustannie przybywa nowych internautów (z sieci korzysta dopiero 20 proc. mieszkańców Ziemi).
Rzeczywistość jest racjonalna
Zamiast biadać, lepiej się zastanowić, jak sobie z przyrostem informacji poradzić. W dobie Internetu głównym narzędziem są wyszukiwarki. Dzisiejsza potęga Google’a powstała w wyniku szukania odpowiedzi na poprzedni kryzys informacyjny. To właśnie w drugiej połowie lat 90. Internet zaczął rozwijać się szybciej, niż były w stanie nadążyć ówczesne serwisy, jak zapomniane już Altavista czy Infoseek. Na zadawane pytania produkowały listy odpowiedzi zawierające tysiące odnośników. Dotarcie do prawdziwej informacji coraz bardziej przypominało szukanie igły w stogu siana. PageRank zmienił tę sytuację, ale ciągle nie rozwiązuje zasadniczego problemu. Owszem, ułatwia szybkie dotarcie do źródeł poszukiwanych informacji. Czy nie można jednak wymyślić narzędzia, które na zadane pytanie od razu da odpowiedź? Przecież gdy internauta poszukuje danych o PKB Polski lub Francji, nie interesuje go grzebanie się w rocznikach statystycznych, tylko konkretne liczby.
Odpowiedzią na to wyzwanie ma być WolframAlpha, dzieło Stephena Wolframa. Alpha (www.wolframalpha.com) nie wyszukuje źródeł informacji, tylko oblicza gotowe odpowiedzi na podstawie olbrzymiego zasobu danych i procedur. Wolfram deklaruje, że Alpha korzysta z ponad 10 bln danych, ponad 50 tys. różnych algorytmów oraz tysięcy modeli i reguł. Mózgiem systemu jest Mathematica – bardzo złożone oprogramowanie, wykorzystywane w laboratoriach naukowych na całym świecie.
By lepiej zrozumieć zamysł Wolframa, warto przyjrzeć się jego karierze naukowej i intelektualnej. Już w młodości zasłynął geniuszem matematycznym, z którym trudno było mu się zmieścić w sztywnych ramach świata akademickiego. Młody uczony postanowił zamienić talent na pieniądze i założył firmę Wolfram Research, która stworzyła oprogramowanie Mathematica. Miliony sprzedanych kopii zapewniły mu fortunę potrzebną do realizacji celu życia. Wolfram twierdzi bowiem – jak wielu przedstawicieli nauk ścisłych – że rzeczywistość jest racjonalna. Jej wyrazem są prawa przyrody, które można ująć we wzory matematyczne. Wystarczy do nich podstawić odpowiednie dane, by obliczyć np., gdzie upadnie rzucony przez dziecko kamień lub uderzy wystrzelona rakieta z głowicą termojądrową.
Twórca Mathematiki poszedł dalej, twierdząc, że świat jest nie tylko racjonalny, ale obliczalny. To znaczy, że wychodząc z prostych reguł, można odtworzyć za pomocą komputera, dzięki procedurom matematycznym, dowolnie złożone zjawiska, w jakie obfituje rzeczywistość. Nad dowodem tej dość radykalnej tezy Wolfram pracował całymi dniami niemal 20 lat. W 2002 r. opublikował monumentalne dzieło „A New Kind of Science” (Nowa Nauka). Poczuł, że nie tylko dorównał Newtonowi i Einsteinowi, ale ich nawet przewyższył, docierając do jądra rzeczywistości.
Jednak o ile recenzenci gotowi byli chwalić rozmach „A New Kind of Science”, to nie dostrzegali wielkości zamiaru. Prawdziwy geniusz ma to do siebie, że widzi dalej i jeszcze dalej sięga swymi ambicjami. Najpierw Mathematica, potem Księga. Po co? By stworzyć system udostępniający każdemu całą systematyczną wiedzę, która nie jest wyrazem informacyjnego chaosu, lecz odzwierciedla racjonalny, matematyczny porządek świata. Alpha to dopiero początek. Celem jest – jak można przeczytać w witrynie serwisu – „stworzenie dzieła, które uznawane będzie za kamień milowy intelektualnych osiągnięć XXI w.”.
Zarówno osobowość Wolframa jak i ambitne zapowiedzi wywołały wielkie zainteresowanie Alphą. W chwilę po uruchomieniu serwisu obsługujące go komputery zaczęły się zatykać. W sieci błyskawicznie powstały fora dyskusyjne do wymiany opinii i wychwytywania błędów. Na dobrze zadane pytania, czyli takie, których zakres odpowiada obsługującej Alphę bazie danych, serwis daje rzeczywiście ciekawe, uporządkowane odpowiedzi. Wpisując np. wzór chemiczny jakiejś substancji, internauta otrzyma w odpowiedzi pełne informacje o niej – z długością wiązań i trójwymiarowym wzorem strukturalnym. Przy innych problemach, czasami tak banalnych jak pytanie o konkretną osobę, Alpha beznadziejnie się gubi.
Epoka YouTube
Zbyt wcześnie jednak na ocenę, skoro sam twórca Alphy twierdzi, że to dopiero początek. Rzeczywiście, to zapowiedź radykalnego zwrotu w przetwarzaniu informacji, do którego od kilku lat przygotowuje się nie tylko Stephen Wolfram. W najbliższych tygodniach podobny do Alphy serwis ma uruchomić Google (będzie się nazywać Google Squared). Lecz już od jakiegoś czasu Google ogłasza „usługi datacentryczne”. Doskonałym przykładem jest serwis Flu Trends. Jego działanie polega na analizie pytań zadawanych wyszukiwarce przez internautów, by wychwycić, kiedy zwiększa się ich zainteresowanie aspiryną, kiedy częściej poszukują adresów internistów itd. Na tej podstawie można zlokalizować ogniska epidemii grypy o tydzień wcześniej niż za pomocą tradycyjnych metod epidemiologicznych.
To tylko próba tego, co mogą uzyskać badacze dysponujący dostępem do danych nieustannie produkowanych przez współczesną cywilizację, zarówno w postaci mniej i bardziej świadomych działań w Internecie, jak i informacji rejestrowanych przez liczne służby: agencje ochrony środowiska, biura zatrudnienia, serwisy sejsmologiczne, biura meteorologiczne. Coś, co dla wielu jest informacyjną bombą, dla ludzi takich jak Wolfram, Page czy Brin jest złotym runem. Dla nich danych ciągle jest zbyt mało! Dlatego Google podpisuje kolejne porozumienia, by zyskać dostęp do źródeł normalnie niedostępnych dla firmowych crawlerów. Stąd wielki program digitalizacji bibliotek czy projekt Google Health, w ramach którego firma podejmuje się zarządzania danymi medycznymi amerykańskich szpitali, jak również osób prywatnych.
Stawkę tego wyścigu ujawnia Lev Manovich, wybitny teoretyk nowych mediów, który od kilku lat zajmuje się na Uniwersytecie Kalifornijskim, w San Diego, nową dziedziną badań, tzw. software studies (badania nad oprogramowaniem jako częścią kultury). W ubiegłym roku jego zespół zdobył niezwykły grant badawczy – otrzymał możliwość prowadzenia obliczeń na najpotężniejszych superkomputerach, należących do Departamentu Energii Stanów Zjednoczonych. Najszybsze na świecie maszyny, zamiast symulować wybuchy bomb termojądrowych, zajmą się innym zadaniem: analizą wzorów kultury. Manovich chce poddać matematycznej obróbce miliony zdjęć i tysiące filmów zgromadzonych w cyfrowych archiwach, by zrozumieć, jakie procesy rządzą kulturą w epoce YouTube i Facebooka. Jak powstają kulturowe mody? Jak komunikują się twórcy? Jakie jest wzajemne oddziaływanie ośrodków kreatywnych?
To pierwszy cel programu Cultural Analytics (analityka kulturowa). Cel strategiczny to opracowanie metody analizy wzorów kultury w czasie rzeczywistym, czyli badanie zjawisk społeczno-kulturowych na żywo. Po co? By na podstawie pozornie niewidocznych jeszcze symptomów i teorii, która powstanie w wyniku tych badań, móc przewidywać przyszłość. Na przykład prognozować, podobnie do Google Flu Trends, wybuchy epidemii kulturowych, zwanych inaczej modami.
Śmiałe zadania i superkomputery
Zanim Manovich zrealizuje swój ambitny cel, inni badacze już podejmują nie mniej śmiałe zadania. W marcu uczeni z Los Alamos National Laboratory opublikowali wyniki nietypowych badań: przez swoje superkomputery przepuścili dane (ponad miliard elementów!) pochodzące z serwerów instytucji naukowych, wydawców, bibliotek. Chcieli poznać wzory nauki, czyli strukturę komunikacji wewnątrz naukowego świata. Tradycyjnie świat ten bada się, podążając śladami cytowań prac naukowych. To na tej podstawie można nie tylko określić status poszczególnych uczonych, lecz także powiązania między nimi i ich laboratoriami.
Badacze z Los Alamos stwierdzili, że dysponują lepszym instrumentem – danymi rejestrowanymi przez internetowe serwery. Postała w wyniku matematycznej obróbki mapa ujawniła m.in., że intelektualne przepływy w świecie nauki są znacznie bardziej skomplikowane, niż to wynika z powierzchownych analiz. Analiza naukowego ruchu w Internecie umożliwiła ujawnienie nie tylko formalnych relacji, które znajdują odzwierciedlenie w cytowaniach. Pokazała także ślady komunikacji nieformalnej, mającej o wiele większy wpływ na rzeczywisty proces twórczości naukowej. Co ciekawe, okazało się również, że relacje między odległymi od siebie dyscyplinami, jak nauki społeczne i przyrodnicze, są intensywniejsze, niż się powszechnie sądzi.
W chwili zadumy nad możliwościami i ambicjami uczonych warto sięgnąć do Paula Virilio i jego „Bomby informacyjnej”. Pisał w niej: „Ten, kto wie wszystko, niczego się nie boi – zadekretował swego czasu Joseph Goebbels, odpowiedzialny za propagandę partyjną... W istocie, zarówno wówczas, jak i teraz, chodzi nie tyle o to, by się bać, lecz o to, by budzić strach, nieustannie obnażając życie i poddając je »wszechstronnej« kontroli, czego udało się dokonać już dzisiaj niemal w pełni dzięki dokonaniom w dziedzinie informatyki”.