Pokaż twarz, a powiem ci, kim jesteś
Pokaż twarz, a powiem ci, kim jesteś. Co widzą algorytmy?
JACEK ŻAKOWSKI: – Usunął pan swoje zdjęcie z Facebooka?
PROF. MICHAŁ KOSIŃSKI: – Nie musiałem. Facebook skasował mi konto po moich badaniach nad jego algorytmem.
Z innych portali usunął pan swoje zdjęcia?
Nie. Bo dobrze mi służą.
Pozwalając innym wniknąć w pana prywatność?
Zagrożenie jest raczej społeczne niż indywidualne. Od dekady firmy i rządy stosują algorytmy, żeby nas profilować i identyfikować.
Ale nie żeby ustalać, kto na kogo głosuje.
Tego nie wiemy. Ale wiemy na pewno, że firmy mające patenty na takie rozwiązania biorą udział w rządowych przetargach i są zatrudniane.
Informacja, jeden z najważniejszych „surowców” współczesnego świata, będzie głównym tematem tegorocznej edycji Copernicus Festival. Fizycy, filozofowie, językoznawcy wciąż spierają się co do natury i sposobów działania informacji. Jak dostęp do informacji zmienia nasze postrzeganie rzeczywistości? Czy algorytmy stale filtrują dostęp do przedstawianych nam informacji? Jakie informacje o nas zapisane są w genach i czy mają one wpływ na nasz charakter i zachowanie? Na te i inne pytania odpowiedzą tegoroczni goście, m.in. Artur Ekert – profesor fizyki na Uniwersytecie Oksfordzkim, zajmujący się kwantowym przetwarzaniem informacji, Krystyna Kurczab-Redlich – dziennikarka i reportażystka, wieloletnia korespondentka w Rosji, profesor Ewa Bartnik – specjalizująca się w genetyce i biologii molekularnej, a także Daniel Tammet – brytyjski pisarz obdarzony niezwykłymi zdolnościami przetwarzania informacji ze względu na synestezję (doświadczenie jednego zmysłu wywołuje doświadczenia charakterystyczne dla innych zmysłów) lingwistyczną, numeryczną oraz wizualną.
Copernicus Festival, 17–22 maja, Muzeum Inżynierii i Techniki przy ul. Wawrzyńca 15 w Krakowie. Wszystkie wydarzenia Copernicus Festival są bezpłatne, zaś transmisje będą udostępniane na kanale YouTube.com/CopernicusCenter
Więcej informacji na: www.copernicusfestival.com
Tajność wyborów stała się abstrakcją?
Nie wiemy, na ile już się stała, ale wiemy, że mogła lub może się stać, więc jako społeczeństwo powinniśmy o tym rozmawiać. Technologia rozpoznawania twarzy od początku budzi kontrowersje, chociaż nawet wśród ludzi, którzy się nią zajmują, nie ma świadomości, że poza przypisaniem sfotografowanej czy sfilmowanej w dowolnych okolicznościach twarzy do konkretnej osoby i poza odczytaniem emocji, które ta osoba czuła w danej chwili, algorytm potrafi też odczytać różne trwałe cechy. Takie jak preferencje seksualne i poglądy polityczne.
I któregoś dnia w rządzonym przez homofobów kraju uliczna kamera ogłosi: „Uwaga, pan w czerwonej czapeczce to sodomita!”. A na granicach stref wolnych od LGBT staną kamery zamykające szlaban przed osobami należącymi do mniejszości seksualnych.
Staram się ostrzegać przed takim scenariuszem od ponad trzech lat.
A z pana nowego artykułu wynika, że kamera w metrze albo na ulicy może też segregować ludzi ze względu na poglądy polityczne. „Stop! Ten wagon jest tylko dla wyborców PiS. Wyborców KO zapraszamy do wagonu B”.
A reszta idzie pieszo? Mam nadzieję, że do tego nie dojdzie. Ale nawet ludzie naukowo zajmujący się nowymi technologiami nie zdają sobie sprawy, że są już algorytmy, które to potrafią.
Na szczęście co czwarty raz się mylą.
Te 76 proc. trafności ma działająca na moim laptopie sztuczna inteligencja oparta na bezpłatnym oksfordzkim kodzie. Istnieją bardziej zaawansowane systemy, zapewne dużo dokładniejsze. Nie wiemy, kto ich używa ani w jakim celu. A działają i reklamują się start-upy oferujące rozpoznawanie na podstawie zdjęć ryzyka popełnienia przez kogoś przestępstwa. Rządy ani duże firmy nie chwalą się, że je zatrudniają. Wszyscy wiedzą, że politycznie to jest ryzykowne. Ale stało się to zbyt proste, żeby ktoś tego nie użył mimo etycznych zastrzeżeń.
Proste?
Jeżeli potrafię to zrobić ja, psycholog społeczny, na laptopie, to znaczy, że sprawa jest informatycznie prosta. Dałem sztucznej inteligencji 900 tys. zdjęć klientów dużej strony randkowej oraz informację, kto się określił jako konserwatysta, a kto jako liberał. Poprosiłem, żeby znalazła na zdjęciach wspólne cechy osób deklarujących podobne poglądy. A po kilku godzinach dałem jej zdjęcia kolejnych stu tysięcy osób, ale już bez informacji, jakie mają poglądy i poprosiłem, żeby je określiła. Dała radę lepiej niż używany powszechnie, skomplikowany, zawierający 100 pytań test osobowości, który ma dokładność 66 proc. Żeby się upewnić, że to działa uniwersalnie, powtórzyliśmy całą procedurę na próbkach z kilku krajów i z kilku różnych portali. Okazało się, że nie tylko działa, ale też, że algorytm trenowany na próbce z USA skutecznie odróżnia liberałów od konserwatystów w Kanadzie i Wielkiej Brytanii.
Po czym on to poznaje?
Nie wiem... Ludzka intuicja też nam podpowiada, jakie kto ma poglądy. Ale przeciętny człowiek, widząc czyjeś zdjęcie, trafnie rozpoznaje poglądy tylko w 55 proc. przypadków. Coś nam mówi fryzura, makijaż, wyraz twarzy. Algorytm może uwzględniać dużo więcej cech. Na przykład konserwatyści o 2 proc. częściej są uśmiechnięci na zdjęciach i głowę trzymają trochę inaczej niż liberałowie.
Kto trzyma głowę wyżej: konserwatyści czy liberałowie?
Przeciętny republikanin trzyma głowę ciut wyżej. Różnica jest bardzo mała, nie do spostrzeżenia ludzkim okiem. Ale algorytm, na podstawie samej orientacji głowy ma już 56 proc. dokładności, czyli więcej, niż człowiek może wyczytać z całego zdjęcia. Im bardziej taki algorytm jest wyrafinowany, tym więcej takich marginalnych różnic potrafi wykryć, przeglądając setki tysięcy czy miliony zdjęć różnych osób. I tym trafniej klasyfikuje danego człowieka.
W wielu krajach wynik wyborów zależy od frekwencji w różnych grupach. Skoro umiemy rozpoznać poglądy na podstawie fotografii, może wkrótce wybory nie będą już potrzebne, bo wystarczy ściągnąć zdjęcia obywateli, by wiedzieć, czyjego zwycięstwa chce większość całego społeczeństwa, a nie tylko tych, którzy głosują?
Wystarczy badać, co ludzie piszą w sieci. Rządy i firmy to robią. A przecież jesteśmy też przez 24 godziny obserwowani w realu. Google Home czy Alexa są z nami bez przerwy.
Ze mną nie.
Kwestia czasu. Mam nadzieję, że nigdy nie zrezygnujemy z wyborów, ale trzeba mieć już teraz świadomość, że są rządy, firmy, partie, organizacje, które często lepiej niż my wiedzą, czego chcemy, czego się wystraszymy, co nas może zachwycić. Dlatego mogą nam oferować produkty, narracje czy programy, które nas przekonają, choć nigdy o nich nie pomyśleliśmy. Potrafią nas skutecznie zachęcić lub zniechęcić do pójścia na wybory. To dzieje się na ogromną skalę. W dużym stopniu dlatego, że nie doceniamy wagi tego problemu, bo trudno nam jest uwierzyć, jak bardzo jesteśmy manipulowani przez takie działania. Brexit jest doskonałym przykładem. Albo to, jak Kreml wpływa na politykę w Polsce czy USA, skłócając ludzi i niszcząc zaufanie do innych, zwłaszcza do polityków.
Sympatie partyjne też można ze zdjęcia wyczytać czy tylko poglądy?
Poglądy polityczne i sympatie partyjne są blisko powiązane, chociaż nie bezwzględnie. W USA niektórzy konserwatywni demokraci są mniej liberalni niż część liberalnych republikanów. A mimo to identyfikacja tożsamości partyjnej na podstawie zdjęcia poszła algorytmowi tak dobrze, jak identyfikacja poglądów. Gdybyśmy to robili w kraju, gdzie partii jest więcej, prawdopodobnie dokładność byłaby jeszcze większa, bo charakter wyborcy byłby bardziej precyzyjnie dopasowany do partii, na którą głosuje.
Co jeszcze można wyczytać ze zdjęcia?
Osobowość, zadowolenie z życia.
Na pozowanym zdjęciu można wyczytać, czy ktoś jest szczęśliwy?
Algorytm potrafi to zrobić z dużą dokładnością.
Po czym on to widzi?
Trudno powiedzieć, bo radzi sobie dużo lepiej niż my. Wiadomo, że kto się uśmiecha, zapewne jest bardziej szczęśliwy niż ten, kto się nie uśmiecha. Ale wiadomo też, że jak ktoś jest atrakcyjny fizycznie, to zapewne ma więcej powodów do szczęścia, bo więcej zarabia, szybciej awansuje, jest lepiej oceniany i bardziej lubiany. Takie w miarę oczywiste czynniki większość z nas umie intuicyjnie odczytać. Ale algorytm używa wielu kryteriów, które nam nie przychodzą do głowy.
Nie da się go o to zapytać?
Tak to nie działa. To, co robi algorytm, trudno ogarnąć rozumem. Łatwo jednak sprawdzić, że wyniki, które podaje, są dokładne.
Skoro już wiemy, że twarz mówi, jakie mamy poglądy, powstaje pytanie, na ile rodzimy się pisowcami, platformersami, lewakami, liberałami albo narodowcami. Czy algorytm bardzo by się pomylił co do przyszłych poglądów politycznych, gdybyśmy mu dali zdjęcie mojego dwuletniego wnuka? Albo gdybyśmy mu dali dziecięce zdjęcia dzisiejszych dorosłych mających wyrobione poglądy?
Byłbym zaskoczony, gdyby – choćby z mniejszą dokładnością – nie dało się tego zrobić.
Czyli maszyna umie wywróżyć nam przyszłość?
Z dużym prawdopodobieństwem. I my zresztą też. Wiemy, że jak ktoś jest pierwszym dzieckiem króla lub królowej, to prawdopodobnie będzie kiedyś królem lub królową, a jak ktoś ma wykształconych rodziców, to prawdopodobnie też skończy wyższe studia. Prawdopodobieństwo takich wróżb jest duże. Algorytm czyta wiele takich cech z ludzkich twarzy, odczytuje je sprawniej niż my i kalkuluje większą liczbę czynników, więc myli się rzadziej niż my. Ale musi uwzględniać te same trzy grupy mechanizmów co my.
Jakie grupy?
Są trzy rodzaje mechanizmów wiążące twarz z poglądami. Po pierwsze, twarz wpływa na poglądy. Ładne dzieci często wyrastają na atrakcyjnych dorosłych. Jeżeli ludzie lubią na naszą twarz patrzyć, szybciej będziemy robili karierę, będziemy mieli bogatsze życie towarzyskie i z czasem będziemy zamożniejsi. A zamożność wpływa na poglądy polityczne.
Po drugie, poglądy wpływają na twarz, bo wiążą się z wyborem idoli, których fryzury, makijaż, miny naśladujemy. Człowiek z brodą nie musi być liberałem, ale konserwatysta ma większą szansę nosić wąsy niż niedogolony zarost. Ludzie o różnych poglądach inaczej się odżywiają i spędzają czas. Ludzie, którzy lubią chodzić po lesie ze strzelbą, popijać wódkę i jeść steki, będą mieli inną cerę niż ci, co piją francuskie wino, uprawiają surfing lub jogging i są weganami. Każdy tryb życia zostawia inne ślady na twarzy.
Po trzecie, są czynniki wpływające na twarz i na poglądy. Na przykład hormony. Wyższy poziom testosteronu zmniejsza empatię i zwiększa zarost na twarzy, zmienia dystrybucję kolagenu pod skórą, wpływa na kształt szczęki. Innym przykładem są geny. Poglądy są w dużej mierze genetycznie zdefiniowane i dziedziczymy je po biologicznych rodzicach podobnie jak cechy twarzy. Te trzy mechanizmy są odpowiedzialne za to, iż nasze twarze są powiązane z naszymi poglądami.
Jeżeli z twarzy dziecka można wyczytać późniejsze poglądy, to jak pogodzić to z ideologicznymi falami, które wieloma społeczeństwami miotają od lewej do prawej i z powrotem. Na całym Zachodzie mieliśmy po II wojnie dekady lewicy, potem dekady liberalizmu, teraz mamy drugą dekadę konserwatyzmu. A twarze się nie zmieniają.
Zmieniają się. Chociażby wraz z modą. Raz ludzie mają dłuższe włosy, a raz krótsze, raz mają mniejszy zarost, raz większy, raz są bardziej opaleni, raz mniej. Ale za tym często nie idzie istotna zmiana poglądów. Zasadnicze poglądy zmieniają się wolno. Zmiana dotyczy raczej metod niż ideałów. Bo zmienia się znaczenie rozmaitych zachowań. Kiedyś kobieta paląca papierosa była awangardą klasy wyższej lub średniej, dziś w Ameryce jest raczej tradycjonalistką z klasy niższej. Wielu konserwatystów jest dziś za małżeństwami osób tej samej płci, bo są za wolnością osobistą. A jeszcze 20 lat temu popierała je tylko lewica. Ale to jest zmiana społecznego wyrazu poglądów. Nie samych poglądów. Nasza twarz wciąż wyraża te same poglądy, tylko umysł znajduje dla nich inny wyraz. Dlatego algorytm ma szanse odgadnąć nasze cechy ze zdjęć. Nawet nieaktualnych.
Dla wielu ról społecznych i pełniących je osób to jest duży problem. Sędziowie na przykład tradycyjnie mają zakaz ujawniania poglądów i wypowiadania się w sprawach politycznych. Podobnie wojskowi i policjanci. Jeśli algorytm będzie niebawem potrafił w sposób niemal pewny wyczytać ich poglądy ze zdjęcia, w drzazgi pójdzie święta w Europie zasada apolityczności niektórych ról społecznych, a zwłaszcza doktryna apolitycznego wymiaru sprawiedliwości.
To się już przecież stało, kiedy algorytmy nauczyły się identyfikować poglądy na podstawie zakupów w internecie, muzyki słuchanej na Spotify albo postów na Facebooku.
Tam można się ukryć, na przykład korzystając z nicków. A twarzy ukryć się nie da, kiedy jest się sędzią albo generałem.
Dlatego tak głośno ostrzegam, że coraz trudniej będzie zachować prywatność. 15 lat temu, kiedy zaczynałem badania nad prywatnością, myślałem, że ostrzegając polityków i technologów, uda się może odwrócić ten trend. Im więcej jednak wiem o tym, jak algorytmy działają, tym bardziej jestem przekonany, że niestety ani prawo, ani technologia nie zwrócą nam prywatności. Trzeba rozwijać prawo i zabezpieczenia techniczne. Trzeba niszczenie naszej prywatności hamować i ograniczać, ale nie możemy się łudzić, że tę walkę wygramy i będziemy bezpieczni. Nie ma niestety ucieczki przed światem, w którym zmotywowany rząd, firma albo nawet sąsiad będzie mógł określić nasze najbardziej intymne cechy. Nawet takie, o których sami nie wiemy.
My „tyle o sobie wiemy, ile nas sprawdzono”, a algorytm wie lub będzie o nas wiedział tyle, ile mu powie big data i statystyka?
Właśnie tak. Prywatności będziemy mieli tylko coraz mniej.
Jak z tym żyć?
Jedyne wyjście to budowanie społeczeństw, które nie będą nam robiły krzywdy bez względu na to, jak bardzo nasza prywatność zostanie odsłonięta. A stanie się to wcześniej, niż się większości z nas wydaje. Musimy móc bezpiecznie wychodzić z szaf razem ze wszystkimi naszymi słabościami. Dziś jest już absolutnie pewne, że jeżeli sami tego nie zrobimy, albo nie będziemy do wyjścia z szafy gotowi, to wcześniej czy później ktoś nas z niej wyprowadzi.
Wciąż słyszę „niech sobie geje będą, tylko niech o tym nie mówią”.
Nigdy nie było tak ważne, jak teraz, żeby każdy miał prawo czuć się bezpiecznie w swojej tożsamości – politycznej, seksualnej, etnicznej. Bo wchodzimy w epokę, w której wszystko będzie stawało się publiczne.
Trudna sprawa. Dla niektórych dramatycznie trudna – na przykład dla sędziego.
Ale to też ma swoje zalety. Bo może sędzia czy polityk, który wie, że trudno mu zachować prywatność, będzie lepszym sędzią lub politykiem.
Nie wiem, czy ten gatunek będzie umiał żyć w takim panoptikonie. Przecież cała nasza kultura opiera się na różnych grach pozorów, maskach i przebraniach, które zakładamy, gdy wstajemy z łóżka i wychodzimy z domu. Teraz kolejny algorytm je zdziera. A jednak bardzo niewielu nudystów jest wśród nas.
Warto pamiętać, że przed migracją do miast ludzie mieli dużo mniej prywatności. I miało to swoje zalety, na przykład było wtedy więcej zaufania. Będziemy musieli się nauczyć bez tej prywatności znów żyć. Może sędziowie, policjanci i generałowie powinni otwarcie deklarować poglądy, tak jak politycy otwarcie deklarują dochody i kontakty z biznesem czy obcymi służbami. Dobrze by było mieć społeczeństwo, w którym ludzie nie są oceniani po poglądach, tylko po tym, jak się wywiązują ze swoich obowiązków.
Trudna sprawa.
Jest takie polskie powiedzenie, że łatwo już było. Coś w nim jest.
ROZMAWIAŁ JACEK ŻAKOWSKI
***
Nature Scientific Reports opublikował właśnie artykuł prof. Michała Kosińskiego pokazujący, że dostępny bezpłatnie algorytm do rozpoznawania twarzy może na podstawie jednego dowolnego zdjęcia portretowego trafniej określić czyjeś poglądy niż test złożony ze stu pytań.
***
Michał Kosiński – Psycholog społeczny. Profesor Uniwersytetu Stanforda. Członek Concilium Civitas. W 2013 r. opublikował badania ostrzegające, że algorytm opatentowany przez Facebooka może określić preferencje seksualne, wygląd, zainteresowania, poziom inteligencji, pochodzenie etniczne, wyznanie, zadowolenie z życia, uzależnienia, wiek, płeć, poglądy społeczne, religijne i polityczne na podstawie polubień na Facebooku. Problem, przed którym ostrzegał, wykorzystała później Cambridge Analytica, prowadząc prezydencką kampanię wyborczą Donalda Trumpa w 2016 r. i kampanię Brexit. W 2017 r. Kosiński pokazał, że algorytmy są w stanie ustalić orientację seksualną na podstawie zdjęcia z portalu społecznościowego.