Nauka

Biometria na Facebooku to gra o najwyższą stawkę

Dopiero skandal z Cambridge Analityca i targetowaniem wyborców pokazał, że w sztuce przewidywania ludzkich zachowań Facebook wyszedł daleko poza racjonalne oczekiwania swoich użytkowników. Dopiero skandal z Cambridge Analityca i targetowaniem wyborców pokazał, że w sztuce przewidywania ludzkich zachowań Facebook wyszedł daleko poza racjonalne oczekiwania swoich użytkowników. Forum
Facebook namawia swoich użytkowników, żeby oddali pod obróbkę algorytmów to, co najbardziej unikatowe: swój biometryczny profil. Dzięki nowej funkcji portal zyska dostęp do potencjalnie niewyczerpanego źródła danych.

„Jeśli włączysz to ustawienie, będziemy korzystać z technologii rozpoznawania twarzy, aby rozpoznawać Cię na zdjęciach, w filmach i aparacie oraz chronić Cię przed nieznajomymi wykorzystującymi Twoje zdjęcia, znajdować i wyświetlać zdjęcia, na których jesteś, ale Cię na nich nie oznaczono, informować osoby z wadami wzroku o tym, kto jest na zdjęciu lub w filmie oraz proponować oznaczanie innych osób” – nowa funkcja, do której włączenia namawia nas Facebook, nie brzmi groźnie. Gra na poczuciu bezpieczeństwa i potrzebie kontroli. Już nie musisz się obawiać, że ktoś nieznajomy oznaczy cię na obciachowym zdjęciu. Ba, możesz pomóc tym, którzy nie widzą. Facebook ewidentnie próbuje nas przekonać, że to technologia, która służy ludziom.

W UE Facebook potrzebuje wyraźnej zgody

Na kolejnych skandalach portal społecznościowy uczy się, jak mówić do swoich użytkowników, żeby ich nie przestraszyć, a wręcz pozyskać do swoich celów. W Unii Europejskiej musi być bardziej przekonujący, bo wszędzie tam, gdzie w grę wchodzą dane wrażliwe (ujawniające pochodzenie etniczne, orientację seksualną czy poglądy polityczne), na ich przetwarzanie potrzebuje wyraźnej zgody (model opt in). Podobnie jest w przypadku danych, które ewidentnie wykraczają poza to, co jest mu potrzebne do świadczenia usług i to, co jest uznawane za „uzasadniony interes administratora”.

Dane, które Facebook ma nadzieję pozyskać dzięki automatycznemu rozpoznawaniu twarzy, bez wątpienia są po drugiej stronie tej cienkiej czerwonej linii. To wymarzony eksperyment dla inżynierów pracujących nad sztuczną inteligencją. Ale dla użytkowników i chroniących ich prawa regulatorów – sygnał alarmowy. Nawet w liberalnych Stanach Zjednoczonych włączenie tej opcji bez wyraźnej zgody użytkowników doprowadziło Facebooka do sądu.

Sklejanie wszelkich okruchów naszego cyfrowego życia (zdjęć, postów, prywatnych wiadomości, lokalizacji, metadanych, historii odwiedzanych stron) w spójny profil marketingowy – mimo kontrowersji i kolejnych spraw sądowych – do tej pory przechodziło nawet przez sito europejskich przepisów. Dopiero skandal z Cambridge Analityca i targetowaniem wyborców pokazał, że w sztuce przewidywania ludzkich zachowań Facebook wyszedł daleko poza racjonalne oczekiwania swoich użytkowników, a wygenerowanej w ten sposób wiedzy nie zawaha się wykorzystać w interesie każdego, kto za to zapłaci.

W cieniu tej afery i w przeddzień przestawienia się na nowe, surowsze przepisy (25 maja zaczyna być stosowane rozporządzenie o ochronie danych osobowych, tzw. RODO), Facebook namawia swoich użytkowników, żeby mu jednak zaufali i oddali pod obróbkę algorytmów to, co najbardziej unikatowe: swój biometryczny profil.

Obiecując nam pozorne bezpieczeństwo i kontrolę nad własnym wizerunkiem w ramach sieci społecznościowej, Zuckerberg taktycznie nie wspomina o tym, że dzięki funkcji rozpoznawania twarzy portal zyska dostęp do nowego, potencjalnie niewyczerpanego źródła danych. Dla odpowiednio wytrenowanych algorytmów każde z milionów zdjęć wrzucanych codziennie do sieci to czytelna informacja o naszym życiu: z kim i gdzie się pojawiamy, co robimy, jakie przezywamy emocje, jak się zmieniamy, co konsumujemy. Skoro Facebook potrafi już rozpoznać twarz człowieka, bez problemu zrozumie też całą resztę.

Czytaj także: Co wynika z przesłuchania Marka Zuckerberga? Wnioski

Drobne korzyści, jakie sami możemy zyskać dzięki takiej funkcjonalności, są niczym w porównaniu z wartością, jaką biometryczna baza milionów ludzi oznacza dla tych, którzy chcą nas kontrolować. Facebook zarabia na tym, że jest w stanie skutecznie przewidzieć w co, i z jaką intencją klikniemy. Tę walkę o moment naszej uwagi wygrywa dlatego, że naprawdę dużo o nas wie. Czy jesteśmy gotowi na jeszcze więcej, przy świadomości, że marketing wkracza w coraz intymniejsze i poważniejsze sfery naszego życia, takie jak zdrowie czy polityka? A przecież na Facebooku i jego kontrahentach życie naszych danych się nie kończy. Jaki cel dla największej na świecie biometrycznej bazy danych znajdą rządy i agencje wywiadowcze, dla których Facebook też jest atrakcyjnym dostawcą? Dziś jeszcze możemy podjąć decyzję, że nie chcemy tego sprawdzać.

Katarzyna Szymielewicz jest współzałożycielką i prezeską Fundacji Panoptykon, broniącej praw człowieka w społeczeństwie nadzorowanym.

Więcej na ten temat
Reklama

Czytaj także

null
Sport

Kryzys Igi: jak głęboki? Wersje zdarzeń są dwie. Po długiej przerwie Polka wraca na kort

Iga Świątek wraca na korty po dwumiesięcznym niebycie na prestiżowy turniej mistrzyń. Towarzyszy jej nowy belgijski trener, lecz przede wszystkim pytania: co się stało i jak ta nieobecność z własnego wyboru jej się przysłużyła?

Marcin Piątek
02.11.2024
Reklama