Rynek

Burza przed ciszą. Wojna o regulację AI trwa nie tylko w Europie

Gdy wydawało się, że negocjacje unijnego Aktu o AI dobiegają końca, do gry weszły USA i Chiny. Jakby tego było mało, nad wprowadzeniem międzynarodowych reguł pracują obecnie również ONZ, OECD, Rada Europy i Wielka Brytania. Gdy wydawało się, że negocjacje unijnego Aktu o AI dobiegają końca, do gry weszły USA i Chiny. Jakby tego było mało, nad wprowadzeniem międzynarodowych reguł pracują obecnie również ONZ, OECD, Rada Europy i Wielka Brytania. Peopleimages / PantherMedia
Równolegle do światowego wyścigu o to, które państwo będzie liderem rozwoju sztucznej inteligencji, toczy się inna rywalizacja. Jej stawką jest to, kto ustali zasady, których będą musiały przestrzegać firmy i instytucje zaangażowane w rozwój AI.

Do niedawna wyglądało na to, że faworytem w walce o prawne „spętanie” zagrożeń, które wywołuje sztuczna inteligencja, jest Europa. Gdy wydawało się, że negocjacje unijnego Aktu o AI dobiegają końca, do gry weszły USA i Chiny. Jakby tego było mało, nad wprowadzeniem międzynarodowych reguł pracują obecnie również ONZ, OECD, Rada Europy i Wielka Brytania. Inicjatyw jest tak dużo, że można się w nich pogubić. Mimo regulacyjnego i PR-owego szumu jedno wydaje się pewne: o przyszłości technologii cyfrowych zdecydują nie tylko inspirujący innowatorzy, ale również politycy, urzędnicy, prawnicy czy audytorzy.

Akt pierwszy: Europa

Jeszcze kilka lat temu normy i standardy techniczne dla programów i urządzeń określanych zbiorczo jako sztuczna inteligencja interesowały wąską grupę pasjonatów prawa nowych technologii. Przodujący w AI innowatorzy i badacze znacznie chętniej rozprawiali o „etyce maszyn”, „apokalipsie robotów”, „końcu pracy” i innych dalekosiężnych wizjach znanych z książek i filmów science fiction.

Sytuację zmieniła Komisja Europejska, która w 2021 r. złożyła projekt Aktu o SI. Unijny projekt adresuje problem z perspektywy bezpieczeństwa produktów i zasadza się na modelu opartym na ryzyku. Od tego czasu coraz częściej zamiast o etyce czy kodeksach „dobrych praktyk” mówi się o prawie i obowiązkach. Unia liczy tu na wywołanie „efektu Brukseli” – tego, aby europejskie zasady był stosowane przez firmy także poza jej terytorium.

Czytaj także: AI Act przegłosowany. Czy w Europie poradzimy sobie ze sztuczną inteligencją?

Poza wprowadzeniem katalogu zakazanych zastosowań (takich jak np. system „punktowania” obywateli) Akt ma nałożyć na twórców oraz firmy i instytucje, które wprowadzają systemy AI do użytku, adekwatne do zagrożeń wymogi, które będą zgodne z „europejskimi wartościami”.

Identyfikacja tych ostatnich okazała się w praktyce dużym problemem. Oryginalna wersja tekstu Komisji pod tym względem różni się od kolejnych (przedstawionych najpierw przez Radę Europejską, a potem Parlament) i to w ważnych punktach. Europarlamentarzyści zdecydowali się na „demokratyzację” projektu i rozszerzyli m.in. listę zakazanych zastosowań oraz listę systemów AI wysokiego ryzyka, a także przyznali prawa (do informacji oraz odwołania) osobom poddanym ich działaniu.

Na obecnym etapie wspierane przez duże cyfrowe korporacje państwa dążą do osłabienia prospołecznych poprawek do aktu. W imię „nieprzeszkadzania innowatorem” Rada UE chce usunąć dodane przez Parlament demokratyczne „bezpieczniki”, przed czym ostrzegają m.in. organizacje obywatelskie z sieci EDRi. Efektem nacisku biznesu i resortów siłowych może okazać się ostatecznie brak realnej kontroli nad tym, jak AI używają służby specjalne, policja czy wielkie platformy internetowe.

Czytaj także: Kule szpiegule. Sztuczna inteligencja zagląda ludziom w oczy. Dosłownie

Końcowy rezultat tych dyskusji powinniśmy poznać jeszcze podczas hiszpańskiej prezydencji, czyli do końca tego roku. W ostatnich tygodniach coraz częściej pojawiają się jednak głosy, że proces może się po raz kolejny przedłużyć. Albo nawet utkwić w impasie, co byłoby ogromną polityczną i wizerunkową porażką nie tylko Komisji, ale Unii jako takiej.

USA mówi: sprawdzam!

Brak zdecydowania, sprzeczne interesy i tarcia wewnętrzne w Europie próbuje wykorzystać Ameryka Joe Bidena. Opublikowany 30 października prezydencki dekret o bezpieczeństwie rozwoju i wdrażania AI to nie tylko pierwsze tego typu prawo w USA, ale przede wszystkim wyraz dużych politycznych ambicji „ujarzmienia” tej technologii. Nie tylko w kraju, ale ze względu na dominującą rolę amerykańskiej nauki i biznesu także na arenie globalnej.

Dekret daje Białemu Domowi narzędzia prawne do nadzorowania zarówno najważniejszych firm AI, jak i tego, jak z technologii korzystać będą podlegające mu administracja publiczna, wojsko czy służby. W ramach nowej polityki agencje rządowe odpowiedzialne m.in. za ochronę konkurencji i konsumentów (FTC) czy walkę z dyskryminacją na rynku pracy (EEOC) mają skuteczniej walczyć o to, aby firmy i instytucje publicznie nie używały dyskryminujących czy w inny sposób naruszających prawa obywatelskie algorytmów.

Czytaj także: Jakim pracownikiem jest sztuczna inteligencja? I komu za chwilę może zabrać robotę

Rozporządzenie nie ma rangi ustawy, co oznacza, że prezydent (ten lub następny) może je jednym podpisem odwołać. Jest tak, bo szanse na uchwalenie ustawy w zdominowanym przez republikanów Kongresie są minimalne. Mimo tego bagatelizowanie znaczenia dekretu byłoby dużym błędem.

Największa różnica między podejściem amerykańskim a europejskim dotyczy tego, kto (nie) będzie musiał go przestrzegać. Nowe amerykańskie prawo urzędniczej i sądowej kontroli poddaje m.in. to, w jaki sposób autonomiczne systemy i programy wykorzystują służby specjalne i wojsko USA. Tymczasem z zakresu projektu AI Act od początku wyłączona była nie tylko obronność, ale także badania i nauka. Co więcej, przedstawiciele unijnych państw robią, co mogą, aby Akt nie obowiązywał w obszarze bezpieczeństwa narodowego (więc działalności m.in. agencji wywiadowczych). Może się okazać, że „słabe” rozporządzenie Bidena pod względem ochrony praw obywateli będzie w praktyce „silniejsze” niż dyskutowany od lat projekt AI Act.

Czytaj także: Sztuczna inteligencja nauczyła się oszukiwać. Czy zdemoluje rządy ludu?

AI w modelu chińskim

Czasu nie marnują także kraje Globalnego Południa. W ciągu ostatnich dwóch lat chińscy regulatorzy (m.in. Komitet Centralny, ministerstwo nauki i technologii czy agencja administracji cyberprzestrzeni) opublikowali kilka rozporządzeń, które w bezpośredni sposób regulują to, jak działają oparte na AI algorytmy. Nowe przepisy dotyczą systemów rekomendujących treści na platformach, programów, które generują treści audio i wideo, czy chatbotów.

Wbrew stereotypowej opinii podejście Partii Komunistycznej do sektora AI również bywa elastyczne, co przejawia się m.in. uwzględnieniem w trakcie legislacji uwag płynących z sektora prywatnego. Dotyczy to jednak tylko biznesu. W przeciwieństwie do zachodnich prób ujarzmienia AI prawa i wolności obywatelskie nie są w centrum prowadzonej w Państwie Środka debaty. Obok kwestii bezpieczeństwa i odpowiedzialności za błędy chiński model regulacji AI koncentruje się na moderacji – lub cenzurze – treści. Nie powinniśmy także oczekiwać, że Chiny zrezygnują z wykorzystywania AI do inwigilowania przeciwników czy krytyków systemu politycznego, czego szczególnie drastycznymi przykładami były działania skierowane przeciw mniejszości etnicznej Ujgurów czy aktywistów w Hongkongu.

Czytaj także: Komu zabierze pracę AI. Eksperci nie mają litości: to będzie przełom

ONZ i OECD, Rada Europy i reszta świata

Poza USA, Unią i Chinami do gry o uregulowanie AI dołączyć chcą również organizacje międzynarodowe. W październiku Organizacja Narodów Zjednoczonych powołała grupę doradczą ds. AI, na czele której stanęli hiszpańska urzędniczka Carme Artigas oraz reprezentujący Google’a James Manyika. Zgodnie z (niewielkimi) oczekiwaniami ciało ma przede wszystkim dyskutować z ekspertami i tworzyć rekomendacje. Efekt prac mamy poznać we wrześniu przyszłego roku, kiedy odbyć się ma „Zjazd o Przyszłości”. Szanse, że inicjatywa docelowo zaowocuje podpisaniem globalnego traktatu o AI są minimalne.

Równolegle ONZ pracuje nad potencjalnie znacznie ważniejszą regulacją: rezolucją o broni autonomicznej. Zaprezentowany na początku listopada projekt kładzie nacisk na zapewnienie, że decyzje o użyciu śmiercionośnych systemów muszą być podejmowane przez człowieka, a nie algorytm. Docelowo powinniśmy liczyć na to, że regulacje „zabójczych” urządzeń i programów AI będą kontrolowane tak, jak ma to miejsce z bronią atomową czy minami lądowymi.

Prace prowadzi również OECD, czyli organizacja zrzeszająca największe zachodnie gospodarki. Tutaj z kolei największe znaczenie mają techniczne definicje (m.in. samej sztucznej inteligencji), które od organizacji „pożycza” m.in. Unia Europejska w pracach nad Aktem o AI. OECD udało się także doprowadzić do przyjęcia przez grupę G7 kodeksu dobrych praktyk, do którego mogą dobrowolnie przystąpić firmy rozwijające modele i systemy AI.

Listę międzynarodowych podejść do regulowania AI zamykają również Rada Europy oraz Wielka Brytania. Ta pierwsza organizacja ogłosiła kilka miesięcy temu projekt własnej konwencji o AI. Szanse, że wprowadzi on wysokie standardy ochrony praw obywatelskich, są niewielkie, czego symbolem jest usunięcie na początku tego roku z grupy roboczej przedstawicieli organizacji obywatelskich.

Stawkę globalnego wyścigu zamyka inicjatywa Wielkiej Brytanii, która w pierwszych dniach listopada gościła przedstawicieli kilkudziesięciu państw (w tym m.in. Chin i USA) oraz kilkuset firm. „UK Safety Summit” to projekt firmowany przez premiera Rishiego Sunaka, który zapewne liczył na ocieplenie wizerunku, pozwalające mu na odzyskanie topniejącego poparcia dla rządu. Efekt trudno uznać za sukces. Zjazd zakończyło ogłoszenie manifestu i kodeksu zasad, do którego – oczywiście dobrowolnie i bez potencjalnych sankcji za ich łamanie – mogą przystąpić firmy z sektora AI.

Czytaj także: Dżihad przeciw maszynom. Czy ograniczenie sztucznej inteligencji jest jeszcze możliwe?

Epilog

Wielkie poruszenie prawników, polityków i urzędników sygnalizuje szerszy proces. Technologie cyfrowe, które wkraczają do kolejnych obszarów naszego życia tracą swoją magiczną aurę. Tak jak w przypadku internetu i mediów społecznościowych początkowy entuzjazm z czasem ustępuje pola podejściu opartemu na sceptycyzmie. Entuzjazm wobec nowinek technologicznych zmienia się w oczekiwania: bezpieczeństwa, prywatności czy niezawodności.

Jest duża szansa, że ostatnim epizodem „wojny o regulację AI” nie będzie wcale podpisanie przez głowy państw w świetle fleszy globalnego traktatu o Sztucznej Inteligencji. Wbrew bombastycznym wizjom snutym przez osoby takie jak Sam Altman (OpenAI) czy Elon Musk (Tesla, SpaceX) o przyszłości AI zdecydować mogą skomplikowane i żmudne w lekturze regulacje i normy techniczne, nad którymi od lat pracują organizacje o trudnych do zapamiętania nazwach, jak międzynarodowe ISO, europejski CEN-CENELEC czy amerykański NIIT.

Z punktu widzenia demokracji i praw obywatelskich kluczowe jest to, aby takim standardom towarzyszyły przepisy, które postawią granice policji i służbom specjalnym ingerującym za pomocą AI w naszą prywatność, uniemożliwią „automatyczną” dyskryminację czy pozwolą nam odwołać się od decyzji podjętych z udziałem „inteligentnych” algorytmów.

Czytaj także: Bard śpiewa już po polsku. Polacy mogą już korzystać ze sztucznej inteligencji Google’a

Więcej na ten temat
Reklama

Czytaj także

null
Świat

Dlaczego Kamala Harris przegrała i czego Demokraci nie rozumieją. Pięć punktów

Bez przesady można stwierdzić, że kluczowy moment tej kampanii wydarzył się dwa lata temu, kiedy Joe Biden zdecydował się zawalczyć o reelekcję. Czy Kamala Harris w ogóle miała szansę wygrać z Donaldem Trumpem?

Mateusz Mazzini
07.11.2024
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną