12 lipca 2024 r. w Dzienniku Urzędowym Unii Europejskiej opublikowano rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany niektórych innych rozporządzeń (tzw. „AI Act”).
Celem „AI Act” jest m. in. promowanie upowszechniania sztucznej inteligencji (AI) zorientowanej na człowieka i godnej zaufania przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa, praw podstawowych oraz ochrony przed szkodliwymi skutkami systemów AI.
Prawodawca unijny w preambule do rozporządzenia wprost wskazuje na problematykę zagrożeń i ryzyka wyrządzenia szkody za pomocą AI.
Mogą one przybierać najróżniejsze formy materialne lub niematerialne, w tym fizyczne, psychiczne, społeczne lub ekonomiczne.
Aby zapobiec zagrożeniom związanym z funkcjonowaniem sztucznej inteligencji, „AI Act” wprowadza w art. 5 katalog niedopuszczalnych praktyk w zakresie AI. Zakazy dotyczą głównie zachowań polegających na:
- „wprowadzaniu do obrotu”, tj. udostępnianiu po raz pierwszy systemów AI na rynku Unii,
- „oddaniu do użytku”, tj. dostarczaniu systemów AI do pierwszego użycia podmiotom wykorzystującym system AI,
- „wykorzystywaniu” systemów AI, przy czym rozporządzenie nie precyzuje konkretnie, co należy rozumieć przez wykorzystywanie czy korzystanie.
Zakazane praktyki koncentrują się na systemach AI charakteryzującymi się takimi cechami, które w świetle przepisów prawa unijnego mogą budzić wątpliwości prawne jak i etyczne.
Stosowanie technik podprogowych lub manipulacyjnych
Niedozwolone jest korzystanie z systemów AI, które stosowałyby techniki podprogowe będące poza świadomością danej osoby, a także celowe techniki manipulacyjne lub wprowadzające w błąd, jeśli techniki te istotnie zniekształcają zachowanie danej osoby oraz w konsekwencji powodują choćby ryzyko poniesienia poważnej szkody.
W zakres powyżej wymienionych technik mogą wchodzić przykładowo generowane przez AI sugestie dźwiękowe czy audiowizualne. Bodźce wytwarzane przez AI mogą pokierować odbiorcą, aby podjął on określoną decyzję, zazwyczaj zgodną z myślą wytwórcy czy administratora systemu AI. Tym samym istnieje ryzyko, że wolność odbiorcy w podejmowaniu decyzji zostanie istotnie ograniczona wskutek czynników znajdujących się w systemie AI.
Wykorzystywanie słabości
Za zakazaną praktykę uznano wykorzystywanie przez system AI słabości danej osoby ze względu na wiek, niepełnosprawność, szczególną sytuację społeczną lub ekonomiczną, np. poprzez przynależność do mniejszości etnicznych, religijnych czy seksualnych – jeśli znacząco zniekształca jej zachowanie oraz może doprowadzić do wyrządzenia poważnej szkody.
Odbiorcami systemów AI i generowanych przez nich komunikatów mogą być osoby należące do grup „wrażliwych”, bardziej podatnych na manipulację czy wprowadzenie w błąd (np. dzieci, osoby starsze czy osoby znajdujące się w kryzysie psychicznym). Przykładem wykorzystania słabości przez AI może być chatbot generujący wiadomości mające skłonić odbiorcę do zakupu określonego produktu, wykorzystując przy tym określoną słabość adresata komunikatu (np. treści reklamowe adresowane do dzieci na stronach dla nich przeznaczonych). Częściowo praktyka ta zbieżna jest z ww. dotyczącą zakazu oddziaływania podprogowego i stosowania manipulacji.
"Social scoring"
Systemy AI mogą być wykorzystywane na potrzeby oceny lub klasyfikacji osób lub grup osób. Ocena taka może prowadzona przez określony czas na podstawie zachowania tych osób, ich cech osobistych lub cech osobowości. System AI dokonujący tego rodzaju oceny nie może jednak być stosowany, jeśli ocena ta będzie prowadzić do wyników stanowiących dyskryminację i wykluczenia pewnych osób.
Istotny jest bowiem kontekst, w którym system AI zbiera czy generuje dane i kontekst wykorzystywania tych danych. W piśmiennictwie wskazano, że przykładem niedozwolonego scoringu byłoby uzależnienie dostępu dzieci do renomowanych szkół od terminowego uiszczania należności podatkowych. Konteksty te są zupełnie różne i niepowiązane. Tym samym systemy AI dokonujące klasyfikacji określonych osób mogą doprowadzić do ich nieuzasadnionej dyskryminacji.
Ocena ryzyka popełnienia przestępstwa
„AI Act” uznaje za zakazaną praktykę stosowania systemu AI, który przeprowadza ocenę ryzyka popełnienia przez daną osobę przestępstwa wyłącznie na podstawie jej profilowania lub oceny jej cech indywidualnych.
Ocena ryzyka popełnienia przestępstwa w przyszłości winna być dokonywana w oparciu o fakty obiektywne, związane bezpośrednio z zachowaniem danej osoby. Prawodawca unijny dostrzega, że system AI mógłby wskutek profilowania lub oceny cech indywidualnych dopuszczać się nadużyć co do oceny zachowań zabronionych i karalnych. Pozostaje to w sprzeczności z zasadą domniemania niewinności oraz oceną zasadności kary na podstawie faktycznych czynów, a nie jedynie domniemanych i przyszłych.
Wyjątkiem od zakazu jest przypadek, gdy system AI jedynie wspiera dokonywaną przez człowieka ocenę udziału danej osoby w działalności przestępczej, która to ocena opiera się na obiektywnych i weryfikowalnych faktach.
Bazy danych służące rozpoznawaniu twarzy
Nie może być stosowany system AI, który tworzy lub rozbudowuje bazy danych służące rozpoznawaniu twarzy poprzez dowolne (nieukierunkowane) pozyskiwanie wizerunków twarzy z Internetu lub nagrań z telewizji przemysłowej.
Praktyka tego rodzaju stanowi zagrożenie prawa do prywatności i może prowadzić do nadmiernej inwigilacji społeczeństwa.
Rozpoznawanie emocji w miejscu pracy i instytucji edukacyjnej
Zakazane jest stosowanie systemu AI do wyciągania wniosków na temat emocji osoby fizycznej w miejscy pracy lub instytucjach edukacyjnych.
W ocenie prawodawcy unijnego istnieją poważne obawy dotyczący naukowych podstaw systemów AI, które mają na celu identyfikację lub wnioskowanie o emocjach. Ekspresja emocji różni się znacznie w zależności od kultury czy sytuacji, a nawet może różnić się w obrębie jednej osoby (np. w określonym kontekście płacz może być odbierany jak emocja smutna albo pozytywna). Zakaz zabrania stosowania systemów AI, który może wyciągać określone wnioski wyłącznie na bazie algorytmu i bez znajomości odpowiedniego kontekstu sytuacyjnego, będącego źródłem danej emocji.
Wyjątkiem dla ww. zakazu jest sytuacja, w której tego rodzaju system AI miałby być stosowany ze względów medycznych lub bezpieczeństwa.
Systemy kategoryzacji biometrycznej
Nie jest możliwe stosowanie systemów, które indywidualnie kategoryzują osoby w oparciu o ich dane biometryczne, by wydedukować lub wywnioskować informacje na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej.
Przez dane biometryczne rozumie się dane osobowe odnoszące się do cech fizycznych, fizjologicznych lub behawioralnych (np. wizerunek twarzy, odciski palców). System AI nie mógłby więc wyłącznie na podstawie tych danych przyporządkowywać poszczególne osoby do np. określonych poglądów politycznych.
Zdalna identyfikacja biometryczna w czasie rzeczywistym
Co do zasady niedozwolone jest stosowanie w przestrzeni publicznej tzw. systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym, które stosowane miałyby być do celów ścigania przestępstw.
Ww. system polega na identyfikacji osób bez ich aktywnego udziału, co do zasady na odległość. Najczęściej w tym kontekście mowa o systemach wykrywania twarzy służących do celów egzekwowania prawa. Praktyka korzystania z tego rodzaju systemów identyfikacji nie jest jednak zakazana całkowicie, gdyż na gruncie rozporządzenia doznaje licznych wyjątków. Są one związane m. in. zapobieganiem zagrożeniom życia i bezpieczeństwa czy lokalizowania lub zidentyfikowania osoby podejrzanej o popełnienie przestępstwa.
Sankcje za nieprzestrzeganie zakazów
Art. 5 „AI Act” wejdzie w życie 5 lutego 2025 r. i od tego dnia praktyki wskazane w art. 5 staną się zakazane. Ewentualną sankcją za nieprzestrzeganie zakazów wynikających z art. 5 jest kara pieniężna w wysokości do 35 mln EUR lub w wysokości do 7% całkowitego rocznego światowego obrotu przedsiębiorcy z poprzedniego roku obrotowego.
Podsumowanie
Sformułowanie zakazów wynikających z art. 5 „AI Act” określa się jako skomplikowane i nieczytelne. Istotnym jest, że katalog zakazanych praktyk nie jest zamknięty i nie można wykluczyć za niedozwolone innych praktyk z wykorzystaniem systemów AI, które naruszają inne przepisy niż art. 5 „AI Act”. Dodatkowo zgodnie z treścią rozporządzenia należy w przyszłości spodziewać się także wytycznych Komisji Europejskiej dotyczących zakazanych praktyk.