AI Act. W UE zapadło porozumienie co do ustawy o sztucznej inteligencji

11.12.2023
Redakcja
Czas czytania: 3 minut/y

Sztuczna inteligencja nie będzie mogła być wykorzystywana m.in. do śledzenia zachowań obywateli czy wychwytywania ich emocji. Jednak służby będą mogły, pod pewnymi warunkami, korzystać z systemów rozpoznawania twarzy – podaje Deutsche Welle.

Po trzech dniach negocjacji Parlament Europejski, Rada i eksperci z Komisji Europejskiej zawarli w piątek (08.12) w nocy porozumienie odnośnie unijnej ustawy o sztucznej inteligencji (AI Act).

To pierwsze na świecie przepisy regulujące wykorzystanie sztucznej inteligencji. Nowe regulacje dzielą wykorzystanie technologii sztucznej inteligencji na cztery grupy w zależności od tego jaki wpływ i jakie ewentualne zagrożenie mogą one nieść dla użytkowników. Są to:

  • oprogramowanie wysokiego ryzyka
  • ograniczonego ryzyka
  • o minimalnym wpływie
  • nieakceptowalne

Te ostatnie mają być w UE zakazane.

Liczne ograniczenia

Zabronione w Unii Europejskiej będzie wykorzystywanie sztucznej inteligencji w sposób wyraźnie naruszający prawa obywateli. W praktyce oznacza to, że zakazane zostaną m.in. systemy tzw. scoringu czyli punktowania społecznego, gdzie obywatele oceniani są na podstawie swoich zachowań społecznych. Dotyczy to także systemów biometrii, które wykorzystują dane wrażliwe obywateli np. płeć, wiek, orientację seksualną czy religię.

Bezwzględnie zakazana ma być także AI wykorzystywana do manipulowania ludzkimi zachowaniami. Chodzi tu o wszelkie wykorzystanie technologii, która skłania ludzi do określonych zachowań z pominięciem ich wolnej woli. Są to sytuacje, gdy oprogramowanie analizuje zachowania obywateli, w tym ich aktywność w sieci i na podstawie tego podsuwa im określone treści lub przewiduje ich kolejne kroki.

UE zakaże również systemów AI monitorujących emocje ludzi w miejscach pracy, szkołach lub na uczelniach oraz ściągania wizerunków ludzi z internetu lub monitoringu miejskiego w celu stworzenia bazy danych do rozpoznawania twarzy.

Wyjątek

Biometria nie zostanie jednak całkowicie wykluczona. W wyjątkowych sytuacjach będzie ona mogła być wykorzystywana przez organy ścigania. Jak jednak zapewniają unijni legislatorzy zgodę na jej użycie będzie musiał wcześniej wydać sąd, a technologia będzie mogła być wykorzystana jedynie przy określonych przestępstwach, w tym przy poszukiwaniach i lokalizacji osób podejrzewanych lub skazanych za poważne przestępstwa, poszukiwaniach ofiar np. porwania, handlu ludźmi, wykorzystywania seksualnego lub przy przeciwdziałaniu atakom terrorystycznym. To właśnie te zapisy, zwłaszcza dotyczące wykorzystywania rozpoznawania biometrycznego w czasie rzeczywistym, wywołały wśród negocjatorów największe kontrowersje.

Wprowadziliśmy wyjątki dla organów ścigania, ale nie chcemy, żeby ta praktyka została ogólnie przyjęta, ponieważ może doprowadzić do nadmiernej kontroli obywateli

– mówił włoski europoseł Brando Benifei (S&D), jeden ze sprawozdawców projektu z ramienia PE. Unijne przepisy nie obejmą natomiast AI wykorzystywanej przez państwa członkowskie w celach obronnościowych, w tym wojskowych.

Wniosek o pracę odrzucony przez AI?

Doszło również do porozumienia co do regulacji systemów sztucznej inteligencji wysokiego ryzyka. Za takie uważa się technologie, które mogą potencjalnie stworzyć zagrożenie dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji i praworządności. Chodzi tu np. sztuczną inteligencję wykorzystywaną przez firmy, uczelnie lub banki do analizowania podań o pracę czy pożyczkę.

Jak mówią legislatorzy, nie może być tak, że technologia decydować będzie o życiu lub przyszłości obywateli, w tym o ich dostępie do edukacji czy otrzymaniu pracy.

Nieuregulowana AI może stwarzać zagrożenie także dla zdrowia obywateli – tu technologia wykorzystywania jest np. w robotach asystujących przy operacjach. To także zagrożenia dla uczciwości wyborów – coraz częściej mówi się o opartych na sztucznej inteligencji programach do liczenia głosów oddanych w wyborach. Te mogą być wykorzystane już podczas wyborów prezydenckich w USA w przyszłym roku.

Nowe unijne przepisy nakładają na producentów obowiązek oceny wpływu i monitoringu ryzykownej technologii zanim ta trafi na rynek UE oraz przez cały cykl jej życia. Obywatele będą mieli również prawo do składania skarg na systemy AI i domagania się wyjaśnień odnośnie decyzji opartych na AI, np. kiedy odmówi im się kredytu.

Obowiązek transparentności 

Jeśli chodzi o AI niskiego ryzyka, jak chatboty, w tym popularny ostatnimi czasy ChatGPT oraz najczęściej wykorzystywane przez użytkowników systemy AI minimalnego ryzyka, jak gry wideo oparte na sztucznej inteligencji lub filtry antyspamowe, to będą musiały one przestrzegać obowiązku transparentności.

– czytamy w „Deutsche Welle”.

Oznacza to, że internauci z nich korzystający będą musieli mieć świadomość tego, że dane treści zostały wygenerowane przez sztuczną inteligencją (np. tekst napisany przez ChatGPT), co pozwoli im na świadome podejmowanie decyzji i możliwość rezygnacji z korzystania z danej aplikacji.

Legislatorzy zapewnili, że będą wspierać zwłaszcza średnie i małe firmy, tak żeby te mogły rozwijać technologię AI. Chodzi o wspieranie innowacyjności europejskich firm bez konieczności oglądania się na międzynarodowych gigantów technologicznych monopolizujących rynek.

Z drugiej strony jednak, firmy które nie będą przestrzegać unijnych przepisów o AI będą musiały liczyć się z surowymi karami, te wahać się będą od 7,5 mln euro lub 1,5 proc. światowych obrotów do 35 mln euro i 7 proc. obrotów.

UE stanie się pierwszym kontynentem, który ustanowi jasne przepisy o użyciu AI

– napisał na X (wcześniej Twitter) komisarz UE ds. rynku wewnętrznego i wielki orędownik unijnych regulacji o AI Thierry Breton. Porozumienie o AI skrytykowały natomiast unijne organizacje konsumentów uznając, że UE wcale nie udało się załatać części luk prawnych.

Co prawda systemy pozwalające na rozpoznawanie emocji będą zabronione w miejscach pracy i szkołach, ale nadal będą one dozwolone w innych miejscach, co jest bardzo niepokojące biorąc pod uwagę jak bardzo są inwazyjne i zawodne

– powiedziała DW Ursula Pachl z BEUC. Zdaniem organizacji UE niedostatecznie uregulowała część systemów wysokiego ryzyka, w tym AI stosowanej w zabawkach dziecięcych lub chatbotach.

MD/źródło: Deutsche Welle

Masz temat, o którym powinniśmy napisać? Skontaktuj się z nami!
Opisujemy ciekawe sprawy nadsyłane przez naszych czytelników. Napisz do nas, opisz dokładnie fakty i prześlij wraz z ewentualnymi załącznikami na adres: redakcja@pkb24.pl.
REKLAMA
REKLAMA