Tech.BiznesINFO.pl > Sztuczna inteligencja > Unia Europejska jako pierwsza na świecie uregulowała sztuczną inteligencję. Co to oznacza w praktyce?
Maciej Olanicki
Maciej Olanicki 09.12.2023 17:55

Unia Europejska jako pierwsza na świecie uregulowała sztuczną inteligencję. Co to oznacza w praktyce?

Parlament Europejski
Fot. Guillaume Périgois / Unsplash

Parlament Europejski ogłosił, że udało się zatwierdzić treść aktu o sztucznej inteligencji. Tym samym Unia Europejska wytworzyła jako pierwsza na świecie kompleksową regulację dotyczącą rozwoju SI. Według wielu europarlamentarzystów mamy do czynienia z historycznym dniem.

Negocjacje nad aktem o sztucznej inteligencji zakończone

Konieczność uregulowania rozwoju sztucznej inteligencji to kwestia podnoszona przez rządy i korporacje na całym świecie od lat, a w ciągu ostatnich dwunastu miesięcy stała się jeszcze bardziej paląca. Zaważyła na tym popularyzacja wielkich modeli językowych i silników przetwarzania języka naturalnego.

Prace nad europejskim aktem o sztucznej inteligencji zostały zainaugurowane jeszcze w 2021 roku. Dzięki temu dziś – po emocjonującej finalnej części negocjacji, które trwały bez dłuższych przerw przez 37 godzin – można powiedzieć, że Wspólnota jako pierwsza dysponuje ramami prawnymi dla rozwoju SI.

Polscy naukowcy stworzą odpowiedź na ChatGPT. PLLuM będzie darmowy

Pierwsze takie regulacje na świecie

Akt o sztucznej inteligencji kodyfikuje wartości kluczowe dla Unii Europejskiej, odnosząc je do rozwoju najbardziej zaawansowanego oprogramowania. Założeniem było więc zapewnienie, że w procesie tym chronione będą prawa podstawowe, demokracja, szacunek dla prawa oraz środowiska naturalnego. Współsprawozdawca PE, Drago Tudorache, nie ma wątpliwości, że mamy do czynienia z doniosłym momentem:

UE jako pierwsza wprowadziła solidne regulacje dotyczące sztucznej inteligencji, kierując jej rozwojem i ewolucją w kierunku skoncentrowanym na człowieku. Ustawa o sztucznej inteligencji ustanawia zasady dla dużych, potężnych modeli sztucznej inteligencji, zapewniając, że nie stanowią one ryzyka systemowego dla Unii i oferują silne zabezpieczenia dla naszych obywateli i naszych demokracji przed wszelkimi nadużyciami technologii przez władze publiczne.

W praktyce oznacza to, że na producentów najbardziej zaawansowanego oprogramowania nałożono szereg ograniczeń, wprowadzono system grzywien finansowych, ale też zadbano o tym, aby europejskie przedsiębiorstwa mogły korzystać z Si bez „nadmiernej presji ze strony gigantów branżowych kontrolujących łańcuch wartości”.

Ograniczenia i zakazy aktu o SI

Kluczowym elementem regulacji jest zakaz rozwijania oprogramowania stosującego sztuczną inteligencję w następujący sposób:

  • buduje systemy kategoryzowania użytkowników w sposób wykorzystujący wrażliwe dane, np. poglądy polityczne, wyznanie, przekonania filozoficzne, orientację seksualną czy rasę,
  • agreguje zdjęcia z internetu lub materiały przechwycone z kamer przemysłowych zlokalizowanych w miejscach publicznych w celu tworzenia baz danych, dzięki którym powstawać będą algorytmy rozpoznawania twarzy,
  • rozpoznaje emocje w miejscu pracy i placówkach edukacyjnych.
    tworzy systemy punktacji społecznej bazujące na zachowaniu i cechach osobistych; chodzi o systemy, które działają np. w Chinach, gdzie na podstawie zachowania zgodnego z linią partii decyduje się np. o zdolności kredytowej danego obywatela,
  • tworzy systemy wykorzystujące sztuczną inteligencję w celu wpływania wolną wolę ludzi,
  • tworzy systemy wykorzystujące sztuczną inteligencję, które wykorzystują ludzkie słabości, np. związane z wiekiem, niepełnosprawnością, umiejętnościami społecznymi czy sytuacją ekonomiczną.

Brak przestrzegania tych zasad będzie skutkować nakładaniem na odpowiedzialne podmioty kar finansowych. Ich kwota może wynieść od 7,5 mln euro oraz 1,5 proc. globalnego obrotu do 35 mln euro oraz 7 proc. globalnego obrotu.

Wyjątki od tych zakazów przewidziano dla organów prawa. Bazują one przede wszystkim na założeniu, że wykorzystanie sztucznej inteligencji wobec obywateli musi być ścisłe i precyzyjne, związane działaniami operacyjnymi wobec konkretnych osób i nigdy nie może służyć temu, by budować systemy powszechnej inwigilacji.

W rezultacie wykorzystanie SI przez służby będzie możliwe jeśli dotyczy ono ofiar, np. podczas poszukiwań osób porwanych, ofiar handlu ludźmi i niewolnictwa seksualnego, zapobiega konkretnemu i obecnemu (nie może być wykorzystywane prewencyjnie) zagrożeniu terrorystycznemu lub służy odnalezieniu i identyfikacji podejrzanych o najcięższe przestępstwa, m.in. terroryzm, zabójstwa, porwania, gwałty, rozboje.

Dalsze kroki w sprawie aktu o SI

Niedosyt może budzić część regulacji, które dotyczą ogólnej sztucznej inteligencji. Oczywiście będzie ona podlegać wszystkim ograniczeniom wskazanym wyżej, niemniej wdarło się tu wiele generalizacji. Oprogramowanie, które w przyszłości zostanie sklasyfikowane jako silna SI, będzie musiało przejść testy, a następnie będzie każdorazowo indywidualnie przedmiotem analizy pod kątem stanowienia systemowego niebezpieczeństwa.

Kolejnym krokiem dla nowych przepisów jest przyjęcie tekstu aktu o sztucznej inteligencji w jego bieżącym kształcie przez Parlament Europejski i Radę Europejską. Po tym będą mogły stać się obowiązującym na terytorium Unii Europejskiej prawem, jednak poprzedzi to jeszcze głosowanie w komisji rynku wewnętrznego i wolności obywatelskich, które zostanie przeprowadzone na najbliższych posiedzeniach.