Rozwój sztucznej inteligencji ma być ukierunkowany na człowieka. Jak działa AI Act?

Maciej Badowski
Opracowanie:
AI Act ma nas chronić m.in. przed systemami sztucznej inteligencji, które używają ukrytych technik manipulacji lub wprowadzają w błąd.
AI Act ma nas chronić m.in. przed systemami sztucznej inteligencji, które używają ukrytych technik manipulacji lub wprowadzają w błąd. gorodenkoff/123RF
W obliczu rosnącej obecności sztucznej inteligencji w naszym życiu codziennym, Unia Europejska podjęła kroki w celu ochrony obywateli przed potencjalnymi zagrożeniami, jakie niesie za sobą ta technologia. Opublikowane 12 lipca rozporządzenie o sztucznej inteligencji, znane jako AI Act, ma na celu regulowanie rozwoju, wdrażania i użytkowania AI, zapewniając jednocześnie, że jej postęp będzie służył ludziom, a nie im szkodził.

Co to jest AI Act?

AI Act to unijne rozporządzenie, które ma na celu ustanowienie zasad dotyczących sztucznej inteligencji w Unii Europejskiej. Polska, podobnie jak inne państwa członkowskie, rozpoczęła prace nad wdrożeniem tych przepisów na poziomie krajowym.

– Unia Europejska stawia na zadbanie o obywateli, firmy i podmioty działające na jej terenie przez zagwarantowanie, żeby wdrażanie systemów sztucznej inteligencji odbywało się z korzyścią dla Europejczyków, a jednocześnie, by służyło to rynkowi wewnętrznemu UE – powiedziała dr hab. Katarzyna Śledziewska, dyrektor DELab (Digital Economy Lab) Uniwersytetu Warszawskiego.

Jak AI Act ma nas chronić?

Rozporządzenie ma za zadanie ochronę użytkowników przed systemami AI, które mogą manipulować lub wprowadzać w błąd. Szczególnie ważna jest ochrona przed technikami, które mogą zmuszać ludzi do podejmowania niekorzystnych decyzji.

Innowacje cyfrowe stają się coraz bardziej dostępne, co oznacza, że mamy powszechny dostęp do urządzeń wyposażonych we wciąż rozwijające się systemy oparte o AI. Jako użytkownicy tracimy jednak coraz większą kontrolę nad tymi urządzeniami, które automatyzują coraz więcej zadań. Często działają one jak „czarne skrzynki" – nie wiemy dokładnie, co robią, a jednocześnie stajemy się coraz bardziej zależni od ich działania. Przyjęte rozporządzenie ma nas chronić przed najważniejszymi zagrożeniami związanymi z nieprzejrzystym działaniem systemów AI, które mogłyby manipulować naszymi decyzjami lub naruszać nasze prawa – dodała Śledziewska.

Jednakże, wprowadzenie AI Act nie jest pozbawione wyzwań. Istnieje obawa, że ograniczenia nałożone przez rozporządzenie mogą hamować rozwój nowych technologii w Europie. Ponadto, rozporządzenie wymaga od państw członkowskich wdrożenia odpowiednich mechanizmów nadzorczych, co rodzi pytania o skuteczność jego stosowania w praktyce.

– To jest to rozporządzenie, które ma sprawić, że będziemy chronieni również w miejscu pracy. Rozporządzenie zakazuje stosowania systemów AI, które mogłyby być wykorzystywane do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych - z wyjątkiem przypadków, w których system AI ma zostać wdrożony lub wprowadzony do obrotu ze względów medycznych lub bezpieczeństwa – tłumaczyła.

– Natomiast problem polega na tym, że jeszcze nie do końca wiemy, co w praktyce wdrożenie AI Actu w poszczególnych krajach oznacza w zakresie instytucji, które będą odpowiedzialne za jego stosowanie i procedur, które zostaną wdrożone. Rodzi to obecnie pewne obawy związane z tym, jak zagwarantować jego skuteczność w praktyce. Oczywiście na ten moment jest jeszcze za wcześnie, żeby oceniać efekty jego przyjęcia, ponieważ większość z jego przepisów wejdzie w życie dopiero za niemal dwa lata – dodała.

Polskie działania w odpowiedzi na AI Act

W odpowiedzi na AI Act, Polska rozpoczęła prace nad projektem ustawy, która umożliwi stosowanie tych przepisów.**Utworzenie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji ma być kluczowym krokiem w monitorowaniu i regulowaniu rozwoju AI w kraju.

– Nie mieliśmy wcześniej w ogóle takiej instytucji, która zajmowałaby się monitorowaniem rynku dot. AI na poziomie krajowym, w której współpracują członkowie tylu różnych instytucji – wskazała Śledziewska na potrzebę powołania Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji.

Działania te mają na celu nie tylko ochronę przed negatywnymi aspektami sztucznej inteligencji, ale również wspieranie rozwoju tej technologii w Polsce, z uwzględnieniem potrzeb edukacyjnych i wsparcia dla przedsiębiorstw.

– To, czego teraz bardzo potrzebujemy, to wsparcie w postaci m.in. szkoleń kierowanych do małych i średnich przedsiębiorstw. Do tego musimy wspierać polskie firmy, które same zajmują się rozwijaniem technologii opartych na sztucznej inteligencji i wdrażają je w innych przedsiębiorstwach. To jest moim zdaniem kluczowe – oceniła.

AI Act stanowi ważny krok w kierunku zapewnienia, że rozwój sztucznej inteligencji będzie przebiegał w sposób zrównoważony, z korzyścią dla obywateli i rynku, przy jednoczesnym minimalizowaniu potencjalnych zagrożeń. Polska, podejmując kroki w kierunku wdrożenia tych regulacji, staje przed wyzwaniem zapewnienia, że będzie to proces skuteczny i przynoszący oczekiwane korzyści zarówno dla użytkowników, jak i twórców technologii AI.

Jesteśmy na Google News. Dołącz do nas i śledź Strefę Biznesu codziennie. Obserwuj StrefaBiznesu.pl!

źródło: PAP

emisja bez ograniczeń wiekowych
Wideo

Biznes

Polecane oferty
* Najniższa cena z ostatnich 30 dniMateriały promocyjne partnera
Wróć na strefabiznesu.pl Strefa Biznesu