Spis treści
Proces przygotowań w Polsce
Podczas posiedzenia sejmowej podkomisji stałej, zajmującej się sztuczną inteligencją oraz przejrzystością algorytmów, wiceminister cyfryzacji Dariusz Standerski podzielił się informacjami na temat obecnych działań ministerstwa. Prace legislacyjno-redakcyjne nad projektem wdrażającym AI Act są już na zaawansowanym etapie, a rozpoczęcie uzgodnień międzyresortowych planowane jest na sierpień. Celem jest przedstawienie projektu na poziomie Rady Ministrów jeszcze w bieżącym roku.
– Chcemy poświęcić ten rok na prace nad tym aktem. Nie chcemy go wdrożyć jako pierwsi, chcemy to zrobić dobrze – zaznaczył Standerski.
Kategoryzacja i regulacja AI
Nowe przepisy wprowadzają podział aplikacji sztucznej inteligencji na cztery główne kategorie: oprogramowanie wysokiego ryzyka, technologie o ograniczonym i minimalnym wpływie oraz systemy uznane za nieakceptowalne, które zostaną zakazane w Unii Europejskiej.
Aplikacje nieposiadające istotnego wpływu na ryzyko systemowe, takie jak chatboty czy gry, będą podlegać jedynie podstawowym wymaganiom, przede wszystkim w zakresie przejrzystości. Ma to na celu zapewnienie, że użytkownicy są świadomi interakcji ze sztuczną inteligencją. Dodatkowe wymogi bezpieczeństwa nałożone będą na materiały zmanipulowane przez AI, znane jako deepfakes, które muszą być wyraźnie oznaczone, aby nie wprowadzać użytkowników w błąd.
W przypadku systemów wysokiego ryzyka, takich jak technologie AI wykorzystywane w edukacji do analizy podań o stypendia czy przyjęcie na studia, będą one mogły trafić na rynek UE tylko po spełnieniu surowych wymogów. Oznacza to, że twórcy tych systemów będą musieli dokonać oceny ryzyka przed ich wprowadzeniem na rynek, a obywatele, np. studenci, którzy napotkają na niekorzystne decyzje, będą mieli prawo do odwołania.
Zakazy i ograniczenia
Zostanie wprowadzony zakaz stosowania oprogramowania, które może naruszać podstawowe prawa użytkowników, np. przez monitorowanie, szpiegowanie lub wykorzystywanie wrażliwych danych do przewidywania zachowań. Zakazane będą również technologie umożliwiające tzw. system punktowania społecznego oraz systemy monitorujące emocje w miejscach publicznych, które mogą być wykorzystywane do przewidywania strajków czy niepokojów społecznych.
Stosowanie AI do śledzenia obywateli lub tworzenia baz danych do rozpoznawania twarzy z internetu lub monitoringu miejskiego będzie zabronione, z wyjątkiem sytuacji, gdy zostanie uzyskana zgoda sądu lub odpowiedniego urzędu, np. w przypadku poszukiwania osób podejrzanych o terroryzm.
Nadzór i kary
Wprowadzenie AI Act przewiduje również utworzenie nowych organów nadzorczych, w tym urzędu ds. sztucznej inteligencji przy Komisji Europejskiej oraz rady do spraw sztucznej inteligencji z udziałem przedstawicieli państw członkowskich.
Firmy naruszające unijne przepisy dotyczące AI będą musiały liczyć się z surowymi konsekwencjami finansowymi, które mogą przybrać formę procentu rocznego globalnego obrotu przedsiębiorstwa lub określonej grzywny, w zależności od tego, która z kwot okaże się wyższa. Dla małych i średnich przedsiębiorstw oraz start-upów przewidziano kary administracyjne.
Jesteśmy na Google News. Dołącz do nas i śledź Strefę Biznesu codziennie. Obserwuj StrefaBiznesu.pl!
źródło: PAP