https://strefabiznesu.pl
reklama

Jak ukarać sztuczną inteligencję? Jest na to kilka sposobów

Marek Knitter
Kontrolowanie i karanie AI za złe wykorzystanie jej możliwości nie jest takie proste
Kontrolowanie i karanie AI za złe wykorzystanie jej możliwości nie jest takie proste 123fr
Na całym świecie rośnie liczba dezinformacji w postaci fałszywych informacji, zdjęć czy filmów dystrybuowanych w internecie, ale także następuje wzrost liczby cyberataków na firmy i instytucje, w czasie których używa się właśnie różnego rodzaju AI. Zdaniem specjalistów wykorzystanie sztucznej inteligencji powinna być może kontrolować... sztuczna inteligencja, z wykorzystaniem różnego rodzaju kar.

Spis treści

Przemysław Wójcik, ekspert ds. cyberbezpieczeństwa i prezes spółki AMP, zwraca uwagę, że istnieją już aplikacje oraz narzędzia nadzorujące działanie sztucznej inteligencji, a ich liczba rośnie wraz z rozwojem tej technologii oraz zwiększeniem potrzeby nadzoru nad nimi. Takie aplikacje są wykorzystywane do monitorowania, oceny oraz zapewnienia, że algorytmy AI działają zgodnie z założeniami, przestrzegają standardów etycznych, uchwalonych przepisów, a także nie wykazują niepożądanych odchyleń lub błędów.

- Historie o kandydacie na wiceprezydenta związane z wykorzystywaniem dzieci, kolportowane w czasie ostatnich wyborów w USA, słynne zdjęcia papieża w futrzanej kurtce czy prezydentów Trumpa i Bidena wspólnie grillujących to tylko niektóre przykłady dezinfomacji tworzonych i dystrybuowanych z użyciem AI. Ale sztuczna inteligencja jest także narzędziem używanym przez cyberprzestępców do przeprowadzania ataków na firmy i instytucje, które mogą prowadzić do strat finansowych, ale także zagrożenia życia ludzkiego - uważa Przemysław Wójcik, ekspert ds. cyberbezpieczeństwa, prezes AMP.

Nie ma odwrotu od rozwoju sztucznej inteligencji, szczególnie że przynosi ona także korzyści nie tylko zagrożenia

SI pozwala na automatyzację powtarzalnych zadań, co zwiększa wydajność i oszczędza czas. AI, obok wielu korzyści, generuje niestety także zagrożenia.

Pionierskie rozporządzenie Unii Europejskiej, czyli Akt o Sztucznej Inteligencji (AI Act), wprowadza kompleksowe ramy prawne regulujące rozwój i stosowanie systemów AI. Jego główne założenia mają na celu ochronę praw obywateli, zapewnienie bezpieczeństwa oraz promowanie etycznego i odpowiedzialnego korzystania z AI. Za naruszenie przepisów AI Act przewidziano surowe sankcje, sięgające nawet do 6 proc. globalnych rocznych przychodów firmy, co sprawia, że jest to jedno z bardziej restrykcyjnych rozporządzeń na świecie.

- Jednak rodzi się pytanie czy człowiek jest w stanie nadążyć za rozwojem sztucznej inteligencji. Czy nie lepiej nadzór nad sztuczną inteligencją przekazać sztucznej inteligencji, która nie tylko kontrolowała by przestrzeganie zasad, ale mogła także karać AI i osoby z niej korzystające? Nałożenie sankcji na tego typu rozwiązania to temat trudny i niejednoznaczny, głównie dlatego, że AI nie posiada świadomości ani poczucia moralności. A to oznacza, że klasyczne formy kary - takie jak więzienie czy grzywny - są dla niej bezcelowe. Zamiast tego, kara dla AI powinna polegać na ograniczeniu jej działania lub nałożeniu sankcji na osoby lub organizacje odpowiedzialne za jej działanie - uważa Przemysław Wójcik.

Jeśli system AI popełnia błędy lub działa w sposób nieetyczny, najprostszą formą „kary” jest jego zawieszenie lub wyłączenie

Przykładem może być wycofanie go z użytku, np. jeśli chatbot rozprzestrzenia dezinformację, jego twórcy mogą go zablokować lub przeprogramować. AI może być „ukarane” poprzez aktualizacje zmieniające jej działanie, w tym przez nałożenie dodatkowych restrykcji, np. ograniczenie dostępu do niektórych danych lub zmniejszenie autonomii. Taka zmiana pozwala na pozostawienie AI w użyciu, ale z wyeliminowaniem jej potencjalnie szkodliwych zachowań.

Biznes

Dalszy ciąg artykułu pod wideo ↓
emisja bez ograniczeń wiekowych
Wideo

- Ponieważ AI jest narzędziem stworzonym przez ludzi, odpowiedzialność prawna i finansowa spada na twórców lub właścicieli systemu. Przykładowo, firmy mogą być ukarane grzywną lub ograniczeniem możliwości działania, jeśli ich system AI narusza prawo, np. poprzez stosowanie niedozwolonych algorytmów nadzoru. W niektórych sytuacjach można nałożyć na twórców AI obowiązek naprawienia szkód wyrządzonych przez system. Przykładem jest sytuacja, gdy AI wprowadza w błąd klientów – w takim przypadku organizacja może zostać zobowiązana do zrekompensowania strat osobom poszkodowanym - powiedział Przemysław Wójcik.

Według niego w przypadkach, gdy system AI jest potencjalnie niebezpieczny, jego użycie może zostać ograniczone do „piaskownicy”, czyli kontrolowanego środowiska, gdzie może działać bez dostępu do prawdziwych danych. Dzięki temu można przetestować i poprawić działanie systemu, zanim zostanie on ponownie wdrożony na szeroką skalę.

W przypadku systemów AI, które są szczególnie szkodliwe lub niezgodne z regulacjami, można nałożyć na firmę lub zespół zakaz dalszego rozwijania tej konkretnej technologii. Może to być skuteczne zwłaszcza w przypadkach AI generujących dezinformację lub naruszających prywatność.

Ekspert zastanawia się także, czy sztuczna inteligencja nie powinna być kontrolowana przez… sztuczną inteligencję, będącą oczywiście pod kontrolą człowieka

Wydaje się, że mogłoby to przyśpieszyć, zautomatyzować proces nadzoru nad AI i zmniejszyć liczbę niebezpiecznych przypadków tego typu rozwiązań.

AMP to polska firma działająca na rynku od 2019 roku, specjalizująca się w usługach związanych z cyberbezpieczeństwem. Firma operuje w dwóch kluczowych obszarach: pierwszy z nich obejmuje audyty oraz zapewnienie zgodności z regulacjami prawnymi, natomiast drugi koncentruje się na aspektach technicznych, takich jak wdrożenia systemów bezpieczeństwa oraz testy penetracyjne.

Polecane oferty
* Najniższa cena z ostatnich 30 dniMateriały promocyjne partnera
Wróć na strefabiznesu.pl Strefa Biznesu