Spis treści
- Oddajemy dane bez refleksji. Czym to grozi?
- Firmy nie wiedzą, co robią ich pracownicy
- Zabawa czy zagrożenie? Coraz mniej refleksji, coraz więcej danych
- Regulacje są, ale świadomość wciąż kuleje
- Tak nieświadomie przekazujemy dane
- 6 zasad cyfrowego bezpieczeństwa w korzystaniu z AI
- Nie każda AI zasługuje na twoje dane
Oddajemy dane bez refleksji. Czym to grozi?
„Z raportu Microsoft Work Trend Index 2024 wynika, że aż 63% użytkowników AI nie wie, w jaki sposób ich dane są przetwarzane przez systemy, z których korzystają” – zauważa Joanna Pruszyńska-Witkowska, VP Future Collars. Jej zdaniem, coraz więcej osób dzieli się z AI informacjami osobistymi – zdjęciami, dokumentami, szczegółami dotyczącymi zdrowia czy pracy – często zupełnie bez namysłu.
– Wszystko, co wprowadzamy do takich narzędzi, może – w zależności od polityki prywatności danej platformy – być wykorzystywane do dalszego trenowania modeli, analiz czy nawet przetwarzania przez osoby trzecie. To oznacza, że nasze dane mogą trafić poza nasze najbliższe otoczenie: mogą zostać użyte w celach marketingowych, sprzedażowych, a w skrajnym przypadku – paść łupem cyberprzestępców – ostrzega ekspertka.
To nie tylko problem użytkowników indywidualnych. W środowisku zawodowym takie lekkomyślne działania mogą prowadzić do naruszenia tajemnic przedsiębiorstwa, ujawnienia danych klientów lub złamania przepisów RODO. I często nie chodzi o złą wolę – raczej o brak świadomości, procedur i praktycznych wskazówek, jak z AI korzystać odpowiedzialnie.
Firmy nie wiedzą, co robią ich pracownicy
Wiele organizacji wdraża narzędzia AI bez przygotowania i bez kontroli nad tym, jak i do czego są one wykorzystywane. Efekt? Pracownicy – często w dobrej wierze – korzystają z AI w codziennej pracy, przekazując narzędziom treści, które powinny pozostać poufne.
– W pracy z GenAI zyskaliśmy niesamowitą skalę i tempo (...), ale pracujemy z danymi – często wrażliwymi, strategicznymi, powierzonymi w zaufaniu. A zaufanie nie znosi przypadkowości – zaznacza Michał Szydło, Managing Director w Supermassive.
Według ekspertów z Komputronik Biznes, firmy często nie zdają sobie sprawy, że AI może przetwarzać dane w tle, a nieświadomość ryzyka bywa równie niebezpieczna, co zła wola. Pracownicy mogą korzystać z otwartych modeli językowych do pisania ofert, analiz danych, a nawet projektowania produktów, wklejając do czatu szczegóły umów, plany biznesowe czy dane klientów. A potem... nie mają pojęcia, gdzie te informacje trafiają.

Biznes
– Systemy oparte na sztucznej inteligencji mogą być podatne na manipulacje danymi (np. tzw. data poisoning), a także stanowią ryzyko w zakresie nieautoryzowanego dostępu do informacji – ostrzega Krzysztof Juźwikowski, pełnomocnik zarządu ds. cyberbezpieczeństwa w Komputronik S.A.
Przestrzeganie zasad cyberhigieny w zespołach staje się więc równie istotne, jak znajomość narzędzi. Bez odpowiednich szkoleń, procedur i ograniczeń – nawet najlepsza technologia może okazać się pułapką.
Zabawa czy zagrożenie? Coraz mniej refleksji, coraz więcej danych
Moda na AI-awatary, Barbie Box, vibe’y w stylu Ghibli czy inne viralowe trendy sprawia, że z ogromną lekkością oddajemy swoje dane – wizerunek, głos, a nawet osobowość. Wystarczy chwila, kliknięcie, parę zdjęć i gotowe: nasza „cyfrowa wersja” trafia do systemu, o którym często nie wiemy niemal nic. Gdzie są przechowywane dane? Kto ma do nich dostęp? Czy będą trenować na nas kolejne modele AI? Rzadko zadajemy te pytania.
To właśnie temu bezrefleksyjnemu podejściu przygląda się Edyta Sadowska, futurolożka i edukatorka technologiczna, która na swoim LinkedIn opublikowała mocny apel:
– Zamieniliśmy pytania o sens na bezrefleksyjne ‘generuj’ i ‘udostępnij’. Oddaliśmy dane – najpierw o tym, czy jesteśmy bułką pszenną czy chlebem razowym w quizach na Facebooku. Teraz – twarze, głosy, osobowości. Za darmo. Bez pytania, komu, po co, na jakich zasadach.
Post ekspertki, choć osobisty, trafia w sedno dzisiejszych nawyków użytkowników. Zachwyt technologią przesłania często realne koszty – środowiskowe, społeczne i poznawcze. Tymczasem każdy kolejny trend to kolejna porcja danych, które mogą trafić w niepowołane ręce.
Regulacje są, ale świadomość wciąż kuleje
Wraz z rosnącym wykorzystaniem narzędzi opartych na sztucznej inteligencji, pojawiają się pierwsze regulacje mające na celu ochronę danych i bezpieczeństwa użytkowników. Przykładem jest unijne rozporządzenie AI Act, które wyznacza nowe standardy przejrzystości, etyki i odpowiedzialności w stosowaniu AI. Ale – jak podkreślają eksperci – przepisy to za mało.
– Sztuczna inteligencja sama w sobie nie jest zagrożeniem, ale sposób, w jaki z niej korzystamy, może prowadzić do poważnych naruszeń prywatności czy bezpieczeństwa – mówi Joanna Pruszyńska-Witkowska. – Dlatego tak istotna jest edukacja i budowanie świadomości – zarówno wśród użytkowników indywidualnych, jak i w środowisku biznesowym.
Brakuje nie tylko uregulowania rynku narzędzi AI, ale przede wszystkim gotowości organizacji do odpowiedzialnego wdrażania takich rozwiązań. Przykład? Większość firm nie wie, jakie dane ich pracownicy wprowadzają do narzędzi AI. Nie prowadzą polityk prywatności dostosowanych do realiów AI, nie organizują szkoleń, nie monitorują użycia.
Jak zauważa Michał Szydło, Managing Director w SUPERMASSIVE:
– Nie wystarczy, że ktoś „zna się na AI”. Ważne, by rozumiał jej kontekst, ryzyka i konsekwencje. My, jako specjaliści, nie tylko wdrażamy konkretne procedury, ale też realnie je stosujemy – od oceny ryzyka, przez szkolenia, po codzienną praktykę, która chroni dane naszych klientów.
Ekspert dodaje, że jedną z najbezpieczniejszych form korzystania z AI są lokalnie instalowane modele (np. Stable Diffusion), które nie przesyłają danych do chmury – to użytkownik decyduje, co zostaje na jego komputerze.
Tak nieświadomie przekazujemy dane
– Narzędzia takie jak ChatGPT, Copilot, Gemini czy Claude potrafią znacząco przyspieszyć pracę i poprawić jej jakość. Ale z drugiej strony – bardzo często „karmimy” je znacznie większą liczbą danych niż realnie powinniśmy – mówi Marcin Szczęsny, Senior Solutions Architect w NTT DATA.
Ekspert podaje realne przykłady:
Pracownik działu HR prosi AI o pomoc w przygotowaniu oceny pracownika i wkleja całą historię jego zatrudnienia – wraz z danymi osobowymi.
Specjalista IT wrzuca fragmenty kodu do analizy – razem z kluczami API i loginami testowymi.
Marketingowiec prosi AI o przygotowanie prezentacji, wklejając dane o strategii i planach sprzedażowych firmy.
Ktoś inny wkleja treść maila do klienta, nieświadomie udostępniając numer umowy i informacje poufne.
– Wszystko to trafia do systemu, który – jeśli nie jest odpowiednio zabezpieczony – może te dane przechowywać, analizować, a nawet „przypomnieć” je komuś innemu – ostrzega Szczęsny.
I właśnie dlatego zasady cyfrowego bezpieczeństwa nie są opcją, a koniecznością.
6 zasad cyfrowego bezpieczeństwa w korzystaniu z AI
Eksperci wskazują konkretne praktyki, które warto wdrożyć natychmiast – zanim nasze dane wpadną w niepowołane ręce.
Nie podawaj danych wrażliwych.Nigdy nie wpisuj do narzędzi AI informacji takich jak imię i nazwisko, adres, numer PESEL, dane finansowe czy poufne informacje firmowe. Nawet pozornie anonimowe dane mogą zostać połączone w sposób, który ujawni tożsamość.
Zadbaj o kontekst. Czasem wystarczy kilka pozornie neutralnych informacji (np. nazwa projektu, daty, lokalizacja), by odsłonić szczegóły. Zmieniaj lub ukrywaj te dane, zanim użyjesz AI.
Czytaj polityki prywatności.Zanim skorzystasz z nowego narzędzia AI – sprawdź, co dzieje się z Twoimi danymi. Czy są przechowywane? Na jak długo? Czy służą do trenowania modeli?
Korzystaj z trybu prywatnego lub lokalnego.Jeśli to możliwe, używaj narzędzi, które działają offline lub pozwalają przetwarzać dane lokalnie, bez przesyłania ich do chmury.
W firmie ustal jasne zasady i szkol pracowników. To szczególnie ważne w środowiskach biznesowych. Stwórz wytyczne, organizuj regularne szkolenia i wyjaśniaj, które dane można, a których nie wolno przekazywać AI.
Zadbaj o zabezpieczenia techniczne.Szyfrowanie, systemy kontroli dostępu, monitoring użycia AI w organizacji – to wszystko powinno stać się standardem każdej firmy korzystającej z nowoczesnych narzędzi.
– Świadome zarządzanie danymi i odpowiedzialne korzystanie z nowych technologii to dziś podstawowy element cyfrowego bezpieczeństwa – podkreśla Karolina Pietz-Drapińska, dyrektorka marketingu & digital development w Komputronik S.A.
Nie każda AI zasługuje na twoje dane
W erze, w której narzędzia AI stały się powszechne jak wyszukiwarki, zbyt często zapominamy, że za technologiczną wygodą stoją konkretne konsekwencje. Nie wszystko, co działa błyskawicznie i daje zachwycający efekt, jest bezpieczne dla firmy, dla zespołu, czy dla człowieka.
Ważna jest więc świadomość: jakie dane, komu, w jakim celu i na jakich zasadach powierzamy. Jak podsumowuje Michał Szydło – zaufanie nie znosi przypadkowości. I właśnie to – nie zachwyt, a odpowiedzialność – powinno być dziś punktem wyjścia do każdej interakcji z AI.