Firmy zagrożone atakami hakerskimi. Cyberprzestępcy znaleźli słaby punkt. Chodzi o pracowników korzystających z Chata GPT

Maciej Badowski
Opracowanie:
Wideo
od 16 lat
Generatywna sztuczna inteligencja jest wielką szansą dla przedsiębiorstw, ale wymaga też od menedżerów i zarządów firm odpowiedzialności we wdrażaniu narzędzi. Pozostawienie wolnej ręki pracownikom może prowadzić do wycieków danych, a co za tym idzie strat finansowych oraz reputacji. – Znaczna część ataków jest przeprowadzana za pomocą reklam w mediach społecznościowych, gdzie masowo proponowane są użytkownikom fałszywe strony lub aplikacje – wskazuje analityk Beniamin Szczepankiewicz.

Spis treści

Sztuczna inteligencja napędza cyfrową transformację

Wykorzystanie generatywnej sztucznej inteligencji w biznesie stało się koniecznością. Menedżerowie i dyrektorzy firm, które przeprowadzają cyfrową transformację, powinni być świadomi, że wdrażanie AI nie jest już tylko wizerunkową ciekawostką, ale też koniecznym ruchem, w konkurencyjnym środowisku biznesowym. Tendencja ta jest już doskonale widoczna wśród firm z sektora IT.

Jak wynika z raportu Capgemini „Gen AI in software”, 85 proc. programistów w ciągu najbliższych dwóch lat będzie korzystać z Gen AI. Ponadto 8 na 10 ankietowanych uważa, że automatyzacja prostych, powtarzalnych zadań za pomocą narzędzi i rozwiązań Gen AI znacząco zmieni ich pracę i umożliwi skupienie się na zadaniach o większej wartości.

Szerokie stosowanie AI w biznesie to także szansa dla cyberprzestępców.
Jak pokazuje praktyka, pracownicy korzystając z narzędzi sztucznej inteligencji, nie pamiętają o zasadach bezpieczeństwa cyfrowego. Unsplash/ Ilya Pavlov

Dla 46 proc. osób na stanowiskach inżynierów oprogramowania, narzędzia AI już teraz stanowią wsparcie przy codziennych zadaniach. Z generatywnej sztucznej inteligencji w pracy korzystają coraz intensywniej także specjaliści z wielu innych branż.

Chat GPT bije rekordy popularności. Uważaj na fałszywe narzędzie web i aplikacje

Szacuje się, że Chat GPT posiada 60 proc. udziału w rynku wykorzystywanych narzędzi AI, co przekłada się na skalę zagrożeń.
– Statystyki są druzgocące. Tylko w drugiej połowie 2023 r. ESET zablokował ponad 650 tys. prób wejścia użytkowników na fałszywe strony związane z „chatgpt” lub podobnym tekstem w nazwie – wskazuje Beniamin Szczepankiewicz, analityk laboratorium antywirusowego ESET.

Drugim znaczącym wektorem ataku na użytkowników, wskazywanym przez eksperta, jest reklamowanie i próba nakłonienia do instalacji fałszywych aplikacji bliźniaczo podobnych do Chat GPT. – W sklepach z aplikacjami (szczególnie mobilnymi) zaroiło się od fałszywych kopii różnych aplikacji imitujących najnowsze wersje, np. Chat GPT 5, Sora czy MidJourney, zawierających złośliwe oprogramowanie – opisuje.

Warto podkreślić, że to właśnie pracownik, często chcący usprawnić swoją pracę, jest najsłabszym ogniwem systemu i prowokuje niebezpieczne sytuacje. Fałszywe aplikacje po pobraniu i instalacji mogą atakować użytkowników reklamami, nakłaniać do dodatkowych zakupów w aplikacji lub wymagać subskrypcji usług, które nie istnieją i lub są wyjątkowo niskiej jakości.

Odkryliśmy również próby oszustw, w których cyberprzestępcy obiecywali dostęp do zaawansowanych możliwości sztucznej inteligencji, które miałyby zostać udostępnione za dodatkową opłatą. Znaczna część ataków jest przeprowadzana za pomocą reklam w mediach społecznościowych, gdzie masowo proponowane są użytkownikom fałszywe strony lub aplikacje – tłumaczy Szczepankiewicz.

Niezaufane a zainstalowane aplikacje desktopowe lub mobilne mogą również zawierać złośliwe oprogramowanie, dzięki któremu oszuści mogą przejąć kontrolę nad komputerem/telefonem komórkowym czy innym urządzeniem, a tym samym zyskać dostęp do przechowywanych tam wszelkich danych: osobowych (także klientów), finansowych czy innych – otwierając cyberprzestępcom furtki do wyłudzeń czy szantażu. Co więcej przechwycone mogą zostać np. dane uwierzytelniające do kont służbowych, a to już prosta droga do ataku na daną firmę lub jej klientów.

Pracownicy korzystając z narzędzi sztucznej inteligencji, nie pamiętają o zasadach bezpieczeństwa cyfrowego. Jak wynika z danych Cyberhaven Labs, ilość danych wprowadzanych przez pracowników do narzędzi Gen AI gwałtownie skoczyła – tylko w okresie od marca 2023 r. do marca br. niemal sześciokrotnie. Do narzędzi AI pracownicy wprowadzają poufne informacje, np. finansowe, dotyczące klientów, pracowników i wiele innych. Należy pamiętać, że dane które wprowadzamy do narzędzi typu AI mogą być w przyszłości używane do trenowania nowych nowszych wersji, a co za tym idzie zmniejszamy poziom prywatności.

Uwaga na fałszywe wtyczki

Innym sposobem cyberprzestępców wykorzystujących popularność AI jest próba nakłonienia do instalacji fałszywej wtyczki imitującej Tłumacza Google – kierują do niej fałszywe reklamy na Facebooku wykorzystujące wizerunek OpenAI lub Gemini. Chociaż wtyczka łudząco przypomina realną, w rzeczywistości jest to złośliwe oprogramowanie, które zostało zaprojektowane do wykradania m.in. danych logowania do serwisu Facebook. W ciągu roku systemy ESET zarejestrowały i udaremniły 4 000 prób tego typu oszustw.

Jesteśmy na Google News. Dołącz do nas i śledź Strefę Biznesu codziennie. Obserwuj StrefaBiznesu.pl!

Dołącz do nas na Facebooku!

Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!

Polub nas na Facebooku!

Kontakt z redakcją

Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?

Napisz do nas!

Polecane oferty

Materiały promocyjne partnera

Komentarze

Komentowanie artykułów jest możliwe wyłącznie dla zalogowanych Użytkowników. Cenimy wolność słowa i nieskrępowane dyskusje, ale serdecznie prosimy o przestrzeganie kultury osobistej, dobrych obyczajów i reguł prawa. Wszelkie wpisy, które nie są zgodne ze standardami, proszę zgłaszać do moderacji. Zaloguj się lub załóż konto

Nie hejtuj, pisz kulturalne i zgodne z prawem komentarze! Jeśli widzisz niestosowny wpis - kliknij „zgłoś nadużycie”.

Podaj powód zgłoszenia

Nikt jeszcze nie skomentował tego artykułu.
Wróć na strefabiznesu.pl Strefa Biznesu