Wróć do artykułów

Shadow AI - 89% użycia AI w firmach jest niewidoczne

89% aktywności AI w firmach jest niewidoczne dla IT. Dane z LayerX, KPMG i McKinsey o skali shadow AI i dlaczego zakazy nie działają.

sztuczna inteligencja AI w pracy bezpieczeństwo AI shadow AI strategia biznesowa

Shadow AI - używanie sztucznej inteligencji poza oficjalnymi narzędziami firmy - to zjawisko, którego skali większość zarządów nie rozumie. Badanie LayerX Security z 2025 roku ujawnia, że 89% użytkowania AI w firmach pozostaje kompletnie niewidoczne dla działów IT. To nie ankieta - to zmierzony ruch sieciowy w średnich i dużych organizacjach. Firmy widzą zaledwie 11% aktywności swoich pracowników związanej ze sztuczną inteligencją.

Jak duży jest problem shadow AI?

Kiedy pierwszy raz zobaczyłem liczbę 89%, pomyślałem, że to literówka. Sprawdziłem metodologię - telemetria z prawdziwych firmowych sieci, nie deklaracje pracowników. To oznacza, że zarządy podejmują strategiczne decyzje o AI w całkowitym oderwaniu od rzeczywistości.

Trzy wymiary problemu definiują jego powagę:

Skala. 71% korzystania z narzędzi generatywnej AI odbywa się przez konta osobiste, nie firmowe. KPMG zbadało prawie 50 tysięcy pracowników - 57% ukrywa używanie AI przed przełożonymi. 48% przyznaje się do wrzucenia danych firmowych do publicznych narzędzi. A 45% świadomie korzysta z narzędzi wprost zakazanych.

Tempo. Dane Cyberheaven dokumentują 485% wzrost ilości danych firmowych wklejanych do narzędzi AI między marcem 2023 a marcem 2024. To nie stopniowa zmiana - to eksplozja. I to są już dość stare dane.

Metody. Pracownicy używają osobistych kont, prywatnych telefonów, VPN-ów, aplikacji mobilnych, hotspotów. A najskuteczniejsza metoda? Zwykłe zdjęcie ekranu telefonem. Skuteczność 100%, żadne zabezpieczenie programowe nie pomoże.

Dlaczego zarządy firm nie wiedzą, co się dzieje?

McKinsey ujawnia fascynującą lukę percepcyjną. Prezesi szacują, że tylko 4% pracowników używa generatywnej AI do ponad 30% zadań. W tych samych firmach 13% pracowników zgłasza faktyczne użycie. Szef pomylił się trzykrotnie - a to tylko ci, którzy się przyznali.

Pamiętajmy, że według KPMG 57% osób ukrywa korzystanie z AI. Realna liczba jest więc jeszcze większa. Mam okazję to obserwować z bliska, bo prowadzę szkolenia z AI w polskich firmach. Ludzie przychodzą i mówią wprost: “Używam ChatGPT codziennie na swoim telefonie, bo w firmie wszystko jest zablokowane”. I dodają: “mój szef też tak robi”.

Przepaść między percepcją zarządu a rzeczywistością pracowników jest gigantyczna. Zarządy myślą, że kontrolują sytuację. Pracownicy żyją w całkowicie innej rzeczywistości.

Pięć powodów, dla których pracownicy sięgają po shadow AI

Każdy z tych powodów widziałem na własne oczy podczas szkoleń. To nie jest nieodpowiedzialność ani sabotaż - to desperacja.

Brak oficjalnych narzędzi. Badanie MIT odkryło, że 90% firm ma pracowników używających osobistych narzędzi AI, podczas gdy tylko 40% organizacji posiada oficjalne subskrypcje. Pracownicy wypełniają pustkę, którą zostawiła organizacja. 60% mówi wprost, że biurokracja przy wnioskach o narzędzia AI skłania ich do szukania własnych rozwiązań. Typowa ścieżka: złóż wniosek, uargumentuj, czekaj na komitet, ocenę bezpieczeństwa, compliance i księgowość. W tym czasie kolega z konkurencji robi w tydzień to, o czym nasz pracownik tylko marzy.

Paradoks jakości. 85% pracowników, którzy mają dostęp do zatwierdzonych narzędzi, również używa niezatwierdzonych. Firmowe rozwiązania bywają gorsze - okrojone, wolne, z kagańcem ograniczeń “dla bezpieczeństwa”. Pracownik próbuje korporacyjnego Copilota, frustruje się i wraca do darmowego ChatGPT na telefonie, który po prostu działa lepiej.

Presja wydajności. Zaawansowani użytkownicy AI oszczędzają ponad 30 minut dziennie, co w ciągu roku daje 125 godzin - ponad 3 tygodnie pracy. Gdy firma nie dostarcza narzędzi, ale wymaga coraz wyższej produktywności, pracownicy sięgają po to, co działa. Nie są lekkomyślni - czują presję pracodawcy i starają się nadążyć.

Lęk przed zastąpieniem. 39% Polaków uważa, że AI może zabrać im pracę. “Używam AI, bo jeśli nie będę, ktoś inny mnie wyprzedzi”. Na szkoleniach widzę rosnącą przepaść między osobami, które już sprawnie korzystają z AI, a tymi dopiero zaczynającymi.

Kultura ukrywania. Ludzie nie mówią szefom o używaniu AI, bo obawiają się bycia postrzeganymi jako niewystarczająco kompetentni lub naruszający niejasne zasady. Badanie Anagram potwierdza - 78% pracowników w USA wykorzystuje niejasność polityk bezpieczeństwa.

Dlaczego zakazy AI nie działają?

Apple, Samsung, JP Morgan, Goldman Sachs, Deutsche Bank, Verizon - długa lista korporacji próbuje blokować dostęp do narzędzi AI. Problem w tym, że blokady mają zaledwie 30-40% skuteczności i działają wyłącznie na firmowych urządzeniach w biurze. Praca zdalna, prywatne telefony i aplikacje mobilne omijają każdą barierę.

Anton Czuwakin z Google Cloud podsumowuje to trafnie - jeśli zakazujesz AI, będziesz miał więcej shadow AI i będzie trudniej je kontrolować. Co gorsza, surowe monitorowanie niszczy zaufanie i morale. Badania pokazują paradoks: pracownicy czują się mniej odpowiedzialni za własne zachowanie, gdy są nadmiernie monitorowani. Kreatywność ginie, przytłoczona poczuciem ciągłej kontroli.

Koszty są mierzalne. Raport IBM pokazuje, że organizacje z wysokim poziomem shadow AI ponoszą o 670 tysięcy dolarów więcej kosztów za każde naruszenie danych. 20% firm twierdzi, że miało naruszenia związane z tym zjawiskiem. Paradoksalnie blokowanie AI bez dostarczenia alternatyw zwiększa ryzyko, bo działania pracowników stają się całkowicie niewidoczne.

Przypadek australijskiego urzędu odbudowy po powodzi jest wymowny. Pracownik wkleił do ChatGPT arkusz z ponad 12 tysiącami wierszy danych poszkodowanych - imiona, adresy, numery telefonów, dane zdrowotne. Nie zrobił tego ze złości - chciał szybciej uporządkować dane i oszczędzić czas na ręcznym klikaniu w Excelu. To nie historia o złym pracowniku, ale o braku edukacji i oszczędzaniu na narzędziach.

Co dalej - jak firmy powinny reagować?

Zakazy to droga donikąd - i to nie jest tylko opinia, ale wniosek z danych. Shadow AI to nie problem technologiczny, którego nie zablokujesz firewallem. To wyzwanie organizacyjne wymagające połączenia technologii, polityk, edukacji i zmiany kultury.

Szczegółową analizę tego, co faktycznie działa - dane o produktywności, edukacji i wdrożeniach - opisuję w artykule o skutecznym wdrażaniu AI w firmie. Znajdziesz tam też konkretne liczby dotyczące sytuacji Polski na tle Unii Europejskiej.

Warto też poznać 6 konkretnych zagrożeń AI w pracy i metodę oceny ryzyka, która pomaga pracownikom korzystać z AI bezpiecznie - bo samo danie narzędzi bez wiedzy, jak ich używać, tworzy nowy zestaw problemów.

Shadow AI to temat, który obserwuję z perspektywy praktyka - prowadzę konsultacje 1:1 i szkolenia z AI w polskich firmach i widzę tę przepaść między zarządami a pracownikami na własne oczy. Jeśli chcesz porozmawiać o wdrożeniu AI w Twojej organizacji, skontaktuj się ze mną.

Obejrzyj pełny odcinek na YouTube

Obejrzyj na YouTube