Zagrożenia AI w pracy to nie abstrakcyjne ostrzeżenia - to realne przypadki, które kosztowały ludzi kariery, pieniądze i reputację. W 2023 roku prawnik z Nowego Jorku stanął przed sądem za cytowanie wyroków, które nigdy nie zapadły - wziął je z ChatGPT. Samsung wprowadził całkowity zakaz po wycieku poufnego kodu źródłowego. A 75% pracowników działu Copilot w Microsofcie płaci z własnej kieszeni za ChatGPT, mimo że sami rozwijają konkurencyjne narzędzie.
Od prawie 20 lat pracuję w korporacjach wyczulonych na ochronę danych - logistyka, banki, komunikacja. Przez ostatnie 2 lata przeprowadziłem dziesiątki szkoleń o AI. Oto sześć zagrożeń, które widzę najczęściej.
1. Wyciek danych - łańcuch jest tak silny jak najsłabsze ogniwo
To, co wprowadzasz do ChatGPT, może trafić do znacznie większej liczby osób, niż myślisz. I nawet jeśli samo narzędzie jest bezpieczne - co z drogą, którą dane do niego trafiają?
W 2023 roku inżynierowie Samsunga wkleili do ChatGPT poufny kod źródłowy i fragmenty wewnętrznych spotkań. Wystarczyło kilka przypadków, by Samsung uznał ryzyko za zbyt wysokie i wprowadził całkowity zakaz. Wyciek danych przy pracy z AI przybiera kilka form: dane mogą zasilić bazę treningową modelu, narzędzia pośredniczące mogą przechowywać zapytania we własnych bazach, a darmowe wersje modeli wprost wskazują w regulaminach, że używają danych do dalszego szkolenia.
Internet jest pełen aplikacji korzystających z różnych modeli AI. Czy znasz ich producentów? Czy wiesz, co robią z Twoimi danymi, zanim trafią do docelowego modelu?
Jak się bronić: Sprawdzaj warunki korzystania z usługi. Stosuj techniki anonimizacji - zmieniaj nazwy firm, osób i kwoty na własne znaczniki (funkcja “znajdź i zamień” wystarczy). Do wrażliwych danych rozważ modele lokalne lub wewnętrzne instancje. Sprawdź, czy Twoja firma ma politykę dotyczącą AI - być może istnieją już zatwierdzone narzędzia.
Osobiście korzystam z Claude’a, bo Anthropic ma w miarę jawne zasady dotyczące danych. Średnio ważne dokumenty anonimizuję, a bardzo ważnych w ogóle nie dodaję do AI - rozmawiam jedynie o metodach analizy, ogólnie zarysowując sytuację.
2. Prawa autorskie - pole minowe grafik AI
Wygenerowałeś kiedyś grafikę do prezentacji? To może być podstawą pozwu - i to nie tylko do twórców modelu, ale bezpośrednio do Ciebie lub Twojej firmy. Im więcej osób zobaczy tę grafikę, tym bardziej staje się to prawdopodobne.
W 2023 roku wyciekła lista 16 tysięcy artystów, których prace użyto bez zgody do trenowania Midjourney. Artyści złożyli pozew. Getty Images pozwało Stability AI za wykorzystanie milionów chronionych zdjęć. Ryzyko prawne dotyka nie tylko twórców modeli, ale potencjalnie każdego, kto komercyjnie wykorzysta wygenerowane obrazy.
Jak się bronić: Sprawdzaj licencje modeli. Dla treści komercyjnych wybieraj modele z jasnymi gwarancjami legalności (np. Firefly od Adobe). Zawsze dodawaj własny wkład twórczy. Zachowuj dokumentację procesu tworzenia - zapytania, daty, wersje modeli.
Sytuacja przypomina historię sampli muzycznych z lat 90., gdy artyści hip-hopowi zaczęli być pozywani za fragmenty cudzych utworów. Wtedy ukształtowały się zasady dozwolonego użytku - teraz powstaje analogiczny system dla treści generowanych przez AI.
3. Shadow AI - gdy pracownicy omijają procedury
75% pracowników działu Copilot w Microsofcie płaci z własnej kieszeni za ChatGPT, mimo że sami rozwijają konkurencyjne narzędzie. Ten problem nie istnieje tylko w Microsofcie. Pracownicy korzystają z nieautoryzowanych narzędzi, bo po prostu są lepsze lub wygodniejsze.
To zjawisko znane jako shadow IT - równoległa struktura informatyczna poza kontrolą firmy. Używanie prywatnych kont w publicznych modelach do zadań służbowych, wrzucanie firmowych danych do niezweryfikowanych aplikacji, instalowanie niezatwierdzonych wtyczek - wszystko w imię efektywności. Ile poufnych informacji z Microsoftu trafiło na serwery OpenAI?
Jak się bronić: Zakaz nie zadziała. Zamiast tego: zapoznaj się z polityką firmy, zaproponuj katalog zatwierdzonych narzędzi, stwórz prostą ścieżkę akceptacji nowych narzędzi (zmniejsza pokusę omijania), regularnie aktualizuj wiedzę o narzędziach firmowych - rozwijają się i mogą zastąpić zewnętrzne rozwiązania.
4. Halucynacje - gdy AI kłamie z pewnością siebie
Prawnik Steven Schwartz w 2023 roku przedłożył do sądu dokument z fikcyjnymi wyrokami wygenerowanymi przez ChatGPT. Sędzia nałożył karę finansową za brak weryfikacji. W Polsce głośny był przypadek Krzysztofa Stanowskiego, który zadawał gościom pytania wygenerowane przez ChatGPT - i sam dał się wkręcić w nieprawdziwe informacje na antenie.
Modele językowe mają fundamentalną wadę - generują nieprawdziwe informacje z przekonującą pewnością siebie. Zmyślone dane, nieistniejące badania, fikcyjne cytaty. I robią to tym skuteczniej, im bardziej wyglądają na wiarygodne.
Jak się bronić: Weryfikuj kluczowe fakty z niezależnych źródeł. Traktuj odpowiedzi AI jako punkt wyjścia, nie gotowy produkt. Bądź szczególnie ostrożny przy danych liczbowych, datach, nazwach i cytatach. Rozpoznawaj typowe oznaki halucynacji - nadmierna pewność siebie i idealnie dopasowane przykłady powinny wzbudzać podejrzliwość.
Problem przypomina efekt Dunninga-Krugera - im mniej wiemy o temacie, tym trudniej wykryć błędy w odpowiedziach AI. Halucynacje są najbardziej niebezpieczne, gdy korzystamy z AI w dziedzinach, na których sami się nie znamy.
5. Atrofia umiejętności - mięsień nieużywany zanika
Co by się stało, gdyby pewnego dnia wszystkie narzędzia AI przestały działać? Czy nadal potrafiłbyś wykonywać swoją pracę tak efektywnie jak kiedyś?
W 2023 roku McKinsey opisał przypadek działu HR w dużej firmie technologicznej, gdzie po wdrożeniu AI do selekcji kandydatów rekruterzy wykazali znaczący spadek umiejętności analitycznych. Po roku mieli trudności z samodzielną oceną CV bez wsparcia algorytmu.
Jak podkreśla Gosia Fraser w swoich badaniach, uczniowie regularnie korzystający z AI wykazują tendencję do prostszych, bardziej schematycznych form myślenia. Ich prace stają się bardziej ustandaryzowane, a interpretacje złożonych tematów - banalne i powierzchowne. To ryzyko grozi też nam.
Jak się bronić: Ustal jasne granice - które zadania delegujesz do AI, a które wykonujesz samodzielnie. Najpierw sam pomyśl, potem porównaj z sugestią AI. Regularnie ćwicz umiejętności analogowe - pisanie, analizę, badanie - bez wsparcia technologii. Konsultuj produkty AI z prawdziwymi ludźmi.
Paradoks znany z lotnictwa: im lepsze autopiloty, tym mniej praktyki mają piloci w ręcznym sterowaniu. Dlatego linie lotnicze wymagają regularnego latania w trybie manualnym. Tak samo powinniśmy traktować nasze umiejętności.
6. Regulacje i ciągłość biznesowa
Co by się stało, gdyby kluczowe narzędzie AI, na którym oparte są Twoje procesy, zostało wyłączone z powodu nowych regulacji? W 2023 roku włoski Urząd Ochrony Danych tymczasowo zablokował ChatGPT, wskazując na naruszenia RODO. Firmy, które wdrożyły go w obsłudze klienta, zostały nagle pozbawione kluczowego elementu procesów.
Coraz więcej branż wymaga przejrzystości i wytłumaczalności decyzji algorytmicznych. Polskie prawo bankowe wymaga jasnego uzasadnienia decyzji kredytowych - a przy dużych modelach językowych często niemożliwe jest odtworzenie ścieżki rozumowania.
Jak się bronić: Przeprowadzaj ocenę wpływu przed wdrożeniem AI w krytycznych procesach. Opracuj plany awaryjne. Dywersyfikuj dostawców - nie wszystko na API jednego producenta. Zapewnij, że kluczowe decyzje AI są wyjaśnialne. Monitoruj zmiany w przepisach.
Sytuacja przypomina wdrażanie cloud computingu 10-15 lat temu. Firmy, które wypracowały hybrydowe podejście i solidne plany awaryjne, poradziły sobie w długim terminie najlepiej.
Wszystkie sześć zagrożeń łączy jedno - ich waga drastycznie różni się w zależności od kontekstu. Inne środki bezpieczeństwa stosujesz przy generowaniu mema, a inne przy raporcie finansowym dla klienta. Jak dopasować poziom ostrożności do sytuacji? Opisuję to w artykule o metodzie oceny ryzyka AI - prostym frameworku trzech poziomów rygoru.
Trzecie zagrożenie - shadow AI - okazuje się znacznie większe, niż sądzą zarządy. 89% użycia AI w firmach jest niewidoczne, a jak skutecznie wdrożyć AI zamiast zakazywać - to kluczowe pytanie dla każdej organizacji.
A jeśli temat bezpieczeństwa AI jest ważny w Twojej organizacji, prowadzę konsultacje 1:1 i szkolenia z tego zakresu w ramach Innovatiki. Temat ochrony danych osobowych w erze AI łączy się też z szerszym problemem prywatności w erze rozpoznawania twarzy. Darmową interaktywną aplikację do oceny ryzyka AI znajdziesz na kanale Wydanie Zbiorcze.