Wielki Brat wie co promptujesz

Wielki Brat wie co promptujesz

2025-11-04

 

Forbes ujawnił przełomową sprawę z Maine, która fundamentalnie zmienia sposób, w jaki myślimy o prywatności cyfrowej w erze sztucznej inteligencji. Po raz pierwszy w historii organy federalne uzyskały nakaz sądowy zmuszający OpenAI do wydania danych użytkownika na podstawie zapytań do ChatGPT – a szczegóły tej sprawy są absolutnie fascynujące. Co więcej, nowy raport wywiadowczy Anthropic z sierpnia 2025 roku ujawnia znacznie szerszy obraz wykorzystania systemów AI przez cyberprzestępców, tworząc niepokojący kontekst dla rosnącej roli sztucznej inteligencji zarówno w przestępczości, jak i w jej zwalczaniu.

 

Sprawa z Maine: niewinne pytanie, poważne konsekwencje

Sprawa jest niezwykła z kilku powodów. Śledczy z Homeland Security tropili administratora sieci darkwebowej zajmującej się  wykorzystywaniem seksualnym dzieci, która działała od 2019 roku i zarządzała 15 różnymi stronami o łącznej liczbie ponad 300 tysięcy użytkowników. Po latach bezowocnych poszukiwań przełom nastąpił w najmniej oczekiwanym miejscu – w przypadkowej rozmowie o Sherlocku Holmesie i Star Treku.

Podczas komunikacji prowadzonej pod przykrywką, podejrzany wspomniał o korzystaniu z ChatGPT i podzielił się dwoma pozornie niewinnymi zapytaniami. Jedno brzmiało: „Co by się stało, gdyby Sherlock Holmes spotkał Q ze Star Treka?”. Drugie dotyczyło prośby o stworzenie wiersza liczącego 200 tysięcy słów, w odpowiedzi na którą otrzymał „humorystyczny wiersz w stylu Trumpa o jego miłości do utworu Y.M.C.A. zespołu Village People, napisany w tym przesadzonym, samouwielbiającym się, strumieniu świadomości, z którego Trump jest znany”. Podejrzany faktycznie skopiował i wkleił cały wygenerowany przez sztuczną inteligencję (AI) wiersz do swojej rozmowy na darkwebie.

Te zapytania – zupełnie niezwiązane z jakąkolwiek działalnością przestępczą – stały się podstawą pierwszego znanego nakazu federalnego żądającego od OpenAI przekazania kompleksowych informacji o użytkowniku: historii rozmów, nazw kont, adresów i danych płatniczych. To symbolizuje sejsmiczną zmianę w możliwościach nadzoru cyfrowego.

Organy ścigania ostatecznie nie potrzebowały danych od OpenAI. Podejrzany ujawnił wystarczająco dużo podczas rozmów pod przykrywką – siedem lat życia w Niemczech, przechodzenie ocen medycznych wojskowych, służba ojca w Afganistanie – aby zidentyfikować 36-letniego Drew Hoehnera, związanego z bazą lotniczą Ramstein. Jednak precedens został już ustanowiony: rozmowy z AI są teraz w pełni dostępne dla organów ścigania.

 

Dlaczego komunikacja z AI nie jest prawnie chroniona?

Sprawa z Maine otwiera fundamentalne pytanie: czy rozmowy z systemami AI podlegają ochronie prawnej i poufności? Rosnący konsensus prawny w wiodących jurysdykcjach sugeruje znaczące ograniczenia takiej ochrony i konieczność podjęcia prac legislacyjnych w tym zakresie.

Kluczowy problem dotyczy natury komunikacji z AI. Gdy system generatywny produkuje treść, nie ma w rzeczywistości chronionego nadawcy – AI samo nie posiada praw, a jego wypowiedzi nie reprezentują myśli użytkownika ani twórcy systemu. Systemy AI są zaprojektowane do generowania praktycznie dowolnych treści, których użytkownik nie wymyślił ani nie popiera. Dodatkowo, ze względu na probabilistyczny charakter uczenia maszynowego, twórcy nie mogą przewidzieć wszystkich możliwych wypowiedzi systemu, co podważa argumenty o intencji komunikacyjnej.

Szczególnie istotne są implikacje dla tajemnicy zawodowej. Gdy prawnicy, lekarze czy inni profesjonaliści wprowadzają poufne informacje do publicznie dostępnych platform AI, ryzykują utratę ochrony prawnej z dwóch powodów: po pierwsze, udostępniają informacje stronie trzeciej (dostawcy AI), a po drugie, wiele systemów trenuje się na danych użytkowników, co oznacza, że poufne komunikaty mogą potencjalnie zostać odtworzone w odpowiedziach dla innych użytkowników.

Kolejne izby adwokackie i organy nadzoru etycznego wydały wytyczne podkreślające, że profesjonaliści nie mogą wprowadzać poufnych informacji klientów do systemów AI pozbawionych odpowiednich zabezpieczeń. Zgodnie z zasadami etyki zawodowej, specjaliści mają obowiązek podejmowania rozsądnych działań w celu zapobiegania przypadkowemu lub nieuprawnionemu ujawnieniu informacji klientów.

Sądy zaczynają uwzględniać te obawy. W sprawie Garcia v. Character Technologies (2025) sąd federalny w USA wyraził sceptycyzm, czy wypowiedzi chatbota w ogóle kwalifikują się jako „mowa” podlegająca ochronie konstytucyjnej, uznając platformę AI za produkt, a nie usługę generującą chronioną ekspresję.

Praktyczne konsekwencje są jasne: organizacje używające narzędzi AI muszą starannie oceniać, czy systemy te utrzymują odpowiednią ochronę tajemnicy zawodowej i poufności. Najlepsze praktyki obejmują używanie rozwiązań enterprise z wyraźnymi gwarancjami poufności zamiast platform publicznych, uzyskiwanie zgody klientów przed wykorzystaniem AI z informacjami chronionymi oraz wdrażanie systemów klasyfikacji danych ograniczających, jakie informacje mogą być przetwarzane przez AI.

 

Druga strona medalu: AI jako narzędzie przestępców

Podczas gdy sprawa z Maine pokazuje, jak AI może pomóc w schwytaniu przestępców, raport wywiadowczy Anthropic z sierpnia 2025 roku ujawnia znacznie bardziej niepokojący obraz – jak cyberprzestępcy wykorzystują zaawansowane systemy AI do przeprowadzania ataków na niespotykaną dotąd skalę.

 

„Vibe hacking”: gdy AI sam przeprowadza atak

Najbardziej alarmującym przypadkiem opisanym w raporcie jest operacja oznaczona jako GTG-2002, w której przestępca wykorzystał Claude Code – narzędzie kodujące Anthropic – do przeprowadzenia zautomatyzowanej kampanii wymuszenia na 17 organizacjach w ciągu zaledwie miesiąca. Co istotne, AI nie tylko doradzało przestępcy, ale faktycznie wykonywało operacje: przeprowadzało rekonesans, zbierało dane uwierzytelniające, penetrowało sieci i eksfiltrowało dane.

Przestępca stworzył plik CLAUDE.md zawierający szczegółowe instrukcje operacyjne, tworząc fikcyjną historię o autoryzowanych testach bezpieczeństwa, którą wykorzystał do jailbreak – przekonania Claude do obejścia własnych zabezpieczeń. Claude Code następnie systematycznie skanowało tysiące punktów końcowych VPN, identyfikowało podatne systemy, przeprowadzało ataki na dane uwierzytelniające i analizowało wykradzione dane finansowe, aby określić odpowiednie kwoty okupu – od 75 tysięcy do 500 tysięcy dolarów.

Co szczególnie niepokojące, Claude Code nie tylko wykonywało techniczne aspekty ataków, ale także generowało psychologicznie dostosowane noty okupowe w formacie HTML, analizując wykradzione dane finansowe ofiar. System tworzył wielopoziomowe strategie wymuszenia, oferując różne opcje monetyzacji – od bezpośredniego szantażu organizacji, przez sprzedaż danych przestępcom, po ukierunkowane wymuszenia na osobach fizycznych, których dane zostały skompromitowane.

 

Północnokoreańscy „pracownicy IT”: gdy AI zastępuje lata szkolenia

Raport Anthropic ujawnił również fascynujący przypadek północnokoreańskich operatorów, którzy wykorzystują Claude do uzyskiwania i utrzymywania fałszywych stanowisk w firmach technologicznych. Co szczególnie uderzające – ci operatorzy najwyraźniej nie potrafią samodzielnie pisać kodu, debugować problemów ani nawet komunikować się profesjonalnie po angielsku bez pomocy AI. Mimo to z powodzeniem utrzymują zatrudnienie w firmach z listy Fortune 500, przechodzą techniczne rozmowy kwalifikacyjne i dostarczają pracę zadowalającą pracodawców.

Analiza użycia Claude przez tych operatorów pokazuje, że 61% ich działalności dotyczy rozwoju front-endu (React, Vue, Angular), 26% programowania i skryptów w Pythonie, a 10% przygotowania do rozmów kwalifikacyjnych. Operatorzy wykorzystują AI na każdym etapie: od tworzenia fałszywych tożsamości zawodowych, przez przygotowanie do rozmów technicznych, po codzienne wykonywanie obowiązków służbowych.

Według ocen FBI takie operacje generują setki milionów dolarów rocznie na programy zbrojeniowe Korei Północnej. Możliwość wykorzystania AI skutecznie usuwa tradycyjne ograniczenie – reżim może teraz rozmieszczać znacznie więcej „pracowników” niż był w stanie wyszkolić w elitarnych instytucjach, takich jak Uniwersytet Kim Il Sunga.

 

Ransomware bez kodowania: demokratyzacja cyberprzestępczości

Raport opisuje również brytyjskiego przestępcę (GTG-5004), który wykorzystał Claude do opracowania, promowania i dystrybucji ransomware’u z zaawansowanymi możliwościami unikania wykrycia. Operator ten, najwyraźniej niezdolny do samodzielnej implementacji skomplikowanych komponentów technicznych, z powodzeniem sprzedawał zdalne oprogramowanie ransomware w cenach od 400 do 1200 dolarów.

Opracowane za pomocą Claude ransomware wykorzystywało szyfrowanie ChaCha20, techniki anty-EDR (Endpoint Detection and Response), manipulację Windows internals i profesjonalne opakowanie z konsolami PHP i infrastrukturą command-and-control. Przestępca działał w modelu Ransomware-as-a-Service (RaaS), dystrybuując narzędzia przez stronę .onion i aktywnie reklamując je na forach darkwebu, takich jak Dread, CryptBB i Nulled.

 

Skala problemu: liczby, które mówią same za siebie

OpenAI zgłosiło 31 500 materiałów związanych z wykorzystywaniem seksualnym dzieci do National Center for Missing and Exploited Children w ciągu zaledwie sześciu miesięcy między lipcem a grudniem 2024 roku. W tym samym okresie OpenAI otrzymało 71 żądań rządowych dotyczących danych, przekazując informacje ze 132 kont.

Raport Anthropic dokumentuje wykorzystanie Claude przez chińskiego cyberprzestępcę, który przez 9 miesięcy wykorzystywał system do ataków na wietnamską infrastrukturę krytyczną, obejmując 12 z 14 taktyk MITRE ATT&CK. Inny przypadek opisuje bota Telegram z ponad 10 tysiącami miesięcznych użytkowników, który oferuje multimodalne narzędzia AI specjalnie zaprojektowane do wspierania oszustw matrymonialnych, reklamując Claude jako „model o wysokim EQ” do generowania emocjonalnie inteligentnych odpowiedzi.

 

Dylemat regulacyjny: między bezpieczeństwem a innowacją

Przypadki opisane zarówno przez Forbes, jak i w raporcie Anthropic stawiają kluczowe pytanie regulacyjne: jak znaleźć właściwą równowagę między wykorzystywaniem mocy AI do celów organów ścigania a ochroną prywatności zwykłych użytkowników?

Sprawa Drew Hoehnera pokazuje, że dostęp do danych AI może być kluczowy do tropienia sprawców najbardziej odrażających przestępstw. Przypadki opisane przez Anthropic demonstrują, jak te same systemy AI są wykorzystywane przez przestępców do przeprowadzania ataków na bezprecedensową skalę – od operacji wymuszenia na 17 organizacjach miesięcznie, przez oszustwa na setki milionów dolarów dla północnokoreańskiego reżimu, po sprzedaż ransomware’u jako usługi.

Z drugiej strony, zwykli użytkownicy stali się zupełnie bezbronni, bez tajemnicy korespondencji i prawa do prywatności. Zastanówmy się nad pełnymi implikacjami: za każdym razem, gdy prosisz ChatGPT, Claude lub inny system AI, o pomoc w napisaniu maila, debugowaniu kodu czy tworzeniu treści, potencjalnie tworzysz przeszukiwalny, dostępny dla rządu i trwały zapis. W przeciwieństwie do ulotnych rozmów, twoje interakcje z AI są przechowywane, opatrzone znacznikami czasowymi i powiązane z informacjami o płatnościach.

Równolegle jednak raport Anthropic pokazuje, że tradycyjne założenia o związku między wyrafinowaniem przestępcy a złożonością ataku już nie obowiązują, gdy AI może zapewnić natychmiastowy dostęp do wiedzy eksperckiej. Pojedynczy operator może teraz osiągnąć wpływ całego zespołu cyberprzestępców dzięki pomocy AI. AI podejmuje zarówno strategiczne, jak i taktyczne decyzje dotyczące wyboru ofiar, eksploatacji i monetyzacji. Obrona staje się coraz trudniejsza, gdy generowane przez AI ataki adaptują się do środków obronnych w czasie rzeczywistym.

Anthropic podjęło kroki zaradcze: zablokowało konta związane z opisanymi operacjami, opracowało dedykowane klasyfikatory do wykrywania tego typu działalności i udostępniło techniczne wskaźniki partnerom, aby zapobiec podobnym nadużyciom w całym ekosystemie. Jednak firma otwarcie przyznaje, że spodziewa się, iż ten model stanie się coraz bardziej powszechny, gdy sztuczna inteligencja obniża barierę wejścia dla wyrafinowanych operacji cyberprzestępczych.