Wyobraź sobie, że ktoś próbuje ukraść przepis na Twój ulubiony sernik, nie zaglądając Ci do kuchni, a jedynie analizując każdy kęs ciasta. Dokładnie to spotkało najnowszą sztuczną inteligencję od Google. Ostatni raport bezpieczeństwa giganta z Mountain View wywołał poruszenie w branży technologicznej, bo stawka jest znacznie wyższa niż tylko kradzież kodu.
Zauważyłem, że większość z nas traktuje czaty AI jak magiczne pudełka, które po prostu znają odpowiedzi. Jednak dla cyberprzestępców to kopalnia złota, którą próbują "sklonować" za pomocą sprytnej metody zwanej atakiem destylacyjnym. Jeśli myślisz, że to problem tylko wielkich korporacji, możesz być w błędzie.
Na czym polega "atak destylacyjny" i dlaczego powinien Cię obchodzić?
W świecie AI mówi się o model extraction. To proces, w którym napastnicy zasypują Gemini lawiną specyficznych zapytań – w tym przypadku było to ponad 100 000 fraz. Analizując odpowiedzi, hakerzy próbują odtworzyć "mózg" algorytmu, czyli jego wewnętrzną logikę.
- Kradzież intelektualna: Budowa Gemini kosztowała miliardy dolarów. Hakerzy chcą mieć to samo "za darmo".
- Omijanie filtrów: Zrozumienie, jak działa AI, pozwala przestępcom tworzyć bardziej przekonujący phishing lub złośliwy kod, który nie zostanie wykryty.
- Ryzyko dla Twoich danych: Jeśli ktoś skopiuje model, może znaleźć luki, które pozwolą wyciągnąć informacje wpisane przez użytkowników.

"Jesteśmy kanarkiem w kopalni"
John Hultquist, analityk z Google, nie gryzie się w język. Twierdzi, że atak na Gemini to dopiero początek. W mojej praktyce widzę coraz więcej firm w Polsce – od kancelarii prawnych po kliniki medyczne – które wdrażają własne systemy AI. One również mogą stać się celem takich "cichych" ataków.
Ale jest pewien niuans. Nie chodzi tylko o hakerów w maskach. To regularna wojna rynkowa. OpenAI już wcześniej oskarżało chińskie DeepSeek o używanie podobnych technik do przyspieszenia swoich prac. Granica między badaniami naukowymi a szpiegostwem przemysłowym właśnie się zaciera.
Jak możesz się zabezpieczyć? Prosty lifehack
Choć Google zablokowało tę konkretną falę ataków, warto pamiętać o złotej zasadzie korzystania z AI w Polsce i na świecie. Działa ona jak filtr do kawy – przepuszcza esencję, ale zatrzymuje fusy.
Moja rada: Nigdy nie wpisuj do publicznych czatów AI (takich jak Gemini czy ChatGPT) danych, których nie wywiesiłbyś na tablicy ogłoszeń w lokalnym supermarkecie. Unikaj podawania numerów PESEL, szczegółów umów handlowych czy prywatnych adresów. Pamiętaj, że każda Twoja interakcja "karmi" model, a jak widać, chętnych do podejrzenia tego, co AI ma w środku, nie brakuje.
Czy uważacie, że firmy technologiczne robią wystarczająco dużo, by chronić naszą prywatność w starciu z hakerami, czy może sami powinniśmy bardziej ograniczyć zaufanie do sztucznej inteligencji?