Evil GPT i cyberprzestępczość nowej generacji
Sztuczna inteligencja zmieniła cyberprzestępczość bardziej niż jakakolwiek technologia ostatnich dekad. Jeszcze kilka lat temu zaawansowane ataki wymagały dużej wiedzy technicznej, znajomości programowania, infrastruktury oraz doświadczenia w exploitach, phishingu i malware. W 2026 roku coraz większą część tych działań przejmują modele generatywne AI, autonomiczne agenty i tzw. Evil GPT.
Termin „Evil GPT” nie oznacza jednego konkretnego narzędzia. To zbiorcza nazwa dla:
- nieocenzurowanych modeli AI,
- jailbreakowanych chatbotów,
- cyberprzestępczych LLM,
- modeli trenowanych pod phishing i malware,
- agentów AI wspierających cyberataki.
Najbardziej znane nazwy pojawiające się w undergroundzie to:
- WormGPT,
- FraudGPT,
- DarkGPT,
- HackGPT,
- EvilGPT,
- BlackHat AI,
- uncensored LLMs.
Te systemy są projektowane nie do pomocy użytkownikowi, lecz do wspierania cyberprzestępczości.
Czym jest Evil GPT?
Evil GPT to model AI:
- pozbawiony filtrów bezpieczeństwa,
- omijający ograniczenia etyczne,
- generujący phishing,
- pomagający w tworzeniu malware,
- wspierający socjotechnikę,
- automatyzujący cyberataki.
Klasyczne modele AI posiadają guardraile:
- blokady treści,
- filtry bezpieczeństwa,
- wykrywanie phishingu,
- ograniczenia dotyczące malware.
Cyberprzestępcy:
- usuwają te zabezpieczenia,
- jailbreakują modele,
- fine-tunują własne LLM,
- wykorzystują open source AI.
Powstają wtedy systemy przeznaczone do cyberprzestępczości.
Jak powstał rynek cyberprzestępczych AI?
Rozwój open source AI radykalnie obniżył próg wejścia.
Dziś przestępcy mogą:
- pobrać model,
- uruchomić go lokalnie,
- wytrenować na danych malware,
- usunąć zabezpieczenia,
- stworzyć własny „evil chatbot”.
W undergroundzie powstały całe marketplace’y:
- AI-as-a-Service dla cyberprzestępców,
- abonamenty do phishing GPT,
- modele do scamów,
- AI do social engineeringu,
- generatory ransomware.

WormGPT — początek nowej ery
Jednym z pierwszych głośnych przykładów był WormGPT.
Model był reklamowany jako:
- „AI without ethics”,
- „ChatGPT for hackers”,
- „blackhat assistant”.
Jego funkcje obejmowały:
- generowanie phishing maili,
- tworzenie malware,
- pisanie exploitów,
- automatyzację scamów,
- Business Email Compromise.
W praktyce był to przykład nowego trendu:
AI jako cyberprzestępczy copilote.
Dlaczego Evil GPT jest tak groźny?
1. Demokratyzacja cyberprzestępczości
Dawniej:
- phishing wymagał umiejętności,
- malware wymagał programowania,
- socjotechnika wymagała doświadczenia.
Dziś początkujący użytkownik może napisać:
i otrzymać gotowy materiał.
Eksperci coraz częściej mówią o:
- vibe hacking,
- AI hacking,
- prompt-driven cybercrime.
2. Skala działania
AI nie męczy się.
Nie potrzebuje przerw.
Może generować tysiące kampanii jednocześnie.
Cyberprzestępca może:
- tworzyć tysiące unikalnych phishingów,
- personalizować wiadomości,
- analizować odpowiedzi,
- automatycznie prowadzić rozmowy.
To radykalnie zwiększa skalę ataków.
3. Jakość socjotechniki
Dawny phishing często zawierał:
- błędy,
- dziwny język,
- niepoprawną gramatykę.
AI generuje:
- perfekcyjny język,
- realistyczny ton,
- naturalną komunikację,
- profesjonalne wiadomości.
To zwiększa skuteczność ataków.
Evil GPT i phishing nowej generacji
Największym zastosowaniem cyberprzestępczych AI jest phishing.
AI Spear Phishing
Modele analizują:
- LinkedIn,
- Facebook,
- GitHub,
- strony firmowe,
- profile pracowników.
Następnie generują:
- spersonalizowane wiadomości,
- realistyczne konwersacje,
- fake support,
- wiadomości HR,
- fałszywe dokumenty.
AI potrafi imitować:
- styl firmy,
- język prezesa,
- sposób komunikacji zespołu.
EvilTokens i AI phishing infrastrukturalny
Jednym z najgroźniejszych trendów 2026 są AI-driven phishing kits.
Przykładem jest EvilTokens.
Atak wykorzystuje:
- legalny Microsoft login,
- OAuth Device Code Flow,
- dynamiczne tokeny,
- automatyzację AI.
Zamiast klasycznego fake loginu:
- ofiara loguje się na prawdziwej stronie Microsoft,
- atakujący przechwytuje token autoryzacyjny.
To znacznie utrudnia wykrycie.
AI i malware generation
Evil GPT potrafi:
- pisać skrypty,
- tworzyć malware,
- modyfikować payloady,
- generować polymorphic code,
- ukrywać złośliwy kod.
Nowoczesne modele pomagają:
- omijać EDR,
- ukrywać persistence,
- obfuskować malware,
- tworzyć loader’y.
Coraz częściej malware:
- zmienia się dynamicznie,
- generuje nowe warianty,
- adaptuje do środowiska.
AI-generated ransomware
Nowoczesny ransomware wykorzystuje AI do:
- wyboru ofiar,
- analizy infrastruktury,
- identyfikacji backupów,
- automatycznej eskalacji uprawnień,
- selekcji danych do kradzieży.
AI może:
- analizować Active Directory,
- identyfikować serwery krytyczne,
- automatycznie wyłączać zabezpieczenia.
EvilAI — malware nowej generacji
W 2026 pojawiły się kampanie wykorzystujące AI-generated malware.
Przykładem jest EvilAI.
Charakterystyka:
- AI-generated code,
- dynamiczne payloady,
- anti-analysis loops,
- adaptive malware,
- rotujące certyfikaty.
Badacze bezpieczeństwa zauważyli, że część takich zagrożeń omija klasyczne endpoint security.
(halcyon.ai) (halcyon.ai)
Agentic AI — autonomiczni cyberprzestępcy
Największa zmiana nadchodzi wraz z agentic AI.
To systemy zdolne do:
- autonomicznego działania,
- podejmowania decyzji,
- planowania ataków,
- realizacji celów.
Nowoczesny agent AI może:
- znaleźć podatność,
- wygenerować exploit,
- stworzyć phishing,
- przejąć konto,
- ukraść dane,
- zacierać ślady.
Część ekspertów uważa, że cyberprzestępczość zmierza w stronę półautonomicznych operacji AI.
AI exploit development
W 2026 pojawiły się pierwsze przypadki użycia AI do:
- wykrywania podatności,
- tworzenia exploitów,
- automatycznej analizy kodu.
Google ostrzegło, że cyberprzestępcy zaczynają wykorzystywać AI do wyszukiwania zero-day vulnerabilities.
(reuters.com) (Reuters)
Vibe hacking — cyberprzestępczość bez wiedzy technicznej
Pojęcie „vibe hacking” opisuje nowy trend:
- użytkownik nie rozumie technologii,
- po prostu wykonuje instrukcje AI.
Przykład:
„jak przejąć konto Microsoft 365”
AI:
- tłumaczy krok po kroku,
- generuje phishing,
- tworzy skrypty,
- wyjaśnia omijanie MFA.
To radykalnie obniża próg wejścia.
(reddit.com) (Reddit)
Jailbreaki modeli AI
Cyberprzestępcy często nie potrzebują własnego modelu.
Wystarczy:
- jailbreak,
- prompt injection,
- manipulacja instrukcjami systemowymi.
Badania pokazują, że część modeli można skłonić do generowania:
- phishingu,
- malware,
- scamów,
- instrukcji cyberataków.
Shadow AI i nowe powierzchnie ataku
Firmy coraz częściej korzystają z:
- Copilotów,
- AI assistants,
- chatbotów,
- browser AI extensions.
To tworzy nową powierzchnię ataku.
Cyberprzestępcy:
- tworzą złośliwe rozszerzenia,
- przechwytują prompty,
- kradną historię rozmów,
- wyciągają dane firmowe.
Microsoft ostrzegał przed rozszerzeniami kradnącymi historię czatów LLM.
AI jako nowa powierzchnia cyberataków
W 2026 AI staje się:
- narzędziem ataku,
- celem ataku,
- wektorem infekcji,
- źródłem wycieku danych.
Powstają nowe zagrożenia:
- prompt injection,
- AI poisoning,
- model hijacking,
- data exfiltration through LLM,
- AI supply chain attacks.
Cybercrime-as-a-Service + AI
Underground coraz bardziej przypomina legalny SaaS.
Cyberprzestępcy oferują:
- phishing kits,
- ransomware subscriptions,
- AI scam bots,
- voice cloning,
- malware generators.
Model działania:
- abonament miesięczny,
- support techniczny,
- aktualizacje,
- API,
- gotowe dashboardy.
AI przyspieszyło profesjonalizację cyberprzestępczości.
Czy Evil GPT oznacza koniec cyberbezpieczeństwa?
Nie.
Ale oznacza gigantyczną zmianę.
AI:
- zwiększa tempo ataków,
- zwiększa skalę,
- poprawia socjotechnikę,
- automatyzuje cybercrime.
Jednocześnie AI pomaga również obrońcom:
- wykrywać anomalie,
- analizować malware,
- automatyzować SOC,
- identyfikować phishing.
To wyścig AI vs AI.
Jak bronić się przed cyberprzestępczością AI?
1. Zero Trust
Nie ufać:
- mailom,
- głosom,
- AI chatbotom,
- Teams,
- QR kodom.
2. MFA odporne na phishing
Najlepiej:
- FIDO2,
- passkeys,
- hardware keys.
3. Szkolenia anti-AI phishing
Pracownicy muszą rozumieć:
- deepfake,
- AI phishing,
- AI scams,
- prompt injection,
- vishing,
- quishing.
4. Monitoring AI usage
Firmy powinny kontrolować:
- Shadow AI,
- prywatne chatboty,
- browser extensions,
- wycieki promptów.
5. AI security governance
Nowy obszar bezpieczeństwa obejmuje:
- polityki AI,
- kontrolę danych,
- bezpieczeństwo modeli,
- monitoring promptów,
- AI red teaming.
Przyszłość Evil GPT
Eksperci przewidują rozwój:
- autonomicznych agentów hackerskich,
- AI ransomware operators,
- self-evolving malware,
- deepfake identity systems,
- AI fraud ecosystems.
Największy problem?
Granica między człowiekiem a AI zaczyna zanikać.
W przyszłości:
- phishing będzie generowany live,
- malware będzie adaptacyjny,
- scam boty będą prowadzić realistyczne rozmowy,
- AI będzie imitować ludzi w czasie rzeczywistym.
Podsumowanie
Evil GPT i cyberprzestępczość nowej generacji zmieniają cały krajobraz bezpieczeństwa IT.
Nowoczesne cyberzagrożenia wykorzystują:
- generatywne AI,
- autonomiczne agenty,
- voice cloning,
- deepfake,
- AI phishing,
- AI malware,
- agentic AI,
- vibe hacking.
Najważniejsza zmiana polega na tym, że:
- cyberataki stają się tańsze,
- łatwiejsze,
- szybsze,
- bardziej realistyczne,
- dostępne nawet dla początkujących.
AI nie zastąpiło cyberprzestępców.
AI sprawiło, że cyberprzestępczość weszła w epokę przemysłową.






