Evil GPT i cyberprzestępczość nowej generacji
AI Cyberbezpieczeństwo

Evil GPT i cyberprzestępczość nowej generacji

Evil GPT i cyberprzestępczość nowej generacji

Sztuczna inteligencja zmieniła cyberprzestępczość bardziej niż jakakolwiek technologia ostatnich dekad. Jeszcze kilka lat temu zaawansowane ataki wymagały dużej wiedzy technicznej, znajomości programowania, infrastruktury oraz doświadczenia w exploitach, phishingu i malware. W 2026 roku coraz większą część tych działań przejmują modele generatywne AI, autonomiczne agenty i tzw. Evil GPT.

Termin „Evil GPT” nie oznacza jednego konkretnego narzędzia. To zbiorcza nazwa dla:

  • nieocenzurowanych modeli AI,
  • jailbreakowanych chatbotów,
  • cyberprzestępczych LLM,
  • modeli trenowanych pod phishing i malware,
  • agentów AI wspierających cyberataki.

Najbardziej znane nazwy pojawiające się w undergroundzie to:

  • WormGPT,
  • FraudGPT,
  • DarkGPT,
  • HackGPT,
  • EvilGPT,
  • BlackHat AI,
  • uncensored LLMs.

Te systemy są projektowane nie do pomocy użytkownikowi, lecz do wspierania cyberprzestępczości.


Czym jest Evil GPT?

Evil GPT to model AI:

  • pozbawiony filtrów bezpieczeństwa,
  • omijający ograniczenia etyczne,
  • generujący phishing,
  • pomagający w tworzeniu malware,
  • wspierający socjotechnikę,
  • automatyzujący cyberataki.

Klasyczne modele AI posiadają guardraile:

  • blokady treści,
  • filtry bezpieczeństwa,
  • wykrywanie phishingu,
  • ograniczenia dotyczące malware.

Cyberprzestępcy:

  • usuwają te zabezpieczenia,
  • jailbreakują modele,
  • fine-tunują własne LLM,
  • wykorzystują open source AI.

Powstają wtedy systemy przeznaczone do cyberprzestępczości.

(arxiv.org)


Jak powstał rynek cyberprzestępczych AI?

Rozwój open source AI radykalnie obniżył próg wejścia.

Czytaj  🔐 Bezpieczne przechowywanie kodów zapasowych 2FA – co zrobić, gdy stracisz dostęp do swojego urządzenia?

Dziś przestępcy mogą:

  • pobrać model,
  • uruchomić go lokalnie,
  • wytrenować na danych malware,
  • usunąć zabezpieczenia,
  • stworzyć własny „evil chatbot”.

W undergroundzie powstały całe marketplace’y:

  • AI-as-a-Service dla cyberprzestępców,
  • abonamenty do phishing GPT,
  • modele do scamów,
  • AI do social engineeringu,
  • generatory ransomware.

(reddit.com)

 

Evil GPT i cyberprzestępczość nowej generacji
Evil GPT i cyberprzestępczość nowej generacji

WormGPT — początek nowej ery

Jednym z pierwszych głośnych przykładów był WormGPT.

Model był reklamowany jako:

  • „AI without ethics”,
  • „ChatGPT for hackers”,
  • „blackhat assistant”.

Jego funkcje obejmowały:

  • generowanie phishing maili,
  • tworzenie malware,
  • pisanie exploitów,
  • automatyzację scamów,
  • Business Email Compromise.

W praktyce był to przykład nowego trendu:
AI jako cyberprzestępczy copilote.

(reddit.com)


Dlaczego Evil GPT jest tak groźny?

1. Demokratyzacja cyberprzestępczości

Dawniej:

  • phishing wymagał umiejętności,
  • malware wymagał programowania,
  • socjotechnika wymagała doświadczenia.

Dziś początkujący użytkownik może napisać:

„stwórz realistyczny phishing Microsoft 365 po polsku”

i otrzymać gotowy materiał.

Eksperci coraz częściej mówią o:

  • vibe hacking,
  • AI hacking,
  • prompt-driven cybercrime.

(reddit.com)


2. Skala działania

AI nie męczy się.
Nie potrzebuje przerw.
Może generować tysiące kampanii jednocześnie.

Cyberprzestępca może:

  • tworzyć tysiące unikalnych phishingów,
  • personalizować wiadomości,
  • analizować odpowiedzi,
  • automatycznie prowadzić rozmowy.

To radykalnie zwiększa skalę ataków.


3. Jakość socjotechniki

Dawny phishing często zawierał:

  • błędy,
  • dziwny język,
  • niepoprawną gramatykę.

AI generuje:

  • perfekcyjny język,
  • realistyczny ton,
  • naturalną komunikację,
  • profesjonalne wiadomości.

To zwiększa skuteczność ataków.

(arxiv.org)


Evil GPT i phishing nowej generacji

Największym zastosowaniem cyberprzestępczych AI jest phishing.

AI Spear Phishing

Modele analizują:

  • LinkedIn,
  • Facebook,
  • GitHub,
  • strony firmowe,
  • profile pracowników.

Następnie generują:

  • spersonalizowane wiadomości,
  • realistyczne konwersacje,
  • fake support,
  • wiadomości HR,
  • fałszywe dokumenty.

AI potrafi imitować:

  • styl firmy,
  • język prezesa,
  • sposób komunikacji zespołu.

(arxiv.org)


EvilTokens i AI phishing infrastrukturalny

Jednym z najgroźniejszych trendów 2026 są AI-driven phishing kits.

Przykładem jest EvilTokens.

Atak wykorzystuje:

  • legalny Microsoft login,
  • OAuth Device Code Flow,
  • dynamiczne tokeny,
  • automatyzację AI.

Zamiast klasycznego fake loginu:

  • ofiara loguje się na prawdziwej stronie Microsoft,
  • atakujący przechwytuje token autoryzacyjny.

To znacznie utrudnia wykrycie.

(microsoft.com) (Microsoft)

Czytaj  Izolacja stron internetowych (site isolation) w przeglądarkach jako mechanizm obronny

AI i malware generation

Evil GPT potrafi:

  • pisać skrypty,
  • tworzyć malware,
  • modyfikować payloady,
  • generować polymorphic code,
  • ukrywać złośliwy kod.

Nowoczesne modele pomagają:

  • omijać EDR,
  • ukrywać persistence,
  • obfuskować malware,
  • tworzyć loader’y.

Coraz częściej malware:

  • zmienia się dynamicznie,
  • generuje nowe warianty,
  • adaptuje do środowiska.

AI-generated ransomware

Nowoczesny ransomware wykorzystuje AI do:

  • wyboru ofiar,
  • analizy infrastruktury,
  • identyfikacji backupów,
  • automatycznej eskalacji uprawnień,
  • selekcji danych do kradzieży.

AI może:

  • analizować Active Directory,
  • identyfikować serwery krytyczne,
  • automatycznie wyłączać zabezpieczenia.

EvilAI — malware nowej generacji

W 2026 pojawiły się kampanie wykorzystujące AI-generated malware.

Przykładem jest EvilAI.

Charakterystyka:

  • AI-generated code,
  • dynamiczne payloady,
  • anti-analysis loops,
  • adaptive malware,
  • rotujące certyfikaty.

Badacze bezpieczeństwa zauważyli, że część takich zagrożeń omija klasyczne endpoint security.

(halcyon.ai) (halcyon.ai)


Agentic AI — autonomiczni cyberprzestępcy

Największa zmiana nadchodzi wraz z agentic AI.

To systemy zdolne do:

  • autonomicznego działania,
  • podejmowania decyzji,
  • planowania ataków,
  • realizacji celów.

Nowoczesny agent AI może:

  1. znaleźć podatność,
  2. wygenerować exploit,
  3. stworzyć phishing,
  4. przejąć konto,
  5. ukraść dane,
  6. zacierać ślady.

Część ekspertów uważa, że cyberprzestępczość zmierza w stronę półautonomicznych operacji AI.

(techradar.com) (TechRadar)


AI exploit development

W 2026 pojawiły się pierwsze przypadki użycia AI do:

  • wykrywania podatności,
  • tworzenia exploitów,
  • automatycznej analizy kodu.

Google ostrzegło, że cyberprzestępcy zaczynają wykorzystywać AI do wyszukiwania zero-day vulnerabilities.

(reuters.com) (Reuters)


Vibe hacking — cyberprzestępczość bez wiedzy technicznej

Pojęcie „vibe hacking” opisuje nowy trend:

  • użytkownik nie rozumie technologii,
  • po prostu wykonuje instrukcje AI.

Przykład:

„jak przejąć konto Microsoft 365”

AI:

  • tłumaczy krok po kroku,
  • generuje phishing,
  • tworzy skrypty,
  • wyjaśnia omijanie MFA.

To radykalnie obniża próg wejścia.

(reddit.com) (Reddit)


Jailbreaki modeli AI

Cyberprzestępcy często nie potrzebują własnego modelu.

Wystarczy:

  • jailbreak,
  • prompt injection,
  • manipulacja instrukcjami systemowymi.

Badania pokazują, że część modeli można skłonić do generowania:

  • phishingu,
  • malware,
  • scamów,
  • instrukcji cyberataków.

(arxiv.org) (arXiv)


Shadow AI i nowe powierzchnie ataku

Firmy coraz częściej korzystają z:

  • Copilotów,
  • AI assistants,
  • chatbotów,
  • browser AI extensions.

To tworzy nową powierzchnię ataku.

Czytaj  Porównanie usług VPN płatnych – bezpieczeństwo, szybkość i prywatność

Cyberprzestępcy:

  • tworzą złośliwe rozszerzenia,
  • przechwytują prompty,
  • kradną historię rozmów,
  • wyciągają dane firmowe.

Microsoft ostrzegał przed rozszerzeniami kradnącymi historię czatów LLM.

(microsoft.com) (Microsoft)


AI jako nowa powierzchnia cyberataków

W 2026 AI staje się:

  • narzędziem ataku,
  • celem ataku,
  • wektorem infekcji,
  • źródłem wycieku danych.

Powstają nowe zagrożenia:

  • prompt injection,
  • AI poisoning,
  • model hijacking,
  • data exfiltration through LLM,
  • AI supply chain attacks.

(microsoft.com) (Microsoft)


Cybercrime-as-a-Service + AI

Underground coraz bardziej przypomina legalny SaaS.

Cyberprzestępcy oferują:

  • phishing kits,
  • ransomware subscriptions,
  • AI scam bots,
  • voice cloning,
  • malware generators.

Model działania:

  • abonament miesięczny,
  • support techniczny,
  • aktualizacje,
  • API,
  • gotowe dashboardy.

AI przyspieszyło profesjonalizację cyberprzestępczości.


Czy Evil GPT oznacza koniec cyberbezpieczeństwa?

Nie.
Ale oznacza gigantyczną zmianę.

AI:

  • zwiększa tempo ataków,
  • zwiększa skalę,
  • poprawia socjotechnikę,
  • automatyzuje cybercrime.

Jednocześnie AI pomaga również obrońcom:

  • wykrywać anomalie,
  • analizować malware,
  • automatyzować SOC,
  • identyfikować phishing.

To wyścig AI vs AI.


Jak bronić się przed cyberprzestępczością AI?

1. Zero Trust

Nie ufać:

  • mailom,
  • głosom,
  • AI chatbotom,
  • Teams,
  • QR kodom.

2. MFA odporne na phishing

Najlepiej:

  • FIDO2,
  • passkeys,
  • hardware keys.

3. Szkolenia anti-AI phishing

Pracownicy muszą rozumieć:

  • deepfake,
  • AI phishing,
  • AI scams,
  • prompt injection,
  • vishing,
  • quishing.

4. Monitoring AI usage

Firmy powinny kontrolować:

  • Shadow AI,
  • prywatne chatboty,
  • browser extensions,
  • wycieki promptów.

5. AI security governance

Nowy obszar bezpieczeństwa obejmuje:

  • polityki AI,
  • kontrolę danych,
  • bezpieczeństwo modeli,
  • monitoring promptów,
  • AI red teaming.

Przyszłość Evil GPT

Eksperci przewidują rozwój:

  • autonomicznych agentów hackerskich,
  • AI ransomware operators,
  • self-evolving malware,
  • deepfake identity systems,
  • AI fraud ecosystems.

Największy problem?
Granica między człowiekiem a AI zaczyna zanikać.

W przyszłości:

  • phishing będzie generowany live,
  • malware będzie adaptacyjny,
  • scam boty będą prowadzić realistyczne rozmowy,
  • AI będzie imitować ludzi w czasie rzeczywistym.

Podsumowanie

Evil GPT i cyberprzestępczość nowej generacji zmieniają cały krajobraz bezpieczeństwa IT.

Nowoczesne cyberzagrożenia wykorzystują:

  • generatywne AI,
  • autonomiczne agenty,
  • voice cloning,
  • deepfake,
  • AI phishing,
  • AI malware,
  • agentic AI,
  • vibe hacking.

Najważniejsza zmiana polega na tym, że:

  • cyberataki stają się tańsze,
  • łatwiejsze,
  • szybsze,
  • bardziej realistyczne,
  • dostępne nawet dla początkujących.

AI nie zastąpiło cyberprzestępców.
AI sprawiło, że cyberprzestępczość weszła w epokę przemysłową.

Polecane wpisy
Sztuczna Inteligencja kwantowa: Połączenie dwóch przełomowych technologii
Sztuczna Inteligencja kwantowa: Połączenie dwóch przełomowych technologii

⚛️ Sztuczna Inteligencja kwantowa: Połączenie dwóch przełomowych technologii Wprowadzenie: dlaczego AI kwantowa to rewolucja przyszłości? Sztuczna inteligencja (AI) oraz obliczenia Czytaj dalej

Jak działa sztuczna inteligencja i uczenie maszynowe?
Jak działa sztuczna inteligencja i uczenie maszynowe?

Jak działa sztuczna inteligencja i uczenie maszynowe? Sztuczna inteligencja (SI) oraz uczenie maszynowe (ML) to dwie z najważniejszych dziedzin współczesnej Czytaj dalej

Marek "Netbe" Lampart Inżynier informatyki Marek Lampart to doświadczony inżynier informatyki z ponad 25-letnim stażem w zawodzie. Specjalizuje się w systemach Windows i Linux, bezpieczeństwie IT, cyberbezpieczeństwie, administracji serwerami oraz diagnostyce i optymalizacji systemów. Na netbe.pl publikuje praktyczne poradniki, analizy i instrukcje krok po kroku, pomagając administratorom, specjalistom IT oraz zaawansowanym użytkownikom rozwiązywać realne problemy techniczne.