deepfakephishingransomwarezagrożenia AIsecurity

Mroczna strona AI: deepfake, phishing głosowy i ransomware nowej generacji

Sekurak opublikował w lutym 2026 roku zestawienie 10 największych zagrożeń związanych z AI. To nie lista teoretycznych ryzyk — to katalog technik, które działają teraz, były używane w realnych atakach i będą coraz powszechniejsze.

Deepfake: tożsamość cyfrowa na sprzedaż

W 2026 roku stworzenie deepfake’owego wideo z cudzym wizerunkiem zajmuje mniej czasu niż zamówienie pizzy. Narzędzia są darmowe lub tanie, dostępne bez specjalistycznej wiedzy.

Praktyczne konsekwencje: fałszywy telefon wideo od „prezesa” z prośbą o pilny przelew. Profil na portalu randkowym z czyjąś twarzą. Materiał kompromitujący wygenerowany na zamówienie. Wszystkie te scenariusze były odnotowane w Polsce i na świecie w ostatnich miesiącach.

Phishing głosowy i wideo

Klonowanie głosu z kilkudziesięciu sekund nagrania (dostępne publicznie na LinkedIn, YouTube, podcascie) pozwala na vishing — telefon od kogoś brzmiącego identycznie jak szef, znajomy lub pracownik banku. Połączony z deepfake wideo w czasie rzeczywistym tworzy scenariusz ataku trudny do weryfikacji w trakcie rozmowy.

Prompt injection i jailbreaki w produkcji

Aplikacje oparte na LLM są podatne na wstrzykiwanie instrukcji przez dane zewnętrzne — dokumenty, strony internetowe, maile przetwarzane przez agenta AI. Atakujący może przejąć kontrolę nad agentem bez dostępu do systemu.

RAG poisoning — zatruta baza wiedzy

Systemy RAG pobierają dokumenty z bazy i przekazują je modelowi jako kontekst. Atakujący z dostępem do bazy (nawet pośrednim — przez publiczne dokumenty indeksowane przez firmowy crawler) może wstrzyknąć złośliwe „instrukcje” ukryte w treści dokumentu.

Ransomware przekonujący model

Sekurak opisuje nowy scenariusz: ransomware, który zamiast szyfrować pliki — przekonuje model językowy do odmowy współpracy, dopóki nie zostanie zapłacony okup. Brzmi absurdalnie, ale w środowiskach gdzie LLM steruje procesami biznesowymi — to realny wektor.

LLM jako wyrocznia

Osobne zagrożenie, mniej spektakularne: ludzie zaczynają traktować modele językowe jak autorytet i oddają im decyzje, za które kiedyś odpowiadali własnym nazwiskiem. Model halucynuje, jest pewny siebie i błędny jednocześnie. Firmy przepalają budżety na wdrożenia, które „nie działają tak jak się od nich oczekiwało”.

Co robić

Sekurak 30 marca 2026 organizuje bezpłatne szkolenie z zagrożeń AI (zapisy: zagrozenia.sekurak.pl). Poza szkoleniami — warto wdrożyć: weryfikację pozapasmową dla transakcji, FIDO2/passkeys zamiast haseł, monitoring zachowania agentów AI, politykę zero-trust dla każdej prośby przez nowy kanał.


Źródło: Sekurak — Mroczna strona AI. 10 realnych zagrożeń na 2026 rok

← wszystkie posty