
Rozpoznawanie oszustw generowanych przez AI staje się coraz trudniejsze, ponieważ technologia stale się rozwija. Niemniej jednak, istnieje kilka wskazówek, które mogą pomóc w wykrywaniu deepfake’ów, phishingu i innych oszustw AI.
Deepfake wideo i audio
Deepfake’i wykorzystują sztuczną inteligencję do tworzenia fałszywych obrazów, filmów lub głosów. Aby je rozpoznać, zwróć uwagę na:
Wideo:
- Nienaturalne ruchy twarzy i ciała – zwłaszcza w okolicach ust, oczu, rąk. Deepfake’i mogą mieć trudności z realistycznym odwzorowaniem naturalnych gestów.
- Zniekształcenia skóry – zmiany koloru skóry, nadmierne wygładzenie lub widoczna nierówność na twarzy.
- Brak „głębi” w tle – niektóre deepfake’i mają nienaturalnie rozmyty lub niezgodny z resztą obrazu tło.
- Słaba synchronizacja ust z dźwiękiem – AI wciąż ma trudności z perfekcyjnym odwzorowaniem ruchów ust w czasie rzeczywistym.
- Problemy z oświetleniem – może być nienaturalne w stosunku do otoczenia.
Audio:
- Słaba jakość dźwięku – nawet najbardziej zaawansowane technologie AI mogą wygenerować dźwięk, który brzmi nieco sztucznie, z dziwnymi pauzami lub brakiem naturalnych emocji.
- Zmiany tonu głosu – AI może naśladować ton głosu, ale brak naturalnych emocji, niuanse w głosie, akcenty mogą zdradzić sztuczność.
- Zmiany w tempie mowy – AI może generować mową z nienaturalnym rytmem (za szybka lub za wolna).
Przykład: Filmy polityków lub celebrytów w których wypowiadają się rzeczy, których nigdy nie powiedzieli, często można rozpoznać po tych niedoskonałościach.
Phishing i oszustwa tekstowe generowane przez AI
AI jest coraz częściej wykorzystywane do tworzenia realistycznych wiadomości phishingowych, które mają na celu wyłudzenie danych lub pieniędzy. Oto jak je rozpoznać:
- Nienaturalne zwroty w wiadomości – AI, mimo że generuje tekst poprawny gramatycznie, może wciąż popełniać błędy w kontekście kulturowym czy stosowanych zwrotach.
- Nacisk na pilność – oszustwa często tworzą sztuczną presję, np. prośby o natychmiastową reakcję („Twoje konto zostało zablokowane!”).
- Podejrzane linki i adresy e-mail – linki mogą wyglądać prawie identycznie jak oryginalne, ale zwykle zawierają małe zmiany (np. dodany jeden znak, inna domena).
- Nieoczekiwane prośby o dane osobowe – AI może tworzyć wiadomości, które proszą o wprowadzenie danych logowania lub danych karty kredytowej. Prawdziwe instytucje finansowe nigdy nie proszą o takie informacje w ten sposób.
- Niepersonalizowane wiadomości – AI może generować ogólne, niepersonalizowane e-maile, np. „Drogi kliencie”, zamiast pełnego imienia i nazwiska. Wiadomości phishingowe rzadko używają pełnych danych odbiorcy.
Przykład: E-mail, który wygląda jak wiadomość od banku, zawiera podejrzane linki i prosi o wprowadzenie danych logowania do systemu, twierdząc, że „Twoje konto zostało zablokowane”.
Fałszywe profile w sieci (np. media społecznościowe)
Sztuczna inteligencja może być również wykorzystywana do tworzenia fałszywych profili w mediach społecznościowych. Aby rozpoznać takie konto:
- Zbyt idealizowane zdjęcia – AI generuje twarze, które są niemal nierealistyczne: bez zmarszczek, idealnie gładkie, pozbawione naturalnych cech (np. pieprzyków).
- Brak historii – jeśli profil ma mało postów lub komentarzy, nieaktualizowane zdjęcia lub brak interakcji z innymi użytkownikami, może to być znak, że jest to fałszywe konto.
- Nierealne informacje – AI może generować konta, które mają słabe, dziwne lub nieprecyzyjne opisy dotyczące zainteresowań i doświadczenia.
- Niska jakość zdjęć – fałszywe profile często wykorzystują zdjęcia generowane przez AI lub zdjęcia stockowe o niskiej jakości.
Przykład: Profil osoby, który wydaje się zbyt idealny, ma mało interakcji i dziwne zdjęcia z Internetu, to może być konto stworzone przez AI.
Oszustwa finansowe generowane przez AI
AI może być użyte do wielu form oszustw finansowych, takich jak generowanie fałszywych faktur, oszustwa bankowe czy fałszywe wnioski kredytowe. Aby rozpoznać takie oszustwa:
- Nienaturalny język w dokumentach – AI może generować faktury lub dokumenty finansowe z dziwnymi sformułowaniami, błędami w języku prawnym, brakującymi danymi.
- Podejrzane linki w wiadomościach o płatnościach – podobnie jak w phishingu, oszuści mogą wysyłać fałszywe powiadomienia o płatnościach z linkami do strony, która wygląda jak oryginalna, ale jest fałszywa.
- Próba uzyskania danych osobowych – oszuści mogą wysyłać e-maile, prosząc o dane karty kredytowej lub login do konta bankowego, mówiąc, że jest to „wymagane do potwierdzenia transakcji”.
Przykład: Przesyłanie fałszywych faktur na nazwisko CEO firmy, generowanych przez AI, z prośbą o natychmiastowy przelew na „ważny” projekt.
Jak się chronić przed oszustwami AI?
- Weryfikuj informacje – nie ufaj bezkrytycznie źródłom, które nie są wiarygodne.
- Sprawdzaj linki i adresy e-mail – nigdy nie klikaj podejrzanych linków, sprawdzaj ich dokładność.
- Korzystaj z narzędzi do weryfikacji wideo – takie narzędzia mogą pomóc w rozpoznawaniu deepfake’ów.
- Zgłaszaj podejrzane zachowanie – jeśli masz wątpliwości, zgłoś oszustwo do odpowiednich służb lub instytucji.
- Zabezpiecz swoje dane – włącz dwuetapowe uwierzytelnianie (2FA), aby zabezpieczyć swoje konta online.
Podsumowanie
AI może być użyte do tworzenia bardzo realistycznych oszustw, ale wciąż istnieją sposoby na ich rozpoznanie. Kluczowe jest zwracanie uwagi na nienaturalne szczegóły, weryfikowanie źródeł i zabezpieczanie swoich danych. Jeśli masz jakiekolwiek podejrzenia, warto podjąć kroki ostrożnościowe, by uniknąć oszustwa.
Stan na dzień: 8 maja 2025 roku
Zdjęcie: freepik.com