
Jeśli AI wygeneruje fake newsa lub deepfake, który szkodzi konkretnej osobie, odpowiedzialność prawna zależy od kilku czynników:
1) W przypadku użytkownika, który stworzył i rozpowszechnił treść
Najczęściej odpowiedzialność ponosi osoba, która użyła AI do stworzenia i rozpowszechnienia fake newsa lub deepfake’a. Jeśli ktoś celowo wykorzystuje AI do dezinformacji, może być ścigany na podstawie różnych przepisów, np.:
- Pomówienie i zniesławienie – jeśli deepfake fałszywie przypisuje komuś kompromitujące zachowanie (np. politykom czy celebrytom).
- Oszustwo – jeśli fake news wprowadza ludzi w błąd w sposób mający konsekwencje finansowe lub społeczne.
- Naruszenie prywatności – jeśli deepfake przedstawia kogoś w intymnym lub nieprawdziwym kontekście.
W wielu krajach za publikację takich materiałów grozi odpowiedzialność cywilna (np. odszkodowania i zadośćuczynienie) lub karna.
2) W przypadku twórcy AI lub platformy udostępniającej narzędzie
Przedsiębiorstwo, które stworzyło AI, może być współodpowiedzialne, jeśli:
- Nie wdrożyło mechanizmów ograniczających generowanie szkodliwych treści.
- Świadomie pozwala na masowe tworzenie dezinformacji i czerpie z tego korzyści.
- Ignoruje zgłoszenia dotyczące szkodliwych deepfake’ów.
Przykładowo w Unii Europejskiej, według AI Act, przedsiębiorstwa tworzące generatywne AI mogą być zobowiązane do zapewnienia przejrzystości i zabezpieczeń przed nadużyciami. W USA ochrona z Sekcji 230 CDA może ograniczać odpowiedzialność platform, ale jeśli AI było wyraźnie zaprojektowane do dezinformacji i twórcy mogą być pozywani.
3) Platforma, na której deepfake się pojawił
Jeśli deepfake zostanie udostępniony na Facebooku, TikToku czy YouTube, platforma może, ale nie musi być odpowiedzialna.
- Jeśli nie usuwa oczywiście fałszywych i szkodliwych treści mimo zgłoszeń, może spotkać się z konsekwencjami prawnymi.
- W Unii Europejskiej (zgodnie z Digital Services Act) duże platformy muszą usuwać dezinformację szybciej, inaczej będą grozić im kary.
Podsumowanie – kto ponosi odpowiedzialność?
- Najczęściej odpowiedzialność ponosi osoba, która stworzyła i rozpowszechniła fake news/deepfake.
- Odpowiedzialność może ponosić przedsiębiorstwo dostarczające AI, jeśli nie zapewniło odpowiednich zabezpieczeń.
- Odpowiedzialność czasami ponosi platforma społecznościowa, jeśli nie usuwa szkodliwej treści.
Regulacje prawne w tym zakresie są wciąż rozwijane, więc w przyszłości twórcy AI mogą ponosić większą odpowiedzialność.
Stan na dzień: 1 kwietnia 2025 roku
Zdjęcie: freepik.com