
Platformy społecznościowe od lat powtarzają mantrę: „my tylko udostępniamy przestrzeń, nie jesteśmy nadawcami treści”. Problem w tym, że w erze patostreamingu to zdanie ma mniej wspólnego z rzeczywistością niż deklaracje o „czasowym ograniczeniu reklam”. Algorytmy rekomendacji, systemy monetyzacji i polityki moderacji sprawiają, że platformy nie tylko udostępniają — one kształtują.
W tym wpisie analizujemy, co prawo UE i polskie naprawdę nakłada na YouTube, TikTok i Twitch, oraz czy platformy mogą dłużej chować się za zasłoną wolności słowa.
Od „neutralnego pośrednika” do aktywnego gracza
Klasyczne podejście prawnicze mówiło: usługodawca hostingu nie odpowiada za treści, jeśli nie ma o nich wiedzy i działa „biernie”. Tyle że współczesne platformy:
- projektują algorytmy premiujące wysoce angażujące (często patologiczne) treści,
- tworzą modele zarobkowe oparte na interakcji (donejty, subskrypcje, superchaty),
- ingerują w dystrybucję treści w sposób selektywny.
To przestaje być „bierne hostowanie”, a zaczyna przypominać aktywną kurację informacyjną. Prawo UE w końcu to zauważyło.
Digital Services Act (DSA): nowa konstytucja internetu w UE
DSA redefiniuje rolę platform — zwłaszcza tzw. VLOP-ów (very large online platforms), do których należą m.in. YouTube, TikTok i Twitch.
a) Obowiązek szybkiej reakcji
Platformy muszą niezwłocznie usuwać treści nielegalne, gdy otrzymają wiarygodne zgłoszenie. Patostreaming, jeśli obejmuje przemoc, nękanie, wykorzystywanie małoletnich czy nawoływanie do przestępstwa — mieści się w tej kategorii.
Brak reakcji = ryzyko sankcji administracyjnych.
b) Obowiązek oceny ryzyka systemowego
Platformy muszą analizować, czy ich własne mechanizmy (algorytmy, monetyzacja) nie sprzyjają rozpowszechnianiu treści szkodliwych, w tym przemocy.
To otwiera drogę do kluczowego pytania:
Czy rekomendowanie patotreści jest defektem systemu, czy efektem ubocznym zoptymalizowanej ekonomii atencji?
c) Transparentność algorytmów
Platformy muszą ujawniać zasady działania systemów rekomendacji i umożliwiać użytkownikom wybór mniej inwazyjnych modeli (np. chronologicznych). To szczególnie istotne w kontekście treści patostreamerskich, które rozchodzą się viralowo.
d) Moderacja i zgłoszenia
DSA wymaga jasnych procedur:
- formularzy zgłoszeń,
- potwierdzeń odbioru,
- informacji zwrotnej o działaniach platformy.
To koniec (teoretyczny) epoki zgłoszeń, które „spadają w czarną dziurę”.
3. Kodeks dobrych praktyk i samoregulacja
W ramach unijnych inicjatyw platformy przyjęły kodeksy obejmujące zwalczanie m.in.:
- treści ekstremistycznych,
- nienawiści,
- dezinformacji.
Patostreaming formalnie nie ma własnej kategorii w tych kodeksach, ale w praktyce mieści się w obszarze przemocowych nadużyć. Problem polega na tym, że samoregulacja jest dobrowolna — a więc tak skuteczna, jak dobre chęci platform.
YouTube kilka razy deklarował „zero tolerancji”, po czym… pozwalał kanałom patostreamerskim wracać jak feniks z popiołów po kolejnym rebrandzie.
Procedury zgłaszania treści
W świetle DSA i regulaminów platform, użytkownik powinien móc zgłosić treść:
- jako nielegalną,
- jako naruszającą standardy społeczności,
- jako szkodliwą dla małoletnich.
Tyle teoria.
W praktyce moderatorzy działają często z opóźnieniem, a live’y są szczególnie trudne do opanowania — bo szkoda dzieje się w czasie rzeczywistym. To jedna z największych luk w obecnych systemach moderacji.
Odpowiedzialność cywilna platform
a) Delikt (art. 415 k.c. i kolejne)
Jeśli platforma wiedziała lub przy zachowaniu należytej staranności powinna była wiedzieć, że dochodzi do naruszenia dóbr osobistych (np. upokarzania ofiary w streamie), a mimo to nie usunęła treści — może ponosić odpowiedzialność odszkodowawczą.
To nie jest odpowiedzialność za „przestępstwo twórcy”, lecz za zaniechanie własnych obowiązków kontrolnych.
b) RODO – odpowiedzialność za dane osobowe
Streamy często zawierają:
- wizerunek,
- dane identyfikacyjne,
- głos,
- informacje o sytuacji życiowej.
Jeśli platforma przetwarza te dane bez podstawy prawnej lub bez możliwości ich usunięcia na żądanie, teoretycznie może naruszać RODO. Patostreaming stawia tu trudne pytanie: czy publiczne utrwalanie przemocy może być uznane za „usprawiedliwiony cel przetwarzania”? Najczęściej — nie.
To w końcu reagują czy nie? Analiza realna, nie deklaratywna
Platformy działają wybiórczo:
- reakcja na zgłoszenia – zwykle spóźniona,
- algorytmy rekomendacji – promują treści „wysoko angażujące”, nawet jeśli są patologiczne,
- monetyzacja – dopóki donejty płyną, twórca pozostaje atrakcyjny dla platformy,
- banowanie kanałów – częste, ale łatwe do obejścia (nowy kanał, nowe konto).
Innymi słowy:
Platformy nie są bezradne. One są ekonomicznie niezmotywowane, by reagować szybko.
Dlatego ucieczka w narrację o „wolności słowa” bywa wygodna — ale nieadekwatna. Patostreaming to nie spór ideologiczny, tylko zagrożenie przemocowe, w którym prawa podstawowe kolidują z interesem platform.
Czy robią wystarczająco dużo? (krótka odpowiedź: nie)
Z punktu widzenia nauki prawa i regulacji cyfrowych problem polega na tym, że platformy wciąż funkcjonują według logiki:
- reakcja zamiast prewencji,
- moderacja po fakcie zamiast ochrony ex ante,
- algorytm promuje to, co system później próbuje usuwać.
To klasyczna sprzeczność interesów:
to, co szkodzi użytkownikom, często jest tym, co najbardziej opłaca się platformom.
DSA jest pierwszą próbą narzucenia platformom odpowiedzialności systemowej, a nie tylko punktowej. Czy wystarczy? Raczej nie — ale po raz pierwszy prawo wymaga od nich czegoś więcej niż dobrych intencji.
Podsumowanie
YouTube, TikTok i Twitch przestały być „biernymi pośrednikami”. Stały się architektami przepływu informacji, a ich algorytmy mają realny wpływ na eskalację treści przemocowych.
Ramy prawne — od DSA po odpowiedzialność cywilną — coraz wyraźniej wskazują, że platformy muszą nie tylko usuwać treści, ale zarządzać ryzykiem, które same współtworzą.
Stan prawny na dzień: 5 stycznia 2026 roku