Bez kategorii

Live z bezprawiem – Rola platform – YouTube, TikTok, Twitch przy patostreamingu

Platformy społecznościowe od lat powtarzają mantrę: „my tylko udostępniamy przestrzeń, nie jesteśmy nadawcami treści”. Problem w tym, że w erze patostreamingu to zdanie ma mniej wspólnego z rzeczywistością niż deklaracje o „czasowym ograniczeniu reklam”. Algorytmy rekomendacji, systemy monetyzacji i polityki moderacji sprawiają, że platformy nie tylko udostępniają — one kształtują.

W tym wpisie analizujemy, co prawo UE i polskie naprawdę nakłada na YouTube, TikTok i Twitch, oraz czy platformy mogą dłużej chować się za zasłoną wolności słowa.

Od „neutralnego pośrednika” do aktywnego gracza

Klasyczne podejście prawnicze mówiło: usługodawca hostingu nie odpowiada za treści, jeśli nie ma o nich wiedzy i działa „biernie”. Tyle że współczesne platformy:

  • projektują algorytmy premiujące wysoce angażujące (często patologiczne) treści,
  • tworzą modele zarobkowe oparte na interakcji (donejty, subskrypcje, superchaty),
  • ingerują w dystrybucję treści w sposób selektywny.

To przestaje być „bierne hostowanie”, a zaczyna przypominać aktywną kurację informacyjną. Prawo UE w końcu to zauważyło.

Digital Services Act (DSA): nowa konstytucja internetu w UE

DSA redefiniuje rolę platform — zwłaszcza tzw. VLOP-ów (very large online platforms), do których należą m.in. YouTube, TikTok i Twitch.

a) Obowiązek szybkiej reakcji

Platformy muszą niezwłocznie usuwać treści nielegalne, gdy otrzymają wiarygodne zgłoszenie. Patostreaming, jeśli obejmuje przemoc, nękanie, wykorzystywanie małoletnich czy nawoływanie do przestępstwa — mieści się w tej kategorii.

Brak reakcji = ryzyko sankcji administracyjnych.

b) Obowiązek oceny ryzyka systemowego

Platformy muszą analizować, czy ich własne mechanizmy (algorytmy, monetyzacja) nie sprzyjają rozpowszechnianiu treści szkodliwych, w tym przemocy.

To otwiera drogę do kluczowego pytania:

Czy rekomendowanie patotreści jest defektem systemu, czy efektem ubocznym zoptymalizowanej ekonomii atencji?

c) Transparentność algorytmów

Platformy muszą ujawniać zasady działania systemów rekomendacji i umożliwiać użytkownikom wybór mniej inwazyjnych modeli (np. chronologicznych). To szczególnie istotne w kontekście treści patostreamerskich, które rozchodzą się viralowo.

d) Moderacja i zgłoszenia

DSA wymaga jasnych procedur:

  • formularzy zgłoszeń,
  • potwierdzeń odbioru,
  • informacji zwrotnej o działaniach platformy.

To koniec (teoretyczny) epoki zgłoszeń, które „spadają w czarną dziurę”.

3. Kodeks dobrych praktyk i samoregulacja

W ramach unijnych inicjatyw platformy przyjęły kodeksy obejmujące zwalczanie m.in.:

  • treści ekstremistycznych,
  • nienawiści,
  • dezinformacji.

Patostreaming formalnie nie ma własnej kategorii w tych kodeksach, ale w praktyce mieści się w obszarze przemocowych nadużyć. Problem polega na tym, że samoregulacja jest dobrowolna — a więc tak skuteczna, jak dobre chęci platform.

YouTube kilka razy deklarował „zero tolerancji”, po czym… pozwalał kanałom patostreamerskim wracać jak feniks z popiołów po kolejnym rebrandzie.

Procedury zgłaszania treści

W świetle DSA i regulaminów platform, użytkownik powinien móc zgłosić treść:

  • jako nielegalną,
  • jako naruszającą standardy społeczności,
  • jako szkodliwą dla małoletnich.

Tyle teoria.
W praktyce moderatorzy działają często z opóźnieniem, a live’y są szczególnie trudne do opanowania — bo szkoda dzieje się w czasie rzeczywistym. To jedna z największych luk w obecnych systemach moderacji.

Odpowiedzialność cywilna platform

a) Delikt (art. 415 k.c. i kolejne)

Jeśli platforma wiedziała lub przy zachowaniu należytej staranności powinna była wiedzieć, że dochodzi do naruszenia dóbr osobistych (np. upokarzania ofiary w streamie), a mimo to nie usunęła treści — może ponosić odpowiedzialność odszkodowawczą.

To nie jest odpowiedzialność za „przestępstwo twórcy”, lecz za zaniechanie własnych obowiązków kontrolnych.

b) RODO – odpowiedzialność za dane osobowe

Streamy często zawierają:

  • wizerunek,
  • dane identyfikacyjne,
  • głos,
  • informacje o sytuacji życiowej.

Jeśli platforma przetwarza te dane bez podstawy prawnej lub bez możliwości ich usunięcia na żądanie, teoretycznie może naruszać RODO. Patostreaming stawia tu trudne pytanie: czy publiczne utrwalanie przemocy może być uznane za „usprawiedliwiony cel przetwarzania”? Najczęściej — nie.

To w końcu reagują czy nie? Analiza realna, nie deklaratywna

Platformy działają wybiórczo:

  • reakcja na zgłoszenia – zwykle spóźniona,
  • algorytmy rekomendacji – promują treści „wysoko angażujące”, nawet jeśli są patologiczne,
  • monetyzacja – dopóki donejty płyną, twórca pozostaje atrakcyjny dla platformy,
  • banowanie kanałów – częste, ale łatwe do obejścia (nowy kanał, nowe konto).

Innymi słowy:

Platformy nie są bezradne. One są ekonomicznie niezmotywowane, by reagować szybko.

Dlatego ucieczka w narrację o „wolności słowa” bywa wygodna — ale nieadekwatna. Patostreaming to nie spór ideologiczny, tylko zagrożenie przemocowe, w którym prawa podstawowe kolidują z interesem platform.

Czy robią wystarczająco dużo? (krótka odpowiedź: nie)

Z punktu widzenia nauki prawa i regulacji cyfrowych problem polega na tym, że platformy wciąż funkcjonują według logiki:

  • reakcja zamiast prewencji,
  • moderacja po fakcie zamiast ochrony ex ante,
  • algorytm promuje to, co system później próbuje usuwać.

To klasyczna sprzeczność interesów:

to, co szkodzi użytkownikom, często jest tym, co najbardziej opłaca się platformom.

DSA jest pierwszą próbą narzucenia platformom odpowiedzialności systemowej, a nie tylko punktowej. Czy wystarczy? Raczej nie — ale po raz pierwszy prawo wymaga od nich czegoś więcej niż dobrych intencji.

Podsumowanie

YouTube, TikTok i Twitch przestały być „biernymi pośrednikami”. Stały się architektami przepływu informacji, a ich algorytmy mają realny wpływ na eskalację treści przemocowych.
Ramy prawne — od DSA po odpowiedzialność cywilną — coraz wyraźniej wskazują, że platformy muszą nie tylko usuwać treści, ale zarządzać ryzykiem, które same współtworzą.

Stan prawny na dzień: 5 stycznia 2026 roku

Dodaj komentarz