Tuż nie kwestia przyszłości, a polska rzeczywistość.
W komunikacie Prokuratury Okręgowej Warszawa-Praga z 4 czerwca 2025 roku potwierdzono, że do analizy zabezpieczonych nagrań „używane są nowoczesne narzędzia oparte na sztucznej inteligencji.”
To — jak się wydaje — pierwszy przypadek, w którym organy ścigania w Polsce oficjalnie korzystają z AI w toku postępowania przygotowawczego.
W związku z tym pojawiają się pytania: ➡ Jakie dokładnie narzędzie zostało użyte? ➡ Czy zaprojektował je podmiot zewnętrzny? ➡ Jakie dane trenowały ten system i kto je nadzorował? ➡ Na jakiej podstawie prawnej oparto jego zastosowanie?
Transparentność, rozliczalność i zgodność z prawem — te kwestie stają się kluczowe.
Czy jesteśmy gotowi na narzędzia sztucznej inteligencji na salach rozpraw?
Wnioski o udzielenie informacji publicznej już się piszą!
Tak, kraje mogą zakazać lub ograniczyć rozwój zaawansowanej sztucznej inteligencji, ale decyzje te zależą od wielu czynników, w tym od wewnętrznych polityk, bezpieczeństwa narodowego, przepisów prawnych oraz międzynarodowych zobowiązań. Takie decyzje mogą być podejmowane na poziomie krajowym, regionalnym lub globalnym, a ich zakres może się różnić w zależności od kraju i jego priorytetów. Oto kilka kluczowych kwestii dotyczących tego tematu:
Zakazy i ograniczenia krajowe
Kraje mają prawo do ustanawiania własnych przepisów i ograniczeń dotyczących technologii AI, w tym zakazów rozwoju lub wprowadzenia ograniczeń w zależności od percepcji ryzyka. Oto kilka przykładów:
Zakazy ze względów etycznych i bezpieczeństwa: Jeśli technologia AI jest uznawana za zbyt ryzykowną lub szkodliwą (np. wykorzystywanie AI do masowego nadzoru, kontrolowania opinii publicznej, rozwoju autonomicznych broni), rządy mogą wprowadzić zakazy lub ograniczenia na jej rozwój. Przykładem może być zakaz używania AI w pewnych obszarach, takich jak autonomiczne bronie lub wykorzystywanie AI do manipulacji informacjami.
Zakaz stosowania AI w konkretnej dziedzinie: Na poziomie krajowym, mogą być wprowadzone zakazy dotyczące stwarzania deepfake’ów, autonomicznych pojazdów, czy innych systemów, które mogłyby stanowić zagrożenie dla bezpieczeństwa lub porządku publicznego.
Ograniczenia dla firm technologicznych: Niektóre kraje mogą ograniczyć lub zabronić firmom technologicznym opracowywania zaawansowanych systemów AI, które mogą zagrozić stabilności gospodarczej, bezpieczeństwu narodowemu lub nawet suwerenności technologicznej.
Przykład:
Chiny wprowadziły przepisy ograniczające rozwój AI w kontekście rozpoznawania twarzy i nadzoru. Są też w trakcie opracowywania regulacji, które mogą obejmować zakazy na rozwój niektórych technologii w zależności od ich wpływu na społeczeństwo.
Wymogi związane z bezpieczeństwem narodowym
Zaawansowana sztuczna inteligencja może mieć kluczowe znaczenie dla bezpieczeństwa narodowego. Technologie AI mogą być używane w wojskowych systemach autonomicznych, cyberbezpieczeństwie, wywiadzie i innych obszarach, które są bezpośrednio związane z bezpieczeństwem kraju. W związku z tym, państwa mogą:
Ograniczać dostęp do zaawansowanych technologii AI dla obcych firm lub rządów, aby uniknąć obawy przed szpiegostwem przemysłowym, cyberatakami lub manipulacją.
Tworzyć narodowe inicjatywy badawcze: Kraje mogą skierować finansowanie i zasoby na rozwój krajowych technologii AI, aby zmniejszyć zależność od zagranicznych dostawców, co może wiązać się z kontrolą nad rozwojem tej technologii.
Przykład:
USA i Chiny wprowadziły ograniczenia w dostępie do technologii AI, w tym zakaz sprzedaży niektórych technologii przez amerykańskie firmy chińskim przedsiębiorstwom (np. Huawei) ze względu na obawy o bezpieczeństwo narodowe.
Regulacje międzynarodowe
Mimo że kraje mają prawo do wprowadzania zakazów lub ograniczeń dotyczących rozwoju AI, są one również zobowiązane do przestrzegania międzynarodowych norm i porozumień, które mogą wpłynąć na te decyzje. Międzynarodowe organizacje, takie jak ONZ, OECD, czy UE, pracują nad stworzeniem standardów etycznych i prawnych regulacji dla AI, które mogą wytyczać ramy, w których poszczególne kraje mogą wprowadzać ograniczenia.
Regulacje Unii Europejskiej: W ramach AI Act, Unia Europejska pracuje nad ujednoliceniem regulacji dotyczących AI, a kraje członkowskie będą zobowiązane do przestrzegania wspólnych zasad, co może ograniczać możliwość wprowadzania zakazów w pojedynczych krajach. Przepisy te mogą również wpłynąć na międzynarodowe standardy, które będą kształtować globalny rozwój AI.
Globalne rozmowy na temat regulacji AI: Organizacje międzynarodowe, jak OECD, prowadzą dyskusje na temat globalnych standardów etycznych i bezpieczeństwa AI, co może wpływać na to, jakie ograniczenia mogą być wprowadzane na poziomie narodowym.
Możliwość wprowadzenia zakazów przez organizacje technologiczne
W praktyce niektóre kraje mogą mieć mniej formalne, ale równie wpływowe mechanizmy zakazujące rozwoju AI. Przykładami mogą być brak finansowania dla określonych projektów AI, restrykcje eksportowe technologii AI do innych krajów, czy naciski na duże organizacje technologiczne, by te wstrzymały prace nad określonymi technologiami.
Przyszłość i wyzwania związane z regulowaniem AI
Zarówno zakazy, jak i ograniczenia w zakresie AI, mogą prowadzić do wyzwań dla innowacji. W miarę jak AI staje się coraz bardziej wszechobecna w wielu branżach, kraje muszą znaleźć równowagę pomiędzy rozwojem technologicznym a ochroną prywatności, etyki i bezpieczeństwa. Przyszłe międzynarodowe porozumienia i regulacje będą miały kluczowe znaczenie w kształtowaniu sposobu, w jaki poszczególne kraje będą podchodzić do tego tematu.
Kraje mogą wprowadzać zakazy lub ograniczenia w zakresie rozwoju zaawansowanej AI, ale takie decyzje są często uzależnione od kwestii etycznych, bezpieczeństwa narodowego, oraz międzynarodowych regulacji. Każdy kraj ma prawo do ochrony swoich interesów, jednak równocześnie istnieje potrzeba globalnego podejścia do regulacji AI, aby zminimalizować ryzyko nadużyć i zapewnić zrównoważony rozwój tej technologii.
Tak, AI Act (Akt o Sztucznej Inteligencji) w Unii Europejskiej wprowadza szereg nowych obowiązków dla twórców i dostawców technologii AI, z zamiarem uregulowania rozwoju i stosowania sztucznej inteligencji w sposób odpowiedzialny, bezpieczny i etyczny. Cele AI Act jest zapewnienie, że technologie sztucznej inteligencji są wykorzystywane w sposób zgodny z prawami człowieka, z poszanowaniem prywatności i wolności obywatelskich, oraz z uwzględnieniem ryzyk związanych z ich zastosowaniem.
Podział na kategorie ryzyka
AI Act wprowadza podział systemów AI na cztery kategorie ryzyka, co determinuje poziom obowiązków dla twórców:
Ryzyko minimalne: Technologie AI, które mają minimalny wpływ na użytkowników (np. gry komputerowe).
Ryzyko ograniczone: Technologie AI, które mają pewien wpływ na ludzi, ale nie niosą ze sobą dużych zagrożeń (np. chat boty).
Ryzyko wysokie: AI, które ma wpływ na zdrowie, bezpieczeństwo, prawa i wolności ludzi (np. systemy oceny ryzyka w bankach, AI w medycynie, samochody autonomiczne).
Ryzyko nieakceptowalne: Technologie AI, które stwarzają poważne zagrożenie dla ludzi (np. AI do manipulowania opinią publiczną, AI do nadzoru masowego).
Twórcy AI muszą spełniać różne wymagania w zależności od tego, do której kategorii należy ich technologia.
Obowiązki dla twórców AI
W zależności od klasyfikacji ryzyka, twórcy AI mają różne obowiązki:
Dla AI o ryzyku wysokim:
Ocena zgodności i certyfikacja: Twórcy muszą przeprowadzać szczegółowe oceny ryzyka i zapewnić, że ich systemy AI są zgodne z przepisami dotyczącymi bezpieczeństwa, przejrzystości i odpowiedzialności.
Dokumentacja i audyty: Twórcy AI muszą prowadzić dokumentację na temat sposobu działania ich algorytmów i danych, na których się opierają. Systemy muszą być regularnie audytowane, aby zapewnić, że działają zgodnie z założeniami.
Zarządzanie ryzykiem: Twórcy muszą wdrożyć odpowiednie środki zarządzania ryzykiem związanym z systemami AI, w tym monitorowanie ich działania, aby zapobiec niewłaściwemu użyciu.
Zgodność z przepisami ochrony danych osobowych (RODO): Twórcy muszą zapewnić, że ich technologie AI respektują prawa użytkowników dotyczące prywatności i ochrony danych osobowych.
Dla systemów o ryzyku ograniczonym:
Przejrzystość i informowanie użytkowników: Twórcy muszą informować użytkowników, że korzystają z systemu AI (np. w przypadku AI generujących teksty, jak chat boty).
Zgłaszanie poważnych błędów: Twórcy muszą zgłaszać przypadki, w których AI powoduje poważne błędy lub naruszenia prawa.
Dla systemów o ryzyku minimalnym:
Minimalne wymagania: Dla systemów o minimalnym ryzyku, obowiązki są mniej rygorystyczne, ale twórcy muszą dbać o przejrzystość i odpowiedzialność.
Wymogi związane z przejrzystością i odpowiedzialnością
AI Act wymaga, aby twórcy i dostawcy AI byli transparentni w kwestii zastosowań swoich systemów, zwłaszcza w przypadku rozwiązań wysokiego ryzyka. Oznacza to:
Wyjaśnianie, jak działa AI: Twórcy muszą dostarczać informacje na temat algorytmów i metodologii wykorzystywanych w AI.
Zabezpieczenie przed manipulacją: AI nie może być używana do manipulowania użytkownikami w sposób, który jest nieetyczny lub niezgodny z prawem.
Raportowanie incydentów: Twórcy muszą być zobowiązani do zgłaszania incydentów związanych z AI (np. błędne decyzje, systemy wykrywające uprzedzenia).
Inne ważne wymagania
Tworzenie systemów odpowiedzialnych: Twórcy AI muszą dbać o to, aby systemy były odpowiedzialne za decyzje podejmowane przez AI, szczególnie w przypadkach takich jak automatyczne procesy decyzyjne w sprawach prawnych, finansowych czy medycznych.
Zabezpieczenia przed nadużyciami: Systemy muszą być zaprojektowane w taki sposób, by zapobiegać nadużyciom, takim jak nieautoryzowany dostęp do danych użytkowników lub wykorzystanie AI w sposób szkodliwy.
Przepisy dotyczące nadzoru i egzekwowania
AI Act przewiduje stworzenie organów nadzorujących, które będą monitorować przestrzeganie przepisów przez twórców AI:
Nadzór na poziomie krajowym i unijnym: Każdy kraj członkowski UE będzie miał odpowiedzialność za nadzór nad wdrożeniem AI Act. Na poziomie unijnym, instytucje takie jak European AI Board będą monitorować stosowanie przepisów.
Sankcje: Twórcy, którzy nie przestrzegają przepisów, mogą zostać ukarani grzywnami. Dla systemów wysokiego ryzyka, kary mogą sięgać nawet 30 milionów euro lub 6% rocznego obrotu firmy.
Nowe obowiązki dla twórców AI
AI Act wprowadza szereg nowych obowiązków dla twórców i dostawców sztucznej inteligencji w Unii Europejskiej, takich jak:
Oceny ryzyka i zarządzanie ryzykiem związanym z technologiami AI.
Zgodność z przepisami ochrony danych osobowych.
Wymogi przejrzystości i informowania użytkowników o stosowaniu AI.
Dokumentowanie działań systemów AI oraz ich audytowanie.
Zgłaszanie incydentów związanych z działaniem AI.
AI Act ma na celu zagwarantowanie odpowiedzialnego rozwoju technologii AI, chroniąc użytkowników przed nadużyciami, nieetycznym użyciem technologii oraz zapewniając większą przejrzystość w działaniu sztucznej inteligencji.
W skrócie, twórcy AI będą musieli dostosować swoje rozwiązania do surowszych standardów ochrony prywatności, bezpieczeństwa i etyki.
Rozpoznawanie oszustw generowanych przez AI staje się coraz trudniejsze, ponieważ technologia stale się rozwija. Niemniej jednak, istnieje kilka wskazówek, które mogą pomóc w wykrywaniu deepfake’ów, phishingui innych oszustw AI.
Deepfake wideo i audio
Deepfake’i wykorzystują sztuczną inteligencję do tworzenia fałszywych obrazów, filmów lub głosów. Aby je rozpoznać, zwróć uwagę na:
Wideo:
Nienaturalne ruchy twarzy i ciała – zwłaszcza w okolicach ust, oczu, rąk. Deepfake’i mogą mieć trudności z realistycznym odwzorowaniem naturalnych gestów.
Zniekształcenia skóry – zmiany koloru skóry, nadmierne wygładzenie lub widoczna nierówność na twarzy.
Brak „głębi” w tle – niektóre deepfake’i mają nienaturalnie rozmyty lub niezgodny z resztą obrazu tło.
Słaba synchronizacja ust z dźwiękiem – AI wciąż ma trudności z perfekcyjnym odwzorowaniem ruchów ust w czasie rzeczywistym.
Problemy z oświetleniem – może być nienaturalne w stosunku do otoczenia.
Audio:
Słaba jakość dźwięku – nawet najbardziej zaawansowane technologie AI mogą wygenerować dźwięk, który brzmi nieco sztucznie, z dziwnymi pauzami lub brakiem naturalnych emocji.
Zmiany tonu głosu – AI może naśladować ton głosu, ale brak naturalnych emocji, niuanse w głosie, akcenty mogą zdradzić sztuczność.
Zmiany w tempie mowy – AI może generować mową z nienaturalnym rytmem (za szybka lub za wolna).
Przykład: Filmy polityków lub celebrytów w których wypowiadają się rzeczy, których nigdy nie powiedzieli, często można rozpoznać po tych niedoskonałościach.
Phishing i oszustwa tekstowe generowane przez AI
AI jest coraz częściej wykorzystywane do tworzenia realistycznych wiadomości phishingowych, które mają na celu wyłudzenie danych lub pieniędzy. Oto jak je rozpoznać:
Nienaturalne zwroty w wiadomości – AI, mimo że generuje tekst poprawny gramatycznie, może wciąż popełniać błędy w kontekście kulturowym czy stosowanych zwrotach.
Nacisk na pilność – oszustwa często tworzą sztuczną presję, np. prośby o natychmiastową reakcję („Twoje konto zostało zablokowane!”).
Podejrzane linki i adresy e-mail – linki mogą wyglądać prawie identycznie jak oryginalne, ale zwykle zawierają małe zmiany (np. dodany jeden znak, inna domena).
Nieoczekiwane prośby o dane osobowe – AI może tworzyć wiadomości, które proszą o wprowadzenie danych logowania lub danych karty kredytowej. Prawdziwe instytucje finansowe nigdy nie proszą o takie informacje w ten sposób.
Niepersonalizowane wiadomości – AI może generować ogólne, niepersonalizowane e-maile, np. „Drogi kliencie”, zamiast pełnego imienia i nazwiska. Wiadomości phishingowe rzadko używają pełnych danych odbiorcy.
Przykład: E-mail, który wygląda jak wiadomość od banku, zawiera podejrzane linki i prosi o wprowadzenie danych logowania do systemu, twierdząc, że „Twoje konto zostało zablokowane”.
Fałszywe profile w sieci (np. media społecznościowe)
Sztuczna inteligencja może być również wykorzystywana do tworzenia fałszywych profili w mediach społecznościowych. Aby rozpoznać takie konto:
Zbyt idealizowane zdjęcia – AI generuje twarze, które są niemal nierealistyczne: bez zmarszczek, idealnie gładkie, pozbawione naturalnych cech (np. pieprzyków).
Brak historii – jeśli profil ma mało postów lub komentarzy, nieaktualizowane zdjęcia lub brak interakcji z innymi użytkownikami, może to być znak, że jest to fałszywe konto.
Nierealne informacje – AI może generować konta, które mają słabe, dziwne lub nieprecyzyjne opisy dotyczące zainteresowań i doświadczenia.
Niska jakość zdjęć – fałszywe profile często wykorzystują zdjęcia generowane przez AI lub zdjęcia stockowe o niskiej jakości.
Przykład: Profil osoby, który wydaje się zbyt idealny, ma mało interakcji i dziwne zdjęcia z Internetu, to może być konto stworzone przez AI.
Oszustwa finansowe generowane przez AI
AI może być użyte do wielu form oszustw finansowych, takich jak generowanie fałszywych faktur, oszustwa bankowe czy fałszywe wnioski kredytowe. Aby rozpoznać takie oszustwa:
Nienaturalny język w dokumentach – AI może generować faktury lub dokumenty finansowe z dziwnymi sformułowaniami, błędami w języku prawnym, brakującymi danymi.
Podejrzane linki w wiadomościach o płatnościach – podobnie jak w phishingu, oszuści mogą wysyłać fałszywe powiadomienia o płatnościach z linkami do strony, która wygląda jak oryginalna, ale jest fałszywa.
Próba uzyskania danych osobowych – oszuści mogą wysyłać e-maile, prosząc o dane karty kredytowej lub login do konta bankowego, mówiąc, że jest to „wymagane do potwierdzenia transakcji”.
Przykład: Przesyłanie fałszywych faktur na nazwisko CEO firmy, generowanych przez AI, z prośbą o natychmiastowy przelew na „ważny” projekt.
Jak się chronić przed oszustwami AI?
Weryfikuj informacje – nie ufaj bezkrytycznie źródłom, które nie są wiarygodne.
Sprawdzaj linki i adresy e-mail – nigdy nie klikaj podejrzanych linków, sprawdzaj ich dokładność.
Korzystaj z narzędzi do weryfikacji wideo – takie narzędzia mogą pomóc w rozpoznawaniu deepfake’ów.
Zgłaszaj podejrzane zachowanie – jeśli masz wątpliwości, zgłoś oszustwo do odpowiednich służb lub instytucji.
Zabezpiecz swoje dane – włącz dwuetapowe uwierzytelnianie (2FA), aby zabezpieczyć swoje konta online.
Podsumowanie
AI może być użyte do tworzenia bardzo realistycznych oszustw, ale wciąż istnieją sposoby na ich rozpoznanie. Kluczowe jest zwracanie uwagi na nienaturalne szczegóły, weryfikowanie źródeł i zabezpieczanie swoich danych. Jeśli masz jakiekolwiek podejrzenia, warto podjąć kroki ostrożnościowe, by uniknąć oszustwa.
Czy deepfake jest nielegalny zależy od celu i kontekstu jego użycia. Deepfake’i mogą być legalne, jeśli są wykorzystywane np. do sztuki, filmów lub rozrywki (z odpowiednimi zgodami). Jednak nielegalne jest ich użycie do:
Oszustw i wyłudzeń – np. podszywanie się pod kogoś w celu uzyskania korzyści finansowych.
Fałszowania tożsamości – np. tworzenie deepfake’ów dokumentów lub głosów.
Dezinformacji i manipulacji politycznej – np. generowanie fałszywych wypowiedzi polityków.
Zemsty lub szantażu – np. deepfake’i pornograficzne bez zgody ofiary.
USA: Niektóre stany (np. Kalifornia, Teksas) już wprowadziły kary za deepfake’i wykorzystywane do dezinformacji lub pornografii bez zgody. UE: RODO może być stosowane do ochrony osób, których wizerunek został sfałszowany, a niektóre kraje (np. Niemcy, Francja) mają surowsze przepisy. Chiny: Wymagają oznaczania deepfake’ów, a ich nielegalne użycie może skutkować wysokimi karami.
Tworzenie deepfake’ów samo w sobie nie jest automatycznie nielegalne, ale ich wykorzystanie do oszustwa, dezinformacji czy zniesławienia może prowadzić do poważnych konsekwencji prawnych.
Jakie są kary za wykorzystanie AI do fałszowania dokumentów lub głosu?
Jeśli ktoś używa AI do fałszowania dokumentów, podpisów lub głosu, może to być uznane za:
Oszustwo (fraud) – fałszowanie danych w celu uzyskania korzyści finansowych.
Podszywanie się pod inną osobę (identity theft) – np. deepfake głosowy użyty do kradzieży tożsamości.
Fałszowanie dokumentów (forgery) – np. generowanie sfałszowanych paszportów, umów czy faktur.
Możliwe kary: USA: Od kilku miesięcy do kilkunastu lat pozbawienia wolności w zależności od oszustwa. UE: W większości krajów fałszowanie dokumentów to przestępstwo karane grzywną lub karą pozbawienia wolności. Polska: Fałszowanie dokumentów (art. 270 Kodeksu karnego) zagrożone jest karą do 5 lat pozbawienia wolności.
Przykład: W 2023 r. oszuści użyli deepfake’owego głosu dyrektora firmy, aby wyłudzić 35 milionów dolarów od pracownika banku w Hongkongu.
Czy AI może zostać wykorzystana do oszustw finansowych lub phishingu?
Tak, AI już teraz jest używana do:
Phishingu nowej generacji – AI generuje realistyczne e-maile, SMS-y czy wiadomości głosowe, podszywając się pod banki lub urzędy.
Deepfake’ów głosowych i wideo – oszuści mogą udawać np. dyrektora firmy i wydawać polecenia przelewów.
Automatyzacji oszustw na dużą skalę – AI może generować setki realistycznych wiadomości phishingowych dziennie.
Kradzieży tożsamości – AI może generować fałszywe dowody osobiste, paszporty czy podpisy cyfrowe.
Przykład:
W 2020 roku cyberprzestępcy użyli AI do naśladowania głosu prezesa brytyjskiej firmy i oszukali jej pracowników, wyłudzając 220 000 dolarów.
W 2023 roku pojawiły się deepfake’owe telefony „od wnuczka” wyłudzające pieniądze od starszych osób.
Jak się chronić przed deepfake’ami i AI-oszustwami?
Weryfikuj źródła – nie ufaj bezkrytycznie nagraniom i wiadomościom.
Zwracaj uwagę na nienaturalne ruchy i mimikę w deepfake’ach.
Nie klikaj podejrzanych linków w e-mailach i SMS-ach – mogą to być ataki phishingowe generowane przez AI.
Sprawdzaj głosy i nagrania – jeśli rozmowa wydaje się dziwna, oddzwoń i zweryfikuj tożsamość rozmówcy.
Włącz dwuetapowe uwierzytelnianie (2FA) – ograniczy to ryzyko przejęcia Twojego konta przez oszustów.
Podsumowanie
Deepfake’i mogą być legalne, ale ich użycie do oszustw, szantażu lub dezinformacji jest przestępstwem.
Fałszowanie dokumentów i głosu przez AI może skutkować karą pozbawienia wolności.
AI już teraz jest wykorzystywane do oszustw finansowych i phishingu, a ich skala będzie rosła.
Aby się chronić, warto weryfikować źródła informacji i stosować techniki cyberbezpieczeństwa.
Świadomość zagrożeń to najlepsza obrona przed nową generacją oszustw!
To, czy chatbot AI zapisuje Twoje rozmowy, zależy od polityki prywatności firmy, która go udostępnia. Oto najważniejsze aspekty:
1) Czy chatbot AI zapisuje rozmowy?
Tak, większość chatbotów tymczasowo zapisuje rozmowy w celu:
Ulepszania modelu AI (np. poprawy odpowiedzi w przyszłości).
Analizy treści (np. wykrywania spamu, naruszeń regulaminu).
Zapewnienia zgodności z prawem (np. w przypadku bankowych chatbotów).
Jednak nie wszystkie chatboty przechowują rozmowy. Niektóre działają w trybie prywatnym i nie zapisują historii po zakończeniu sesji.
2) Czy mogę kontrolować zapisywanie rozmów?
W większości przypadków – TAK. Masz kilka opcji:
Sprawdzenie polityki prywatności – firmy muszą informować, czy przechowują dane.
Usunięcie historii – np. w Google Bard lub ChatGPT możesz ręcznie usunąć rozmowy.
Wyłączenie zapisywania rozmów – niektóre chatboty pozwalają na wyłączenie archiwizacji (np. w ustawieniach).
Korzystanie z trybu prywatnego – niektóre narzędzia oferują sesje incognito.
W niektórych przypadkach nie masz pełnej kontroli – np. jeśli chatbot jest częścią platformy biznesowej lub bankowej, rozmowy mogą być archiwizowane z powodów prawnych.
3) Czy firmy wykorzystują moje rozmowy do trenowania AI?
Czasami tak, ale często anonimowo.
Niektóre chatboty mogą używać Twoich rozmów do trenowania modeli AI, ale zazwyczaj po anonimizacji danych.
W przypadku firm takich jak OpenAI (ChatGPT) czy Google, możesz wyłączyć opcję wykorzystywania danych do trenowania.
4) Jak chronić swoją prywatność w rozmowach z chatbotem?
Nie podawaj danych osobowych – unikaj wpisywania imienia, adresu, numeru telefonu.
Sprawdź ustawienia prywatności – wyłącz historię, jeśli to możliwe.
Używaj chatbotów, które nie zapisują rozmów – np. niektóre wersje biznesowe oferują większą prywatność.
Podsumowanie
Tak, chatboty mogą zapisywać rozmowy, ale nie wszystkie.
Masz pewną kontrolę – możesz usuwać historię lub wyłączać zapisywanie (jeśli firma to umożliwia).
Niektóre firmy mogą używać rozmów do trenowania AI, ale często w formie anonimowej.
Najlepiej nie podawać prywatnych informacji w rozmowie z AI.
Jeśli zależy Ci na pełnej prywatności, zawsze warto sprawdzić politykę prywatności danej usługi.
Tak, AI może wspierać procesy rekrutacji, oceny i zwalniania pracowników, ale rodzi to poważne ryzyka prawne i etyczne.
1) Jak AI jest wykorzystywane w zatrudnianiu?
Automatyczna selekcja CV – AI analizuje aplikacje i wybiera kandydatów na podstawie słów kluczowych. Ocena kandydatów – niektóre systemy analizują mowę ciała, ton głosu, odpowiedzi na pytania podczas rozmów wideo. Przewidywanie wyników pracownika – AI ocenia, kto ma największe szanse na sukces w danej roli. Chatboty rekrutacyjne – np. AI odpowiada na pytania kandydatów i organizuje rozmowy kwalifikacyjne.
Zalety:
Szybszy proces rekrutacji
Redukcja kosztów
Możliwość analizy dużej liczby kandydatów
Zagrożenia:
Dyskryminacja i uprzedzenia – AI może faworyzować określone grupy (np. wykluczać kobiety lub osoby starsze, jeśli nauczyło się na stronniczych danych).
Brak przejrzystości – Kandydaci często nie wiedzą, na jakiej podstawie zostali odrzuceni.
Błędy w ocenie – np. AI może odrzucić kogoś, kto ma nietypowe CV, ale świetne kwalifikacje.
Przykład: Amazon musiał zrezygnować z AI do rekrutacji, ponieważ system faworyzował mężczyzn – nauczył się, że w branży technologicznej większość CV pochodzi od mężczyzn i zaczął automatycznie odrzucać kobiety.
2) Czy AI może zwolnić pracownika?
Niektóre firmy używają AI do monitorowania efektywności pracowników i podejmowania decyzji o zwolnieniach. AI może analizować:
Wydajność (np. czas pracy, liczba wykonanych zadań)
Aktywność online (np. historia e-maili, rozmowy na czacie)
Zachowanie w pracy (np. czas spędzany na przerwach)
Zalety:
Obiektywna analiza wyników
Szybka identyfikacja problemów
Zagrożenia:
Bezduszne podejście – AI nie bierze pod uwagę kontekstu (np. problemów zdrowotnych).
Błędy algorytmów – AI może źle interpretować dane i zwolnić kogoś niesłusznie.
Brak możliwości odwołania się – pracownicy mogą nie wiedzieć, dlaczego AI podjęło decyzję.
Przykład: Amazon stosował AI do monitorowania kurierów. System automatycznie zwalniał tych, którzy nie spełniali norm, nawet jeśli były one nierealistyczne (np. z powodu korków na drodze).
3) Czy to jest legalne?
RODO (UE) – pracownicy w Unii Europejskiej mają prawo żądać ludzkiej weryfikacji decyzji podjętej przez AI (art. 22). USA – prawo zależy od stanu, ale pracodawca może korzystać z AI, jeśli nie narusza przepisów antydyskryminacyjnych. Chiny – AI jest szeroko wykorzystywane do monitorowania pracowników, ale są tam luźniejsze regulacje.
Ważne: W większości krajów pracodawca nie może całkowicie oddać decyzji AI – musi być jakaś forma kontroli przez człowieka.
4) Jak się chronić przed niesprawiedliwą decyzją AI?
Jeśli AI ocenia Twoją kandydaturę:
Używaj słów kluczowych w CV (dostosowanych do oferty pracy).
Unikaj nietypowych formatów CV – AI może mieć problem z ich odczytaniem.
Jeśli AI analizuje Twoją pracę: Sprawdź, czy firma informuje o stosowaniu AI do monitoringu. Jeśli czujesz, że AI działa niesprawiedliwie, masz prawo do odwołania się do przełożonego (zwłaszcza w UE).
Podsumowanie
AI może pomagać w rekrutacji i zwalnianiu, ale nie powinno podejmować decyzji całkowicie samodzielnie.
Zdarzają się błędy i dyskryminacja – dlatego ważne jest, by AI było kontrolowane przez ludzi.
Jeśli czujesz się poszkodowany przez AI, sprawdź swoje prawa i odwołaj się od decyzji.
Jaki jest największy problem? AI często nie jest transparentne – pracownicy i kandydaci nie wiedzą, dlaczego zostali ocenieni w taki, a nie inny sposób. Dlatego rośnie presja na firmy, aby zapewniały większą przejrzystość algorytmów AI.
Pracownicy mają pewne prawa chroniące ich przed niesprawiedliwymi decyzjami AI, zwłaszcza w krajach, gdzie obowiązują przepisy o ochronie danych i prawach pracowniczych. Oto kluczowe aspekty:
Prawo do informacji i przejrzystości
Pracownik ma prawo wiedzieć, że jego wydajność jest oceniana przez AI.
Pracodawca musi poinformować o sposobie działania systemu i zakresie zbieranych danych.
Przykład (RODO, UE): Jeśli AI ocenia Twoją pracę, masz prawo do informacji o tym, jak działa algorytm i jakie dane są analizowane.
Co możesz zrobić?
Zażądaj od pracodawcy wyjaśnień dotyczących działania AI.
Sprawdź regulamin firmy i politykę prywatności dotyczącą monitorowania.
Prawo do odwołania się od decyzji AI
Jeśli AI zdecyduje o Twoim awansie, zwolnieniu lub premii, masz prawo do ludzkiej interwencji.
RODO (art. 22) w UE mówi, że nie można podejmować kluczowych decyzji o pracowniku tylko na podstawie AI – musi być możliwość odwołania się do człowieka.
USA: Prawo do odwołania się zależy od stanowych przepisów i polityki firmy.
Co możesz zrobić?
Jeśli uważasz, że AI podjęło niesprawiedliwą decyzję, zgłoś wniosek o ponowną ocenę przez człowieka.
Poproś o uzasadnienie decyzji – pracodawca powinien to zapewnić.
Prawo do ochrony danych osobowych
AI często analizuje czas pracy, aktywność na komputerze, lokalizację, wydajność zadań – ale nie wszystkie dane mogą być legalnie zbierane.
RODO (UE): Pracodawca musi uzyskać zgodę na przetwarzanie niektórych danych lub wykazać, że jest to „konieczne” dla działalności firmy.
USA: W niektórych stanach (np. Kalifornia – CCPA) pracownicy mają prawo zażądać usunięcia swoich danych.
Co możesz zrobić?
Sprawdź, jakie dane zbiera AI i czy masz możliwość ich usunięcia.
Jeśli czujesz, że Twoja prywatność jest naruszana, zgłoś skargę do działu HR lub odpowiedniego urzędu ds. ochrony danych.
Prawo do wolności od dyskryminacji przez AI
AI może nieświadomie faworyzować jedne grupy pracowników kosztem innych (np. wiek, płeć, pochodzenie).
USA: AI podlega przepisom antydyskryminacyjnym Equal Employment Opportunity Commission (EEOC).
UE: Przepisy antydyskryminacyjne wymagają, by systemy AI były testowane pod kątem równości i sprawiedliwości.
Co możesz zrobić?
Jeśli podejrzewasz, że AI faworyzuje jedną grupę, zgłoś skargę do działu HR lub instytucji zajmującej się prawami pracowników.
Jeśli podejrzewasz dyskryminację, możesz domagać się wglądu w kryteria oceny.
Prawo do wyłączenia monitoringu AI poza pracą
Pracodawca nie może śledzić Twojej aktywności poza godzinami pracy.
RODO (UE) i niektóre stany USA (np. Kalifornia, Illinois) zabraniają ciągłego monitorowania pracownika poza godzinami pracy.
Co możesz zrobić?
Sprawdź, czy Twój sprzęt służbowy monitoruje Cię po godzinach pracy.
Jeśli AI analizuje Twoje zachowanie poza pracą, zgłoś sprzeciw – pracodawca może być zobowiązany do wyłączenia takiego monitoringu.
Podsumowanie – jak chronić swoje prawa?
Masz prawo wiedzieć, jak AI Cię ocenia – domagaj się informacji o algorytmach i zbieranych danych.
AI nie może decydować o Tobie samodzielnie – masz prawo do oceny przez człowieka.
Możesz żądać dostępu do swoich danych i ich usunięcia (zwłaszcza w UE i Kalifornii).
AI nie może Cię dyskryminować – jeśli tak się dzieje, masz podstawy do skargi.
Pracodawca nie może śledzić Cię poza godzinami pracy – sprawdź ustawienia monitoringu.
Jeśli czujesz, że Twoje prawa są naruszane, skontaktuj się z działem HR, organizacją zajmującą się prawami pracowniczymi lub prawnikiem.
Tak, możesz żądać usunięcia swoich danych z modeli AI, takich jak ChatGPT (OpenAI) czy Midjourney, ale skuteczność takiej prośby zależy od przepisów prawnych oraz polityki danej firmy.
Na jakiej podstawie możesz żądać usunięcia danych?
a) RODO (GDPR) – Unia Europejska Jeśli jesteś obywatelem UE, masz prawo do „bycia zapomnianym” (art. 17 RODO). Oznacza to, że możesz zażądać usunięcia swoich danych osobowych, jeśli:
Dane były przetwarzane bez Twojej zgody.
Dane nie są już potrzebne do celu, dla którego zostały zebrane.
Cofasz zgodę na ich przetwarzanie.
b) CCPA – Kalifornia (USA) Podobne prawo mają mieszkańcy Kalifornii – mogą zażądać usunięcia swoich danych osobowych na podstawie California Consumer Privacy Act (CCPA).
Jak usunąć swoje dane z ChatGPT (OpenAI)?
OpenAI umożliwia usunięcie danych, ale nie treści użytych do trenowania modelu. Możesz zażądać usunięcia historii rozmów, ale jeśli model nauczył się Twoich danych ze źródeł publicznych, ich usunięcie może nie być możliwe. Aby zgłosić prośbę o usunięcie danych:
Skontaktuj się z OpenAI poprzez formularz pomocy: OpenAI Help
Podaj swoje dane i wyjaśnij, co chcesz usunąć.
Jeśli powołujesz się na RODO, firma musi rozpatrzyć Twoją prośbę.
Jak usunąć swoje dane z Midjourney?
Midjourney działa głównie na Discordzie i nie udostępnia oficjalnego sposobu na usunięcie danych. Możesz:
Usunąć swój profil i historię interakcji (np. z Discorda).
Skontaktować się z pomocą techniczną Midjourney (Midjourney Help) i złożyć formalną prośbę.
Czy modele AI mogą „zapomnieć” Twoje dane?
Trudno usunąć dane, które zostały użyte do trenowania AI.
Jeśli Twój wizerunek, imię lub inne dane pojawiły się w publicznych zbiorach treningowych, model może wciąż je „pamiętać”, nawet jeśli firma usunie Twoje dane z bieżących systemów.
Usunięcie danych z zestawów treningowych wymaga przetrainingu modelu, co jest skomplikowane i rzadko stosowane.
Możesz usunąć historię swoich interakcji, ale dane mogą już być wykorzystywane przez model w formie statystycznej.
Podsumowanie – czy możesz żądać usunięcia danych?
Tak, jeśli chodzi o Twoje dane osobowe (np. historia rozmów, konto, wizerunek).
Trudniej, jeśli dane były częścią zestawu treningowego – modele AI nie mają łatwej funkcji „zapomnienia”.
Najlepiej skontaktować się bezpośrednio z OpenAI, Midjourney lub inną firmą AI i złożyć formalny wniosek o usunięcie danych.
Odpowiedzialność za naruszenie praw autorskich przez AI może zależeć od kilku czynników, takich jak sposób wykorzystania AI, kontekst prawny oraz krajowa jurysdykcja. Oto główne podmioty, które mogą ponosić odpowiedzialność:
Użytkownik AI – Jeśli osoba lub firma korzystająca z AI używa go do generowania treści, które naruszają prawa autorskie, to zazwyczaj właśnie użytkownik ponosi odpowiedzialność. W wielu systemach prawnych to użytkownik jest uznawany za podmiot decyzyjny w zakresie wykorzystania narzędzia.
Twórca lub dostawca AI – Jeśli narzędzie AI zostało stworzone w sposób, który systematycznie prowadzi do naruszania praw autorskich (np. model AI został wytrenowany na nieautoryzowanych materiałach chronionych prawem autorskim), to producent AI może być pociągnięty do odpowiedzialności.
Platforma udostępniająca AI – W przypadku naruszeń na dużą skalę, jeśli platforma nie zapewnia odpowiednich mechanizmów kontroli lub umożliwia generowanie treści naruszających prawo bez zabezpieczeń, może ponosić współodpowiedzialność.
Brak jasnej odpowiedzialności – W wielu przypadkach prawo nie jest jeszcze dostosowane do sytuacji, w której AI działa w sposób autonomiczny. Może to prowadzić do sytuacji, w których trudno jednoznacznie wskazać odpowiedzialnego.
Obecnie różne systemy prawne (np. w UE i USA) pracują nad regulacjami dotyczącymi odpowiedzialności za działania AI, w tym w kontekście praw autorskich. W praktyce, jeśli AI naruszy czyjeś prawa autorskie, to zazwyczaj pierwszym odpowiedzialnym będzie użytkownik korzystający z AI, choć odpowiedzialność może być współdzielona z innymi podmiotami.
Jak kształtuje się odpowiedzialność twórców lub dostawców AI?
Przedsiębiorstwo, które stworzyło AI, może zostać pozwane, jeśli AI wygeneruje nielegalne treści, ale jego odpowiedzialność będzie zależeć od kilku czynników:
(1) Czy firma przewidziała i zapobiegała naruszeniom?
Jeśli firma stworzyła AI bez odpowiednich zabezpieczeń i mechanizmów filtrujących (np. moderacji treści, blokowania generowania nielegalnych treści), może zostać uznana za współodpowiedzialną. Przykładem może być przypadek, gdy AI generuje treści naruszające prawa autorskie, propagujące mowę nienawiści lub dezinformację.
(2) Czy AI działało zgodnie z przeznaczeniem?
Jeśli użytkownik wykorzystał AI w sposób niezgodny z regulaminem (np. złamał zasady dotyczące korzystania z modelu), firma może bronić się, wskazując, że nie ponosi odpowiedzialności za działania użytkownika. W takich przypadkach firmy często zabezpieczają się poprzez regulaminy i polityki użytkowania.
(3) Czy firma czerpie korzyści z generowanych treści?
Jeśli AI jest częścią komercyjnej platformy, na której użytkownicy generują treści (np. serwisy AI do tworzenia obrazów czy tekstów), a firma nie podejmuje działań moderujących, może być bardziej narażona na odpowiedzialność prawną.
Prawo danego kraju
W USA Sekcja 230 CDA chroni dostawców usług internetowych przed odpowiedzialnością za treści generowane przez użytkowników. Jednak nie jest jasne, czy ochrona ta obejmuje generatywną AI.
W Unii Europejskiej Akt o Sztucznej Inteligencji (AI Act) może w przyszłości określić, kiedy twórcy AI ponoszą odpowiedzialność za skutki działania ich systemów.
W niektórych krajach prawo autorskie i prawo cywilne mogą dopuszczać pozwy przeciwko firmom, które nie zapobiegają naruszeniom.
Podsumowanie
Przedsiębiorstwo może zostać pozwane, ale ostateczna odpowiedzialność zależy od tego, jak AI zostało zaprojektowane, jakie zabezpieczenia zastosowano i jak AI było używane. W wielu przypadkach użytkownik końcowy ponosi większą odpowiedzialność, ale twórcy AI muszą liczyć się z ryzykiem prawnym, jeśli ich systemy prowadzą do generowania nielegalnych treści.