Sztuczna inteligencja | Artificial Intelligence

Czy AI Act w UE wprowadza nowe obowiązki dla twórców AI?

Tak, AI Act (Akt o Sztucznej Inteligencji) w Unii Europejskiej wprowadza szereg nowych obowiązków dla twórców i dostawców technologii AI, z zamiarem uregulowania rozwoju i stosowania sztucznej inteligencji w sposób odpowiedzialny, bezpieczny i etyczny. Cele AI Act jest zapewnienie, że technologie sztucznej inteligencji są wykorzystywane w sposób zgodny z prawami człowieka, z poszanowaniem prywatności i wolności obywatelskich, oraz z uwzględnieniem ryzyk związanych z ich zastosowaniem.

Podział na kategorie ryzyka 

AI Act wprowadza podział systemów AI na cztery kategorie ryzyka, co determinuje poziom obowiązków dla twórców:

  • Ryzyko minimalne: Technologie AI, które mają minimalny wpływ na użytkowników (np. gry komputerowe).
  • Ryzyko ograniczone: Technologie AI, które mają pewien wpływ na ludzi, ale nie niosą ze sobą dużych zagrożeń (np. chat boty).
  • Ryzyko wysokie: AI, które ma wpływ na zdrowie, bezpieczeństwo, prawa i wolności ludzi (np. systemy oceny ryzyka w bankach, AI w medycynie, samochody autonomiczne).
  • Ryzyko nieakceptowalne: Technologie AI, które stwarzają poważne zagrożenie dla ludzi (np. AI do manipulowania opinią publiczną, AI do nadzoru masowego).

Twórcy AI muszą spełniać różne wymagania w zależności od tego, do której kategorii należy ich technologia.

Obowiązki dla twórców AI 

W zależności od klasyfikacji ryzyka, twórcy AI mają różne obowiązki:

Dla AI o ryzyku wysokim:

  • Ocena zgodności i certyfikacja: Twórcy muszą przeprowadzać szczegółowe oceny ryzyka i zapewnić, że ich systemy AI są zgodne z przepisami dotyczącymi bezpieczeństwa, przejrzystości i odpowiedzialności.
  • Dokumentacja i audyty: Twórcy AI muszą prowadzić dokumentację na temat sposobu działania ich algorytmów i danych, na których się opierają. Systemy muszą być regularnie audytowane, aby zapewnić, że działają zgodnie z założeniami.
  • Zarządzanie ryzykiem: Twórcy muszą wdrożyć odpowiednie środki zarządzania ryzykiem związanym z systemami AI, w tym monitorowanie ich działania, aby zapobiec niewłaściwemu użyciu.
  • Zgodność z przepisami ochrony danych osobowych (RODO): Twórcy muszą zapewnić, że ich technologie AI respektują prawa użytkowników dotyczące prywatności i ochrony danych osobowych.

Dla systemów o ryzyku ograniczonym:

  • Przejrzystość i informowanie użytkowników: Twórcy muszą informować użytkowników, że korzystają z systemu AI (np. w przypadku AI generujących teksty, jak chat boty).
  • Zgłaszanie poważnych błędów: Twórcy muszą zgłaszać przypadki, w których AI powoduje poważne błędy lub naruszenia prawa.

Dla systemów o ryzyku minimalnym:

  • Minimalne wymagania: Dla systemów o minimalnym ryzyku, obowiązki są mniej rygorystyczne, ale twórcy muszą dbać o przejrzystość i odpowiedzialność.

Wymogi związane z przejrzystością i odpowiedzialnością

AI Act wymaga, aby twórcy i dostawcy AI byli transparentni w kwestii zastosowań swoich systemów, zwłaszcza w przypadku rozwiązań wysokiego ryzyka. Oznacza to:

  • Wyjaśnianie, jak działa AI: Twórcy muszą dostarczać informacje na temat algorytmów i metodologii wykorzystywanych w AI.
  • Zabezpieczenie przed manipulacją: AI nie może być używana do manipulowania użytkownikami w sposób, który jest nieetyczny lub niezgodny z prawem.
  • Raportowanie incydentów: Twórcy muszą być zobowiązani do zgłaszania incydentów związanych z AI (np. błędne decyzje, systemy wykrywające uprzedzenia).

Inne ważne wymagania 

  • Tworzenie systemów odpowiedzialnych: Twórcy AI muszą dbać o to, aby systemy były odpowiedzialne za decyzje podejmowane przez AI, szczególnie w przypadkach takich jak automatyczne procesy decyzyjne w sprawach prawnych, finansowych czy medycznych.
  • Zabezpieczenia przed nadużyciami: Systemy muszą być zaprojektowane w taki sposób, by zapobiegać nadużyciom, takim jak nieautoryzowany dostęp do danych użytkowników lub wykorzystanie AI w sposób szkodliwy.

Przepisy dotyczące nadzoru i egzekwowania 

AI Act przewiduje stworzenie organów nadzorujących, które będą monitorować przestrzeganie przepisów przez twórców AI:

  • Nadzór na poziomie krajowym i unijnym: Każdy kraj członkowski UE będzie miał odpowiedzialność za nadzór nad wdrożeniem AI Act. Na poziomie unijnym, instytucje takie jak European AI Board będą monitorować stosowanie przepisów.
  • Sankcje: Twórcy, którzy nie przestrzegają przepisów, mogą zostać ukarani grzywnami. Dla systemów wysokiego ryzyka, kary mogą sięgać nawet 30 milionów euro lub 6% rocznego obrotu firmy.

Nowe obowiązki dla twórców AI 

AI Act wprowadza szereg nowych obowiązków dla twórców i dostawców sztucznej inteligencji w Unii Europejskiej, takich jak:

  1. Oceny ryzyka i zarządzanie ryzykiem związanym z technologiami AI.
  2. Zgodność z przepisami ochrony danych osobowych.
  3. Wymogi przejrzystości i informowania użytkowników o stosowaniu AI.
  4. Dokumentowanie działań systemów AI oraz ich audytowanie.
  5. Zgłaszanie incydentów związanych z działaniem AI.

AI Act ma na celu zagwarantowanie odpowiedzialnego rozwoju technologii AI, chroniąc użytkowników przed nadużyciami, nieetycznym użyciem technologii oraz zapewniając większą przejrzystość w działaniu sztucznej inteligencji.

W skrócie, twórcy AI będą musieli dostosować swoje rozwiązania do surowszych standardów ochrony prywatności, bezpieczeństwa i etyki.

Stan na dzień: 13 maja 2025 roku

Zdjęcie: freepik.com

Sztuczna inteligencja | Artificial Intelligence

Jak rozpoznać oszustwa generowane przez AI?

Rozpoznawanie oszustw generowanych przez AI staje się coraz trudniejsze, ponieważ technologia stale się rozwija. Niemniej jednak, istnieje kilka wskazówek, które mogą pomóc w wykrywaniu deepfake’ów, phishingu i innych oszustw AI.

Deepfake wideo i audio 

Deepfake’i wykorzystują sztuczną inteligencję do tworzenia fałszywych obrazów, filmów lub głosów. Aby je rozpoznać, zwróć uwagę na:

Wideo:

  • Nienaturalne ruchy twarzy i ciała – zwłaszcza w okolicach ust, oczu, rąk. Deepfake’i mogą mieć trudności z realistycznym odwzorowaniem naturalnych gestów.
  • Zniekształcenia skóry – zmiany koloru skóry, nadmierne wygładzenie lub widoczna nierówność na twarzy.
  • Brak „głębi” w tle – niektóre deepfake’i mają nienaturalnie rozmyty lub niezgodny z resztą obrazu tło.
  • Słaba synchronizacja ust z dźwiękiem – AI wciąż ma trudności z perfekcyjnym odwzorowaniem ruchów ust w czasie rzeczywistym.
  • Problemy z oświetleniem – może być nienaturalne w stosunku do otoczenia.

Audio:

  • Słaba jakość dźwięku – nawet najbardziej zaawansowane technologie AI mogą wygenerować dźwięk, który brzmi nieco sztucznie, z dziwnymi pauzami lub brakiem naturalnych emocji.
  • Zmiany tonu głosu – AI może naśladować ton głosu, ale brak naturalnych emocji, niuanse w głosie, akcenty mogą zdradzić sztuczność.
  • Zmiany w tempie mowy – AI może generować mową z nienaturalnym rytmem (za szybka lub za wolna).

Przykład: Filmy polityków lub celebrytów w których wypowiadają się rzeczy, których nigdy nie powiedzieli, często można rozpoznać po tych niedoskonałościach.

Phishing i oszustwa tekstowe generowane przez AI 

AI jest coraz częściej wykorzystywane do tworzenia realistycznych wiadomości phishingowych, które mają na celu wyłudzenie danych lub pieniędzy. Oto jak je rozpoznać:

  • Nienaturalne zwroty w wiadomości – AI, mimo że generuje tekst poprawny gramatycznie, może wciąż popełniać błędy w kontekście kulturowym czy stosowanych zwrotach.
  • Nacisk na pilność – oszustwa często tworzą sztuczną presję, np. prośby o natychmiastową reakcję („Twoje konto zostało zablokowane!”).
  • Podejrzane linki i adresy e-mail – linki mogą wyglądać prawie identycznie jak oryginalne, ale zwykle zawierają małe zmiany (np. dodany jeden znak, inna domena).
  • Nieoczekiwane prośby o dane osobowe – AI może tworzyć wiadomości, które proszą o wprowadzenie danych logowania lub danych karty kredytowej. Prawdziwe instytucje finansowe nigdy nie proszą o takie informacje w ten sposób.
  • Niepersonalizowane wiadomości – AI może generować ogólne, niepersonalizowane e-maile, np. „Drogi kliencie”, zamiast pełnego imienia i nazwiska. Wiadomości phishingowe rzadko używają pełnych danych odbiorcy.

Przykład: E-mail, który wygląda jak wiadomość od banku, zawiera podejrzane linki i prosi o wprowadzenie danych logowania do systemu, twierdząc, że „Twoje konto zostało zablokowane”.

Fałszywe profile w sieci (np. media społecznościowe) 

Sztuczna inteligencja może być również wykorzystywana do tworzenia fałszywych profili w mediach społecznościowych. Aby rozpoznać takie konto:

  • Zbyt idealizowane zdjęcia – AI generuje twarze, które są niemal nierealistyczne: bez zmarszczek, idealnie gładkie, pozbawione naturalnych cech (np. pieprzyków).
  • Brak historii – jeśli profil ma mało postów lub komentarzy, nieaktualizowane zdjęcia lub brak interakcji z innymi użytkownikami, może to być znak, że jest to fałszywe konto.
  • Nierealne informacje – AI może generować konta, które mają słabe, dziwne lub nieprecyzyjne opisy dotyczące zainteresowań i doświadczenia.
  • Niska jakość zdjęć – fałszywe profile często wykorzystują zdjęcia generowane przez AI lub zdjęcia stockowe o niskiej jakości.

Przykład: Profil osoby, który wydaje się zbyt idealny, ma mało interakcji i dziwne zdjęcia z Internetu, to może być konto stworzone przez AI.

Oszustwa finansowe generowane przez AI 

AI może być użyte do wielu form oszustw finansowych, takich jak generowanie fałszywych faktur, oszustwa bankowe czy fałszywe wnioski kredytowe. Aby rozpoznać takie oszustwa:

  • Nienaturalny język w dokumentach – AI może generować faktury lub dokumenty finansowe z dziwnymi sformułowaniami, błędami w języku prawnym, brakującymi danymi.
  • Podejrzane linki w wiadomościach o płatnościach – podobnie jak w phishingu, oszuści mogą wysyłać fałszywe powiadomienia o płatnościach z linkami do strony, która wygląda jak oryginalna, ale jest fałszywa.
  • Próba uzyskania danych osobowych – oszuści mogą wysyłać e-maile, prosząc o dane karty kredytowej lub login do konta bankowego, mówiąc, że jest to „wymagane do potwierdzenia transakcji”.

Przykład: Przesyłanie fałszywych faktur na nazwisko CEO firmy, generowanych przez AI, z prośbą o natychmiastowy przelew na „ważny” projekt.

Jak się chronić przed oszustwami AI? 

  • Weryfikuj informacje – nie ufaj bezkrytycznie źródłom, które nie są wiarygodne.
  • Sprawdzaj linki i adresy e-mail – nigdy nie klikaj podejrzanych linków, sprawdzaj ich dokładność.
  • Korzystaj z narzędzi do weryfikacji wideo – takie narzędzia mogą pomóc w rozpoznawaniu deepfake’ów.
  • Zgłaszaj podejrzane zachowanie – jeśli masz wątpliwości, zgłoś oszustwo do odpowiednich służb lub instytucji.
  • Zabezpiecz swoje dane – włącz dwuetapowe uwierzytelnianie (2FA), aby zabezpieczyć swoje konta online.

Podsumowanie

AI może być użyte do tworzenia bardzo realistycznych oszustw, ale wciąż istnieją sposoby na ich rozpoznanie. Kluczowe jest zwracanie uwagi na nienaturalne szczegóły, weryfikowanie źródeł i zabezpieczanie swoich danych. Jeśli masz jakiekolwiek podejrzenia, warto podjąć kroki ostrożnościowe, by uniknąć oszustwa.

Stan na dzień: 8 maja 2025 roku

Zdjęcie: freepik.com

Cyberprzestępczość | Cybercrime, Sztuczna inteligencja | Artificial Intelligence

AI na usługach przestępców

Czy tworzenie deepfake’ów jest legalne? 

Czy deepfake jest nielegalny zależy od celu i kontekstu jego użycia. Deepfake’i mogą być legalne, jeśli są wykorzystywane np. do sztuki, filmów lub rozrywki (z odpowiednimi zgodami). Jednak nielegalne jest ich użycie do:

  • Oszustw i wyłudzeń – np. podszywanie się pod kogoś w celu uzyskania korzyści finansowych.
  • Fałszowania tożsamości – np. tworzenie deepfake’ów dokumentów lub głosów.
  • Dezinformacji i manipulacji politycznej – np. generowanie fałszywych wypowiedzi polityków.
  • Zemsty lub szantażu – np. deepfake’i pornograficzne bez zgody ofiary.

USA: Niektóre stany (np. Kalifornia, Teksas) już wprowadziły kary za deepfake’i wykorzystywane do dezinformacji lub pornografii bez zgody.
UE: RODO może być stosowane do ochrony osób, których wizerunek został sfałszowany, a niektóre kraje (np. Niemcy, Francja) mają surowsze przepisy.
Chiny: Wymagają oznaczania deepfake’ów, a ich nielegalne użycie może skutkować wysokimi karami.

Tworzenie deepfake’ów samo w sobie nie jest automatycznie nielegalne, ale ich wykorzystanie do oszustwa, dezinformacji czy zniesławienia może prowadzić do poważnych konsekwencji prawnych.

Jakie są kary za wykorzystanie AI do fałszowania dokumentów lub głosu? 

Jeśli ktoś używa AI do fałszowania dokumentów, podpisów lub głosu, może to być uznane za:

  • Oszustwo (fraud) – fałszowanie danych w celu uzyskania korzyści finansowych.
  • Podszywanie się pod inną osobę (identity theft) – np. deepfake głosowy użyty do kradzieży tożsamości.
  • Fałszowanie dokumentów (forgery) – np. generowanie sfałszowanych paszportów, umów czy faktur.

Możliwe kary:
USA: Od kilku miesięcy do kilkunastu lat pozbawienia wolności w zależności od oszustwa.
UE: W większości krajów fałszowanie dokumentów to przestępstwo karane grzywną lub karą pozbawienia wolności.
Polska: Fałszowanie dokumentów (art. 270 Kodeksu karnego) zagrożone jest karą do 5 lat pozbawienia wolności.

Przykład: W 2023 r. oszuści użyli deepfake’owego głosu dyrektora firmy, aby wyłudzić 35 milionów dolarów od pracownika banku w Hongkongu.

Czy AI może zostać wykorzystana do oszustw finansowych lub phishingu? 

Tak, AI już teraz jest używana do:

  • Phishingu nowej generacji – AI generuje realistyczne e-maile, SMS-y czy wiadomości głosowe, podszywając się pod banki lub urzędy.
  • Deepfake’ów głosowych i wideo – oszuści mogą udawać np. dyrektora firmy i wydawać polecenia przelewów.
  • Automatyzacji oszustw na dużą skalę – AI może generować setki realistycznych wiadomości phishingowych dziennie.
  • Kradzieży tożsamości – AI może generować fałszywe dowody osobiste, paszporty czy podpisy cyfrowe.

Przykład:

  • W 2020 roku cyberprzestępcy użyli AI do naśladowania głosu prezesa brytyjskiej firmy i oszukali jej pracowników, wyłudzając 220 000 dolarów.
  • W 2023 roku pojawiły się deepfake’owe telefony „od wnuczka” wyłudzające pieniądze od starszych osób.

Jak się chronić przed deepfake’ami i AI-oszustwami? 

  • Weryfikuj źródła – nie ufaj bezkrytycznie nagraniom i wiadomościom.
  • Zwracaj uwagę na nienaturalne ruchy i mimikę w deepfake’ach.
  • Nie klikaj podejrzanych linków w e-mailach i SMS-ach – mogą to być ataki phishingowe generowane przez AI.
  • Sprawdzaj głosy i nagrania – jeśli rozmowa wydaje się dziwna, oddzwoń i zweryfikuj tożsamość rozmówcy.
  • Włącz dwuetapowe uwierzytelnianie (2FA) – ograniczy to ryzyko przejęcia Twojego konta przez oszustów.

Podsumowanie

  • Deepfake’i mogą być legalne, ale ich użycie do oszustw, szantażu lub dezinformacji jest przestępstwem.
  • Fałszowanie dokumentów i głosu przez AI może skutkować karą pozbawienia wolności.
  • AI już teraz jest wykorzystywane do oszustw finansowych i phishingu, a ich skala będzie rosła.
  • Aby się chronić, warto weryfikować źródła informacji i stosować techniki cyberbezpieczeństwa.

Świadomość zagrożeń to najlepsza obrona przed nową generacją oszustw! 

Stan prawny na dzień: 6 maja 2025 roku

Zdjęcie: freepik.com

Sztuczna inteligencja | Artificial Intelligence

Czy chatboty AI zapisują moje rozmowy i czy mogę to kontrolować?

To, czy chatbot AI zapisuje Twoje rozmowy, zależy od polityki prywatności firmy, która go udostępnia. Oto najważniejsze aspekty:

1) Czy chatbot AI zapisuje rozmowy?

Tak, większość chatbotów tymczasowo zapisuje rozmowy w celu:

  • Ulepszania modelu AI (np. poprawy odpowiedzi w przyszłości).
  • Analizy treści (np. wykrywania spamu, naruszeń regulaminu).
  • Zapewnienia zgodności z prawem (np. w przypadku bankowych chatbotów).

Jednak nie wszystkie chatboty przechowują rozmowy. Niektóre działają w trybie prywatnym i nie zapisują historii po zakończeniu sesji.

2) Czy mogę kontrolować zapisywanie rozmów?

W większości przypadków – TAK. Masz kilka opcji:

  • Sprawdzenie polityki prywatności – firmy muszą informować, czy przechowują dane.
  • Usunięcie historii – np. w Google Bard lub ChatGPT możesz ręcznie usunąć rozmowy.
  • Wyłączenie zapisywania rozmów – niektóre chatboty pozwalają na wyłączenie archiwizacji (np. w ustawieniach).
  • Korzystanie z trybu prywatnego – niektóre narzędzia oferują sesje incognito.

W niektórych przypadkach nie masz pełnej kontroli – np. jeśli chatbot jest częścią platformy biznesowej lub bankowej, rozmowy mogą być archiwizowane z powodów prawnych.

3) Czy firmy wykorzystują moje rozmowy do trenowania AI?

Czasami tak, ale często anonimowo.

  • Niektóre chatboty mogą używać Twoich rozmów do trenowania modeli AI, ale zazwyczaj po anonimizacji danych.
  • W przypadku firm takich jak OpenAI (ChatGPT) czy Google, możesz wyłączyć opcję wykorzystywania danych do trenowania.

4) Jak chronić swoją prywatność w rozmowach z chatbotem?

  • Nie podawaj danych osobowych – unikaj wpisywania imienia, adresu, numeru telefonu.
  • Sprawdź ustawienia prywatności – wyłącz historię, jeśli to możliwe.
  • Używaj chatbotów, które nie zapisują rozmów – np. niektóre wersje biznesowe oferują większą prywatność.

Podsumowanie

  • Tak, chatboty mogą zapisywać rozmowy, ale nie wszystkie.
  • Masz pewną kontrolę – możesz usuwać historię lub wyłączać zapisywanie (jeśli firma to umożliwia).
  • Niektóre firmy mogą używać rozmów do trenowania AI, ale często w formie anonimowej.
  • Najlepiej nie podawać prywatnych informacji w rozmowie z AI.

Jeśli zależy Ci na pełnej prywatności, zawsze warto sprawdzić politykę prywatności danej usługi.

Stan prawny na dzień: 1 maja 2025 roku

Zdjęcie: freepik.com

Sztuczna inteligencja | Artificial Intelligence

Czy AI może podejmować decyzje o zatrudnianiu lub zwalnianiu pracowników?

Tak, AI może wspierać procesy rekrutacji, oceny i zwalniania pracowników, ale rodzi to poważne ryzyka prawne i etyczne.

1) Jak AI jest wykorzystywane w zatrudnianiu?

Automatyczna selekcja CV – AI analizuje aplikacje i wybiera kandydatów na podstawie słów kluczowych.
Ocena kandydatów – niektóre systemy analizują mowę ciała, ton głosu, odpowiedzi na pytania podczas rozmów wideo.
Przewidywanie wyników pracownika – AI ocenia, kto ma największe szanse na sukces w danej roli.
Chatboty rekrutacyjne – np. AI odpowiada na pytania kandydatów i organizuje rozmowy kwalifikacyjne.

Zalety:

  • Szybszy proces rekrutacji
  • Redukcja kosztów
  • Możliwość analizy dużej liczby kandydatów

Zagrożenia:

  • Dyskryminacja i uprzedzenia – AI może faworyzować określone grupy (np. wykluczać kobiety lub osoby starsze, jeśli nauczyło się na stronniczych danych).
  • Brak przejrzystości – Kandydaci często nie wiedzą, na jakiej podstawie zostali odrzuceni.
  • Błędy w ocenie – np. AI może odrzucić kogoś, kto ma nietypowe CV, ale świetne kwalifikacje.

Przykład:
Amazon musiał zrezygnować z AI do rekrutacji, ponieważ system faworyzował mężczyzn – nauczył się, że w branży technologicznej większość CV pochodzi od mężczyzn i zaczął automatycznie odrzucać kobiety.

2) Czy AI może zwolnić pracownika?

Niektóre firmy używają AI do monitorowania efektywności pracowników i podejmowania decyzji o zwolnieniach. AI może analizować:

  • Wydajność (np. czas pracy, liczba wykonanych zadań)
  • Aktywność online (np. historia e-maili, rozmowy na czacie)
  • Zachowanie w pracy (np. czas spędzany na przerwach)

Zalety:

  • Obiektywna analiza wyników
  • Szybka identyfikacja problemów

Zagrożenia:

  • Bezduszne podejście – AI nie bierze pod uwagę kontekstu (np. problemów zdrowotnych).
  • Błędy algorytmów – AI może źle interpretować dane i zwolnić kogoś niesłusznie.
  • Brak możliwości odwołania się – pracownicy mogą nie wiedzieć, dlaczego AI podjęło decyzję.

Przykład:
Amazon stosował AI do monitorowania kurierów. System automatycznie zwalniał tych, którzy nie spełniali norm, nawet jeśli były one nierealistyczne (np. z powodu korków na drodze).

3) Czy to jest legalne?

RODO (UE) – pracownicy w Unii Europejskiej mają prawo żądać ludzkiej weryfikacji decyzji podjętej przez AI (art. 22).
USA – prawo zależy od stanu, ale pracodawca może korzystać z AI, jeśli nie narusza przepisów antydyskryminacyjnych.
Chiny – AI jest szeroko wykorzystywane do monitorowania pracowników, ale są tam luźniejsze regulacje.

Ważne: W większości krajów pracodawca nie może całkowicie oddać decyzji AI – musi być jakaś forma kontroli przez człowieka.

4) Jak się chronić przed niesprawiedliwą decyzją AI?

Jeśli AI ocenia Twoją kandydaturę:

  • Używaj słów kluczowych w CV (dostosowanych do oferty pracy).
  • Unikaj nietypowych formatów CV – AI może mieć problem z ich odczytaniem.

Jeśli AI analizuje Twoją pracę:
Sprawdź, czy firma informuje o stosowaniu AI do monitoringu.
Jeśli czujesz, że AI działa niesprawiedliwie, masz prawo do odwołania się do przełożonego (zwłaszcza w UE).

Podsumowanie

  • AI może pomagać w rekrutacji i zwalnianiu, ale nie powinno podejmować decyzji całkowicie samodzielnie.
  • Zdarzają się błędy i dyskryminacja – dlatego ważne jest, by AI było kontrolowane przez ludzi.
  • Jeśli czujesz się poszkodowany przez AI, sprawdź swoje prawa i odwołaj się od decyzji.

Jaki jest największy problem? AI często nie jest transparentne – pracownicy i kandydaci nie wiedzą, dlaczego zostali ocenieni w taki, a nie inny sposób. Dlatego rośnie presja na firmy, aby zapewniały większą przejrzystość algorytmów AI.

Stan na dzień: 29 kwietnia 2025 roku

Zdjęcie: freepik.com

Sztuczna inteligencja | Artificial Intelligence

Jakie są prawa pracowników wobec systemów AI, które oceniają ich wydajność?

Pracownicy mają pewne prawa chroniące ich przed niesprawiedliwymi decyzjami AI, zwłaszcza w krajach, gdzie obowiązują przepisy o ochronie danych i prawach pracowniczych. Oto kluczowe aspekty:

Prawo do informacji i przejrzystości 

  • Pracownik ma prawo wiedzieć, że jego wydajność jest oceniana przez AI.
  • Pracodawca musi poinformować o sposobie działania systemu i zakresie zbieranych danych.
  • Przykład (RODO, UE): Jeśli AI ocenia Twoją pracę, masz prawo do informacji o tym, jak działa algorytm i jakie dane są analizowane.

Co możesz zrobić?

  • Zażądaj od pracodawcy wyjaśnień dotyczących działania AI.
  • Sprawdź regulamin firmy i politykę prywatności dotyczącą monitorowania.

Prawo do odwołania się od decyzji AI 

  • Jeśli AI zdecyduje o Twoim awansie, zwolnieniu lub premii, masz prawo do ludzkiej interwencji.
  • RODO (art. 22) w UE mówi, że nie można podejmować kluczowych decyzji o pracowniku tylko na podstawie AI – musi być możliwość odwołania się do człowieka.
  • USA: Prawo do odwołania się zależy od stanowych przepisów i polityki firmy.

Co możesz zrobić?

  • Jeśli uważasz, że AI podjęło niesprawiedliwą decyzję, zgłoś wniosek o ponowną ocenę przez człowieka.
  • Poproś o uzasadnienie decyzji – pracodawca powinien to zapewnić.

Prawo do ochrony danych osobowych 

  • AI często analizuje czas pracy, aktywność na komputerze, lokalizację, wydajność zadań – ale nie wszystkie dane mogą być legalnie zbierane.
  • RODO (UE): Pracodawca musi uzyskać zgodę na przetwarzanie niektórych danych lub wykazać, że jest to „konieczne” dla działalności firmy.
  • USA: W niektórych stanach (np. Kalifornia – CCPA) pracownicy mają prawo zażądać usunięcia swoich danych.

Co możesz zrobić?

  • Sprawdź, jakie dane zbiera AI i czy masz możliwość ich usunięcia.
  • Jeśli czujesz, że Twoja prywatność jest naruszana, zgłoś skargę do działu HR lub odpowiedniego urzędu ds. ochrony danych.

Prawo do wolności od dyskryminacji przez AI 

  • AI może nieświadomie faworyzować jedne grupy pracowników kosztem innych (np. wiek, płeć, pochodzenie).
  • USA: AI podlega przepisom antydyskryminacyjnym Equal Employment Opportunity Commission (EEOC).
  • UE: Przepisy antydyskryminacyjne wymagają, by systemy AI były testowane pod kątem równości i sprawiedliwości.

Co możesz zrobić?

  • Jeśli podejrzewasz, że AI faworyzuje jedną grupę, zgłoś skargę do działu HR lub instytucji zajmującej się prawami pracowników.
  • Jeśli podejrzewasz dyskryminację, możesz domagać się wglądu w kryteria oceny.

Prawo do wyłączenia monitoringu AI poza pracą 

  • Pracodawca nie może śledzić Twojej aktywności poza godzinami pracy.
  • RODO (UE) i niektóre stany USA (np. Kalifornia, Illinois) zabraniają ciągłego monitorowania pracownika poza godzinami pracy.

Co możesz zrobić?

  • Sprawdź, czy Twój sprzęt służbowy monitoruje Cię po godzinach pracy.
  • Jeśli AI analizuje Twoje zachowanie poza pracą, zgłoś sprzeciw – pracodawca może być zobowiązany do wyłączenia takiego monitoringu.

Podsumowanie – jak chronić swoje prawa?

  • Masz prawo wiedzieć, jak AI Cię ocenia – domagaj się informacji o algorytmach i zbieranych danych.
  • AI nie może decydować o Tobie samodzielnie – masz prawo do oceny przez człowieka.
  • Możesz żądać dostępu do swoich danych i ich usunięcia (zwłaszcza w UE i Kalifornii).
  • AI nie może Cię dyskryminować – jeśli tak się dzieje, masz podstawy do skargi.
  • Pracodawca nie może śledzić Cię poza godzinami pracy – sprawdź ustawienia monitoringu.

Jeśli czujesz, że Twoje prawa są naruszane, skontaktuj się z działem HR, organizacją zajmującą się prawami pracowniczymi lub prawnikiem.

Stan prawny na dzień: 24 kwietnia 2025 roku

Zdjęcie: freepik.com

Sztuczna inteligencja | Artificial Intelligence

Czy mogę żądać usunięcia moich danych z modeli AI, np. ChatGPT czy Midjourney?

Tak, możesz żądać usunięcia swoich danych z modeli AI, takich jak ChatGPT (OpenAI) czy Midjourney, ale skuteczność takiej prośby zależy od przepisów prawnych oraz polityki danej firmy.

Na jakiej podstawie możesz żądać usunięcia danych?

a) RODO (GDPR) – Unia Europejska
Jeśli jesteś obywatelem UE, masz prawo do „bycia zapomnianym” (art. 17 RODO). Oznacza to, że możesz zażądać usunięcia swoich danych osobowych, jeśli:

  • Dane były przetwarzane bez Twojej zgody.
  • Dane nie są już potrzebne do celu, dla którego zostały zebrane.
  • Cofasz zgodę na ich przetwarzanie.

b) CCPA – Kalifornia (USA)
Podobne prawo mają mieszkańcy Kalifornii – mogą zażądać usunięcia swoich danych osobowych na podstawie California Consumer Privacy Act (CCPA).

Jak usunąć swoje dane z ChatGPT (OpenAI)?

OpenAI umożliwia usunięcie danych, ale nie treści użytych do trenowania modelu.
Możesz zażądać usunięcia historii rozmów, ale jeśli model nauczył się Twoich danych ze źródeł publicznych, ich usunięcie może nie być możliwe. Aby zgłosić prośbę o usunięcie danych:

  1. Skontaktuj się z OpenAI poprzez formularz pomocy: OpenAI Help
  2. Podaj swoje dane i wyjaśnij, co chcesz usunąć.
  3. Jeśli powołujesz się na RODO, firma musi rozpatrzyć Twoją prośbę.

Jak usunąć swoje dane z Midjourney?

Midjourney działa głównie na Discordzie i nie udostępnia oficjalnego sposobu na usunięcie danych. Możesz:

  • Usunąć swój profil i historię interakcji (np. z Discorda).
  • Skontaktować się z pomocą techniczną Midjourney (Midjourney Help) i złożyć formalną prośbę.

Czy modele AI mogą „zapomnieć” Twoje dane?

Trudno usunąć dane, które zostały użyte do trenowania AI.

  • Jeśli Twój wizerunek, imię lub inne dane pojawiły się w publicznych zbiorach treningowych, model może wciąż je „pamiętać”, nawet jeśli firma usunie Twoje dane z bieżących systemów.
  • Usunięcie danych z zestawów treningowych wymaga przetrainingu modelu, co jest skomplikowane i rzadko stosowane.

Możesz usunąć historię swoich interakcji, ale dane mogą już być wykorzystywane przez model w formie statystycznej.

Podsumowanie – czy możesz żądać usunięcia danych?

  • Tak, jeśli chodzi o Twoje dane osobowe (np. historia rozmów, konto, wizerunek).
  • Trudniej, jeśli dane były częścią zestawu treningowego – modele AI nie mają łatwej funkcji „zapomnienia”.
  • Najlepiej skontaktować się bezpośrednio z OpenAI, Midjourney lub inną firmą AI i złożyć formalny wniosek o usunięcie danych.

Stan prawny na dzień: 22 kwietnia 2025 roku

Zdjęcie: freepik.com

Sztuczna inteligencja | Artificial Intelligence

Kto ponosi odpowiedzialność, gdy AI naruszy prawa autorskie – użytkownik, twórca czy sama AI?

Odpowiedzialność za naruszenie praw autorskich przez AI może zależeć od kilku czynników, takich jak sposób wykorzystania AI, kontekst prawny oraz krajowa jurysdykcja. Oto główne podmioty, które mogą ponosić odpowiedzialność:

  1. Użytkownik AI – Jeśli osoba lub firma korzystająca z AI używa go do generowania treści, które naruszają prawa autorskie, to zazwyczaj właśnie użytkownik ponosi odpowiedzialność. W wielu systemach prawnych to użytkownik jest uznawany za podmiot decyzyjny w zakresie wykorzystania narzędzia.
  2. Twórca lub dostawca AI – Jeśli narzędzie AI zostało stworzone w sposób, który systematycznie prowadzi do naruszania praw autorskich (np. model AI został wytrenowany na nieautoryzowanych materiałach chronionych prawem autorskim), to producent AI może być pociągnięty do odpowiedzialności.
  3. Platforma udostępniająca AI – W przypadku naruszeń na dużą skalę, jeśli platforma nie zapewnia odpowiednich mechanizmów kontroli lub umożliwia generowanie treści naruszających prawo bez zabezpieczeń, może ponosić współodpowiedzialność.
  4. Brak jasnej odpowiedzialności – W wielu przypadkach prawo nie jest jeszcze dostosowane do sytuacji, w której AI działa w sposób autonomiczny. Może to prowadzić do sytuacji, w których trudno jednoznacznie wskazać odpowiedzialnego.

Obecnie różne systemy prawne (np. w UE i USA) pracują nad regulacjami dotyczącymi odpowiedzialności za działania AI, w tym w kontekście praw autorskich. W praktyce, jeśli AI naruszy czyjeś prawa autorskie, to zazwyczaj pierwszym odpowiedzialnym będzie użytkownik korzystający z AI, choć odpowiedzialność może być współdzielona z innymi podmiotami.

Jak kształtuje się odpowiedzialność twórców lub dostawców AI?

Przedsiębiorstwo, które stworzyło AI, może zostać pozwane, jeśli AI wygeneruje nielegalne treści, ale jego odpowiedzialność będzie zależeć od kilku czynników:

(1) Czy firma przewidziała i zapobiegała naruszeniom?

Jeśli firma stworzyła AI bez odpowiednich zabezpieczeń i mechanizmów filtrujących (np. moderacji treści, blokowania generowania nielegalnych treści), może zostać uznana za współodpowiedzialną. Przykładem może być przypadek, gdy AI generuje treści naruszające prawa autorskie, propagujące mowę nienawiści lub dezinformację.

(2) Czy AI działało zgodnie z przeznaczeniem?

Jeśli użytkownik wykorzystał AI w sposób niezgodny z regulaminem (np. złamał zasady dotyczące korzystania z modelu), firma może bronić się, wskazując, że nie ponosi odpowiedzialności za działania użytkownika. W takich przypadkach firmy często zabezpieczają się poprzez regulaminy i polityki użytkowania.

(3) Czy firma czerpie korzyści z generowanych treści?

Jeśli AI jest częścią komercyjnej platformy, na której użytkownicy generują treści (np. serwisy AI do tworzenia obrazów czy tekstów), a firma nie podejmuje działań moderujących, może być bardziej narażona na odpowiedzialność prawną.

Prawo danego kraju

W USA Sekcja 230 CDA chroni dostawców usług internetowych przed odpowiedzialnością za treści generowane przez użytkowników. Jednak nie jest jasne, czy ochrona ta obejmuje generatywną AI.

W Unii Europejskiej Akt o Sztucznej Inteligencji (AI Act) może w przyszłości określić, kiedy twórcy AI ponoszą odpowiedzialność za skutki działania ich systemów.

W niektórych krajach prawo autorskie i prawo cywilne mogą dopuszczać pozwy przeciwko firmom, które nie zapobiegają naruszeniom.

Podsumowanie

Przedsiębiorstwo może zostać pozwane, ale ostateczna odpowiedzialność zależy od tego, jak AI zostało zaprojektowane, jakie zabezpieczenia zastosowano i jak AI było używane. W wielu przypadkach użytkownik końcowy ponosi większą odpowiedzialność, ale twórcy AI muszą liczyć się z ryzykiem prawnym, jeśli ich systemy prowadzą do generowania nielegalnych treści.

Stan na dzień: 17 kwietnia 2025 roku

Zdjęcie: freepik.com

Bez kategorii

Czy mogę używać AI do generowania fanartów/postaci z gier i filmów bez łamania prawa?

Czy do generowania fanartów – postaci z gier można używać sztucznej inteligencji? To zależy od kilku czynników, m.in. praw autorskich, znaków towarowych oraz sposobu wykorzystania fanartu.

Fanarty a prawo autorskie – co musisz wiedzieć?

Fanart stanowi twórczość fanów, które przedstawia postaci, światy lub motywy pochodzące z istniejących utworów — np. filmów, książek, gier, seriali, komiksów, mangi czy anime.

Postacie z gier i filmów są chronione prawem autorskim

Oryginalne postacie, światy i grafiki należą do twórców (np. Disney, Nintendo, CD Projekt). AI generujące fanart bazuje na wzorcach z istniejących obrazów – jeśli jest zbyt podobny do oryginału, może naruszać prawa autorskie.

Styl artystyczny nie jest chroniony

Możesz tworzyć coś w stylu „anime” czy „mrocznego fantasy”, ale nie możesz kopiować konkretnej postaci 1:1.

Tworzenie fanartów często mieści się w „dozwolonym użytku” (fair use), ale…

Fair use (USA) pozwala na fanarty o charakterze niekomercyjnym (np. na blogach, forach). W UE nie ma jasnych przepisów o „fair use” – twórca fanartu może być poproszony o jego usunięcie.

Firmy różnie podchodzą do fanartów

Tolerują je (np. Blizzard, Riot Games) – fanarty pomagają budować społeczność. Zakazują i usuwają je (np. Nintendo, Disney) ze względu na ścisłą ochronę praw autorskich.

Kiedy AI-generowany fanart może być legalny?

Legalne zastosowanie

  • Tworzysz oryginalną wersję postaci (alternatywny design, własny styl).
  • Używasz AI do stworzenia inspiracji, ale sam rysujesz fanart.
  • Nie sprzedajesz fanartu i nie używasz go w celach komercyjnych.
  • Tworzysz fanart na podstawie postaci w domenie publicznej (np. Sherlock Holmes, postacie z bajek braci Grimm).

Ryzykowne zastosowanie (możesz naruszyć prawo)

  • AI generuje niemal identyczną postać z gry/filmu (np. Mario, Darth Vader).
  • Sprzedajesz fanart na koszulkach, plakatach, NFT (większość firm na to nie pozwala).
  • Używasz AI do generowania grafik, które mogą wprowadzać w błąd (np. podróbki oryginalnych grafik).

Czy mogę sprzedawać AI-generowane fanarty?

Ryzyko prawne

Większość firm nie pozwala na sprzedaż fanartów (np. Nintendo aktywnie usuwa fanarty na Etsy). Niektóre firmy (np. Riot Games) tolerują fanarty, ale nie zezwalają na ich sprzedaż. Jeśli AI-generowany fanart jest bardzo podobny do oryginału, może zostać uznany za plagiat.

Jak bezpiecznie tworzyć AI-fanarty?

  • Twórz unikalne wersje postaci.
  • Unikaj nazw i logotypów firmowych (np. „Star Wars” czy „Pokémon”).
  • Sprawdź politykę danej firmy dot. fanartów – np. Blizzard pozwala na fanarty, ale Disney surowo zabrania.
  • Nie sprzedawaj AI-fanartów bez zgody właściciela praw autorskich.

Podsumowanie

  • Możesz generować AI-fanarty dla własnej zabawy i publikować je niekomercyjnie.
  • Nie możesz sprzedawać AI-fanartów bez zgody właściciela praw autorskich.
  • Firmy różnie traktują fanarty – warto sprawdzić ich politykę.

Stan prawny na dzień: 15 kwietnia 2025 roku

Zdjęcie: freepik.com

Sztuczna inteligencja | Artificial Intelligence

Jakie są zagrożenia związane ze sztuczną inteligencją analizującą zachowania użytkowników w internecie? 

AI analizujące Twoje zachowania w internecie niesie poważne zagrożenia dla prywatności, bezpieczeństwa i autonomii. Oto najważniejsze ryzyka:

1) Naruszenie prywatności 

AI może zbierać dane o Twoich wyszukiwaniach, kliknięciach, wiadomościach, lokalizacji i budować Twój szczegółowy profil. Firmy technologiczne mogą sprzedawać lub udostępniać te dane innym podmiotom. Przykład: Facebook i Google analizują Twoją aktywność, aby dostarczać spersonalizowane reklamy.

Jak się chronić?

Warto rozważyć używanie przeglądarek chroniących prywatność (np. Brave, Firefox z dodatkami). Można również wyłączyć personalizację reklam w ustawieniach Google i Facebooka.

2) Manipulacja i profilowanie 

AI może analizować Twoje preferencje i emocje, aby wpływać na Twoje opinie, decyzje zakupowe i polityczne. Algorytmy mogą pokazywać Ci tylko treści, które wzmacniają Twoje przekonania (efekt bańki informacyjnej). Przykład: Algorytmy YouTube czy TikToka mogą prowadzić Cię do radykalnych treści, bazując na Twoich wcześniejszych zainteresowaniach.

Jak się chronić?

Korzystać warto z różnorodnych źródeł informacji. Ograniczać należy czas spędzany na platformach opartych na rekomendacjach AI.

3) Zagrożenia dla bezpieczeństwa 

AI może analizować Twoje hasła, dane logowania, lokalizację, a w przypadku wycieku danych cyberprzestępcy mogą to wykorzystać. AI wykorzystywane bywa w scamach oraz phishingu i może personalizować ataki tak, by wyglądały bardziej wiarygodnie. Przykład: Deepfake AI może podszyć się pod Twój głos i oszukać Twoich znajomych lub bank.

Jak się chronić?

Można używać menedżera haseł i włącz uwierzytelnianie dwuskładnikowe (2FA). Nigdy nie klikaj podejrzanych linków i sprawdzaj adresy e-mail nadawców.

4) Wpływ na psychikę i zdrowie 

Algorytmy AI mogą prowadzić do uzależnienia od treści, np. na TikToku czy Instagramie. Personalizacja treści może pogłębiać stany depresyjne i lękowe, np. poprzez idealizowane obrazy rzeczywistości. Przykład: AI analizuje Twoje zachowania i dostarcza coraz bardziej angażujące treści, utrudniając oderwanie się od ekranu.

Jak się chronić?

Ustal limit czasu na korzystanie z mediów społecznościowych. Świadomie kontroluj, jakie treści konsumujesz.

5) Wykorzystanie Twoich danych przez rządy i korporacje 

AI może być wykorzystywane do masowej inwigilacji obywateli. Korporacje mogą śledzić Twoją aktywność i oceniać Cię na podstawie Twojego zachowania (np. system kredytowy w Chinach). Przykład: AI w systemach rozpoznawania twarzy może śledzić Cię na ulicach i w sklepach.

Jak się chronić?

Ograniczaj udostępnianie swoich danych w mediach społecznościowych. Korzystaj z VPN i narzędzi blokujących śledzenie.

Podsumowanie – jak ograniczyć zagrożenia?

Zmień ustawienia prywatności w Google, Facebooku i innych platformach. Korzystaj z alternatywnych narzędzi (przeglądarki chroniące prywatność, VPN, adblocki).

Bądź świadomy, jak działa personalizacja treści i nie pozwól, by AI manipulowało Twoimi decyzjami. Chroń swoje dane logowania i unikaj phishingu.

Świadome korzystanie z internetu to najlepsza obrona przed nadużyciami AI.  

Stan na dzień: 10 kwietnia 2025 roku

Zdjęcie: freepik.com