Sztuczna inteligencja | Artificial Intelligence

Czy AI Act w UE wprowadza nowe obowiązki dla twórców AI?

Tak, AI Act (Akt o Sztucznej Inteligencji) w Unii Europejskiej wprowadza szereg nowych obowiązków dla twórców i dostawców technologii AI, z zamiarem uregulowania rozwoju i stosowania sztucznej inteligencji w sposób odpowiedzialny, bezpieczny i etyczny. Cele AI Act jest zapewnienie, że technologie sztucznej inteligencji są wykorzystywane w sposób zgodny z prawami człowieka, z poszanowaniem prywatności i wolności obywatelskich, oraz z uwzględnieniem ryzyk związanych z ich zastosowaniem.

Podział na kategorie ryzyka 

AI Act wprowadza podział systemów AI na cztery kategorie ryzyka, co determinuje poziom obowiązków dla twórców:

  • Ryzyko minimalne: Technologie AI, które mają minimalny wpływ na użytkowników (np. gry komputerowe).
  • Ryzyko ograniczone: Technologie AI, które mają pewien wpływ na ludzi, ale nie niosą ze sobą dużych zagrożeń (np. chat boty).
  • Ryzyko wysokie: AI, które ma wpływ na zdrowie, bezpieczeństwo, prawa i wolności ludzi (np. systemy oceny ryzyka w bankach, AI w medycynie, samochody autonomiczne).
  • Ryzyko nieakceptowalne: Technologie AI, które stwarzają poważne zagrożenie dla ludzi (np. AI do manipulowania opinią publiczną, AI do nadzoru masowego).

Twórcy AI muszą spełniać różne wymagania w zależności od tego, do której kategorii należy ich technologia.

Obowiązki dla twórców AI 

W zależności od klasyfikacji ryzyka, twórcy AI mają różne obowiązki:

Dla AI o ryzyku wysokim:

  • Ocena zgodności i certyfikacja: Twórcy muszą przeprowadzać szczegółowe oceny ryzyka i zapewnić, że ich systemy AI są zgodne z przepisami dotyczącymi bezpieczeństwa, przejrzystości i odpowiedzialności.
  • Dokumentacja i audyty: Twórcy AI muszą prowadzić dokumentację na temat sposobu działania ich algorytmów i danych, na których się opierają. Systemy muszą być regularnie audytowane, aby zapewnić, że działają zgodnie z założeniami.
  • Zarządzanie ryzykiem: Twórcy muszą wdrożyć odpowiednie środki zarządzania ryzykiem związanym z systemami AI, w tym monitorowanie ich działania, aby zapobiec niewłaściwemu użyciu.
  • Zgodność z przepisami ochrony danych osobowych (RODO): Twórcy muszą zapewnić, że ich technologie AI respektują prawa użytkowników dotyczące prywatności i ochrony danych osobowych.

Dla systemów o ryzyku ograniczonym:

  • Przejrzystość i informowanie użytkowników: Twórcy muszą informować użytkowników, że korzystają z systemu AI (np. w przypadku AI generujących teksty, jak chat boty).
  • Zgłaszanie poważnych błędów: Twórcy muszą zgłaszać przypadki, w których AI powoduje poważne błędy lub naruszenia prawa.

Dla systemów o ryzyku minimalnym:

  • Minimalne wymagania: Dla systemów o minimalnym ryzyku, obowiązki są mniej rygorystyczne, ale twórcy muszą dbać o przejrzystość i odpowiedzialność.

Wymogi związane z przejrzystością i odpowiedzialnością

AI Act wymaga, aby twórcy i dostawcy AI byli transparentni w kwestii zastosowań swoich systemów, zwłaszcza w przypadku rozwiązań wysokiego ryzyka. Oznacza to:

  • Wyjaśnianie, jak działa AI: Twórcy muszą dostarczać informacje na temat algorytmów i metodologii wykorzystywanych w AI.
  • Zabezpieczenie przed manipulacją: AI nie może być używana do manipulowania użytkownikami w sposób, który jest nieetyczny lub niezgodny z prawem.
  • Raportowanie incydentów: Twórcy muszą być zobowiązani do zgłaszania incydentów związanych z AI (np. błędne decyzje, systemy wykrywające uprzedzenia).

Inne ważne wymagania 

  • Tworzenie systemów odpowiedzialnych: Twórcy AI muszą dbać o to, aby systemy były odpowiedzialne za decyzje podejmowane przez AI, szczególnie w przypadkach takich jak automatyczne procesy decyzyjne w sprawach prawnych, finansowych czy medycznych.
  • Zabezpieczenia przed nadużyciami: Systemy muszą być zaprojektowane w taki sposób, by zapobiegać nadużyciom, takim jak nieautoryzowany dostęp do danych użytkowników lub wykorzystanie AI w sposób szkodliwy.

Przepisy dotyczące nadzoru i egzekwowania 

AI Act przewiduje stworzenie organów nadzorujących, które będą monitorować przestrzeganie przepisów przez twórców AI:

  • Nadzór na poziomie krajowym i unijnym: Każdy kraj członkowski UE będzie miał odpowiedzialność za nadzór nad wdrożeniem AI Act. Na poziomie unijnym, instytucje takie jak European AI Board będą monitorować stosowanie przepisów.
  • Sankcje: Twórcy, którzy nie przestrzegają przepisów, mogą zostać ukarani grzywnami. Dla systemów wysokiego ryzyka, kary mogą sięgać nawet 30 milionów euro lub 6% rocznego obrotu firmy.

Nowe obowiązki dla twórców AI 

AI Act wprowadza szereg nowych obowiązków dla twórców i dostawców sztucznej inteligencji w Unii Europejskiej, takich jak:

  1. Oceny ryzyka i zarządzanie ryzykiem związanym z technologiami AI.
  2. Zgodność z przepisami ochrony danych osobowych.
  3. Wymogi przejrzystości i informowania użytkowników o stosowaniu AI.
  4. Dokumentowanie działań systemów AI oraz ich audytowanie.
  5. Zgłaszanie incydentów związanych z działaniem AI.

AI Act ma na celu zagwarantowanie odpowiedzialnego rozwoju technologii AI, chroniąc użytkowników przed nadużyciami, nieetycznym użyciem technologii oraz zapewniając większą przejrzystość w działaniu sztucznej inteligencji.

W skrócie, twórcy AI będą musieli dostosować swoje rozwiązania do surowszych standardów ochrony prywatności, bezpieczeństwa i etyki.

Stan na dzień: 13 maja 2025 roku

Zdjęcie: freepik.com

Dodaj komentarz