
Tak, AI Act (Akt o Sztucznej Inteligencji) w Unii Europejskiej wprowadza szereg nowych obowiązków dla twórców i dostawców technologii AI, z zamiarem uregulowania rozwoju i stosowania sztucznej inteligencji w sposób odpowiedzialny, bezpieczny i etyczny. Cele AI Act jest zapewnienie, że technologie sztucznej inteligencji są wykorzystywane w sposób zgodny z prawami człowieka, z poszanowaniem prywatności i wolności obywatelskich, oraz z uwzględnieniem ryzyk związanych z ich zastosowaniem.
Podział na kategorie ryzyka
AI Act wprowadza podział systemów AI na cztery kategorie ryzyka, co determinuje poziom obowiązków dla twórców:
- Ryzyko minimalne: Technologie AI, które mają minimalny wpływ na użytkowników (np. gry komputerowe).
- Ryzyko ograniczone: Technologie AI, które mają pewien wpływ na ludzi, ale nie niosą ze sobą dużych zagrożeń (np. chat boty).
- Ryzyko wysokie: AI, które ma wpływ na zdrowie, bezpieczeństwo, prawa i wolności ludzi (np. systemy oceny ryzyka w bankach, AI w medycynie, samochody autonomiczne).
- Ryzyko nieakceptowalne: Technologie AI, które stwarzają poważne zagrożenie dla ludzi (np. AI do manipulowania opinią publiczną, AI do nadzoru masowego).
Twórcy AI muszą spełniać różne wymagania w zależności od tego, do której kategorii należy ich technologia.
Obowiązki dla twórców AI
W zależności od klasyfikacji ryzyka, twórcy AI mają różne obowiązki:
Dla AI o ryzyku wysokim:
- Ocena zgodności i certyfikacja: Twórcy muszą przeprowadzać szczegółowe oceny ryzyka i zapewnić, że ich systemy AI są zgodne z przepisami dotyczącymi bezpieczeństwa, przejrzystości i odpowiedzialności.
- Dokumentacja i audyty: Twórcy AI muszą prowadzić dokumentację na temat sposobu działania ich algorytmów i danych, na których się opierają. Systemy muszą być regularnie audytowane, aby zapewnić, że działają zgodnie z założeniami.
- Zarządzanie ryzykiem: Twórcy muszą wdrożyć odpowiednie środki zarządzania ryzykiem związanym z systemami AI, w tym monitorowanie ich działania, aby zapobiec niewłaściwemu użyciu.
- Zgodność z przepisami ochrony danych osobowych (RODO): Twórcy muszą zapewnić, że ich technologie AI respektują prawa użytkowników dotyczące prywatności i ochrony danych osobowych.
Dla systemów o ryzyku ograniczonym:
- Przejrzystość i informowanie użytkowników: Twórcy muszą informować użytkowników, że korzystają z systemu AI (np. w przypadku AI generujących teksty, jak chat boty).
- Zgłaszanie poważnych błędów: Twórcy muszą zgłaszać przypadki, w których AI powoduje poważne błędy lub naruszenia prawa.
Dla systemów o ryzyku minimalnym:
- Minimalne wymagania: Dla systemów o minimalnym ryzyku, obowiązki są mniej rygorystyczne, ale twórcy muszą dbać o przejrzystość i odpowiedzialność.
Wymogi związane z przejrzystością i odpowiedzialnością
AI Act wymaga, aby twórcy i dostawcy AI byli transparentni w kwestii zastosowań swoich systemów, zwłaszcza w przypadku rozwiązań wysokiego ryzyka. Oznacza to:
- Wyjaśnianie, jak działa AI: Twórcy muszą dostarczać informacje na temat algorytmów i metodologii wykorzystywanych w AI.
- Zabezpieczenie przed manipulacją: AI nie może być używana do manipulowania użytkownikami w sposób, który jest nieetyczny lub niezgodny z prawem.
- Raportowanie incydentów: Twórcy muszą być zobowiązani do zgłaszania incydentów związanych z AI (np. błędne decyzje, systemy wykrywające uprzedzenia).
Inne ważne wymagania
- Tworzenie systemów odpowiedzialnych: Twórcy AI muszą dbać o to, aby systemy były odpowiedzialne za decyzje podejmowane przez AI, szczególnie w przypadkach takich jak automatyczne procesy decyzyjne w sprawach prawnych, finansowych czy medycznych.
- Zabezpieczenia przed nadużyciami: Systemy muszą być zaprojektowane w taki sposób, by zapobiegać nadużyciom, takim jak nieautoryzowany dostęp do danych użytkowników lub wykorzystanie AI w sposób szkodliwy.
Przepisy dotyczące nadzoru i egzekwowania
AI Act przewiduje stworzenie organów nadzorujących, które będą monitorować przestrzeganie przepisów przez twórców AI:
- Nadzór na poziomie krajowym i unijnym: Każdy kraj członkowski UE będzie miał odpowiedzialność za nadzór nad wdrożeniem AI Act. Na poziomie unijnym, instytucje takie jak European AI Board będą monitorować stosowanie przepisów.
- Sankcje: Twórcy, którzy nie przestrzegają przepisów, mogą zostać ukarani grzywnami. Dla systemów wysokiego ryzyka, kary mogą sięgać nawet 30 milionów euro lub 6% rocznego obrotu firmy.
Nowe obowiązki dla twórców AI
AI Act wprowadza szereg nowych obowiązków dla twórców i dostawców sztucznej inteligencji w Unii Europejskiej, takich jak:
- Oceny ryzyka i zarządzanie ryzykiem związanym z technologiami AI.
- Zgodność z przepisami ochrony danych osobowych.
- Wymogi przejrzystości i informowania użytkowników o stosowaniu AI.
- Dokumentowanie działań systemów AI oraz ich audytowanie.
- Zgłaszanie incydentów związanych z działaniem AI.
AI Act ma na celu zagwarantowanie odpowiedzialnego rozwoju technologii AI, chroniąc użytkowników przed nadużyciami, nieetycznym użyciem technologii oraz zapewniając większą przejrzystość w działaniu sztucznej inteligencji.
W skrócie, twórcy AI będą musieli dostosować swoje rozwiązania do surowszych standardów ochrony prywatności, bezpieczeństwa i etyki.
Stan na dzień: 13 maja 2025 roku
Zdjęcie: freepik.com