W celu świadczenia usług na najwyższym poziomie stosujemy pliki cookies. Korzystanie z naszej witryny oznacza, że będą one zamieszczane w Państwa urządzeniu. W każdym momencie można dokonać zmiany ustawień Państwa przeglądarki. Zobacz politykę cookies.
Powrót

Wytyczne Komisji Europejskiej dotyczące zakazanych praktyk w zakresie sztucznej inteligencji

05.02.2025

Od 2 lutego br. w całej Unii Europejskiej obowiązuje zakaz używania oraz wprowadzania na rynek szczególnie niebezpiecznych systemów sztucznej inteligencji, które spełniają kryteria praktyk zakazanych.

Wytyczne dotyczące zakazanych praktyk związanych z AI

Nowe wytyczne Komisji Europejskiej

Komisja Europejska opublikowała Wytyczne dotyczące zakazanych działań w zakresie sztucznej inteligencji. Dokument zawiera przegląd praktyk, uznanych za niedopuszczalne ze względu na ich potencjalne ryzyko dla europejskich wartości i praw podstawowych. Celem wytycznych jest zapewnienie spójnego i jednolitego stosowania przepisów Rozporządzenia o sztucznej inteligencji (AI Act).

Kategorie zakazów i ich zastosowanie

Wytyczne opisują kategorie zakazów określonych w art. 5 AI Act oraz wskazują szczegółowy zakres stosowania zakazów, wyjaśnienia prawne oraz zawierają przykłady niedozwolonych praktyk dla poszczególnych kategorii. 

Istotną częścią dokumentu jest analiza interakcji AI Act z innymi przepisami Unii Europejskiej, w tym z regulacjami ochrony danych osobowych (RODO), przepisami o ochronie konsumentów, prawem pracy oraz regulacjami dotyczącymi odpowiedzialności cywilnej. W dokumencie podkreślono, że zakazy zawarte w AI Act uzupełniają inne akty prawne i nie zwalniają podmiotów z obowiązku przestrzegania dodatkowych wymagań wynikających z pozostałych przepisów prawa unijnego.

Wyłączenia od zakazów w art. 5 AI Act

Rozporządzenie 2024/1689 przewiduje także szereg ogólnych wyłączeń. Wytyczne opisują zakres stosowania tych wyłączeń w odniesieniu do kategorii zakazów określonych w art. 5 AI Act. W odniesieniu do:

  • bezpieczeństwa narodowego, obrony i celów wojskowych - np., jeśli agencja bezpieczeństwa narodowego lub prywatny operator otrzymają od krajowej agencji wywiadowczej zadanie wykorzystania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym do celów bezpieczeństwa narodowego (np. w celu gromadzenia informacji wywiadowczych), takie wykorzystanie będzie wyłączone z zakresu ustawy o sztucznej inteligencji,
  • współpracy sądów i organów ścigania z państwami trzecimi,
  • badań i rozwój np. w fazie badań i rozwoju (R&D) twórcy AI mają swobodę eksperymentowania i testowania nowych funkcjonalności, które mogą obejmować techniki, które mogą być postrzegane jako manipulacyjne i objęte art. 5 AI Act, jeśli są stosowane w aplikacjach skierowanych do konsumentów. AI Act zezwala na takie eksperymenty, uznając, że wczesna faza badań i rozwoju jest niezbędna do udoskonalenia technologii AI i zapewnienia, że spełniają one standardy bezpieczeństwa i etyczne przed wprowadzeniem ich na rynek,
  • osobistej działalności niezawodowej - dla przykładu system rozpoznawania emocji, jeśli ma być używany przez osoby fizyczne do czysto osobistych, nieprofesjonalnych działań, pozostaje systemem AI wysokiego ryzyka, zgodnie z klasyfikacją w artykule 6 AI Act i musi być w pełni zgodny z regulacją. Jednocześnie, podmiot wdrażający, który używa go do czysto osobistego, nieprofesjonalnego użytku (np. osoba autystyczna) nie będzie objęty szczególnymi obowiązkami podmiotów wdrażających na mocy AI Act, a jego użycie będzie poza zakresem regulacji.

Mechanizmy egzekwowania przepisów

Ważnym aspektem dokumentu jest wskazanie mechanizmów egzekwowania praktyk zakazanych. Za ich nadzorowanie odpowiedzialne będą krajowe organy nadzoru rynku, a także Europejski Inspektor Ochrony Danych. W przypadku naruszenia przepisów AI Act przewidziane są surowe kary finansowe – w wysokości do 35 milionów euro lub 7% rocznego obrotu przedsiębiorstwa.

Cel i charakter wytycznych

Wytyczne mają pomóc zainteresowanym stronom zrozumieć i spełnić wymogi Rozporządzenia 2024/1689. Dokument nie ma charakteru wiążącego – ostateczne interpretacje wydaje Trybunał Sprawiedliwości Unii Europejskiej (TSUE).

Komisja Europejska zatwierdziła projekt wytycznych, ale nie zostały jeszcze one formalnie przyjęte.

Link do wytycznych: https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act

{"register":{"columns":[]}}