Artykuł 5 AI Act: W poszukiwaniu równowagi między innowacją a dobrem społecznym – różne perspektywy
11.02.2025
Prezentujemy wypowiedzi członków Grupy roboczej ds. sztucznej inteligencji i internetu rzeczy „GRAI” na temat Rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji (tzw. AI Act), które na przełomie stycznia i lutego zebrała Dota Szymborska, doktora etyki, Uniwersytet WSB Mertio, etyka nowych technologii, zastępczyni Liderki sekcji AI, prawa człowieka i demokracja w GRAI.
Dwa pytania
Autorka zadała sobie i rozmówcom dwa pytania:
- Czy Artykuł 5 AI ACT może hamować rozwój AI?
- Czy zakazy w Artykule 5 wystarczą, by chronić obywateli?
Przepytani przez autorkę wywiadów eksperci reprezentują różne dziedziny: prawo, etykę AI, zarządzanie innowacjami, edukację, ochronę zdrowia i działania społeczne. To pozwoliło zaprezentować perspektywę, która wykracza poza samą literę prawa, która daje pełniejszy obraz wyzwań i szans związanych z rozwojem sztucznej inteligencji.
Nie oznacza to oczywiście, że można rezygnować z lektury oficjalnych dokumentów rządowych i unijnych. Wręcz przeciwnie – warto je studiować, by poznać podstawy regulacyjne dotyczące AI. Jednak poza „suchymi paragrafami” dobrze jest dostrzec kontekst techniczny, etyczny, społeczny i ekonomiczny. Zestawienie regulacji z opiniami praktyków pozwala lepiej zrozumieć proponowane rozwiązania i świadomie uczestniczyć w debacie o przyszłości sztucznej inteligencji w Europie.
– podkreśla Dota Szymborska.
Odpowiedzi prezentujemy poniżej. Są to osobiste zdania i poglądy cytowanych osób, nie muszą odzwierciedlać opinii całej Grupy roboczej.
Dzielimy się refleksami, obawami i nadziejami wierząc, że jest to dobry początek do dyskusji.
– wyjaśnia Dota Szymborska.
Ani Rada Ministrów, ani żadna osoba działająca w imieniu Rady Ministrów nie ponosi odpowiedzialności za sposób wykorzystania informacji zamieszczonych w tym materiale. Wyłączną odpowiedzialność za treści w nim zawarte ponosi grupa ekspertów i ekspertek Grupy Roboczej ds. Sztucznej Inteligencji. W żadnym wypadku nie można ich postrzegać jako oficjalne stanowisko Rady Ministrów ani jej poszczególnych członków.
Michał Szymański
prawnik, Fundacja Instytut Spraw Konstytucyjnych
Po pierwsze warto zauważyć, że Artykuł 5 AI ACT wynika z cyfrowego konstytucjonalizmu – wskazuje na konieczność uwzględnienia zagrożeń dla praw i wolności płynących ze strony nowych technologii. Ryszard Piotrowski mówi nawet o „totalitaryzmie informacyjnym społeczeństwa algorytmicznego”. Wskazuje się tu m.in. na zagrożenia dla równości, godności i prywatności. Mirosław Granat podkreśla, że prawo do prywatności jest szczególne – nawet w stanie wyjątkowym trudniej je ograniczyć (art. 233 ust. 1 Konstytucji RP). Aksjologia zachodniego porządku prawnego to efekt wielowiekowej refleksji nad państwem i społeczeństwem. Trudno oczekiwać, by zrezygnowano z tych wartości dla samego postępu technologicznego. Przypomnijmy choćby przypadek zakazu klonowania człowieka – nie wstrzymało to wszelkich badań genetycznych, a jedynie te uznane za moralnie nieakceptowalne. Mądrze prowadzona polityka może jednak prowadzić do rozwoju AI w Unii Europejskiej, tym bardziej że prace nad nią toczą się także poza Europą. Z kolei pomysł całkowitego wstrzymania prac nad AI na poziomie globalnym wydaje się dziś nierealny. Dlatego kluczowa jest równowaga: zakaz konkretnych praktyk, przy jednoczesnym wspieraniu rozwoju tam, gdzie jest to zgodne z wartościami UE.
Podstawowym wyzwaniem jest egzekwowanie przepisów – nawet najlepiej skonstruowane pozostaną martwe, jeśli nie da się ich skutecznie stosować. Wiele międzynarodowych korporacji potrafi ignorować prawo, zwłaszcza w dziedzinie nowych technologii i usług cyfrowych. Trzeba też rozważyć, czy te regulacje nie powinny być zapisane na poziomie konstytucyjnym, aby zapewnić im trwałość. Przykład Wielkiej Brytanii pokazuje, że członkostwo w UE nie jest dane raz na zawsze – przepisy wyższego rzędu chroniłyby jednak przed ich łatwą zmianą w przyszłości. Można także myśleć o porozumieniach międzynarodowych w stylu Międzynarodowego Paktu Praw Obywatelskich i Politycznych czy uzupełnieniu Europejskiej Konwencji Praw Człowieka dodatkowym protokołem regulującym AI. Przydałby się też organ o globalnym zasięgu lub wyposażenie w odpowiednie kompetencje istniejących instytucji.
Katarzyna Szczesna
ekspert ds. Odpowiedzialnej AI i Ekonomii Behawioralnej, członkini Global Partnership for AI (GPAI), twórczyni Ethical AI & Human Behaviour Framework
Jako ekspert w projektowaniu odpowiedzialnych zachowań i doświadczeń uważam, że zakazy dotyczące systemów wysokiego ryzyka (np. biometrycznej identyfikacji w przestrzeni publicznej) są uzasadnione z uwagi na ochronę autonomii jednostki i zaufania do AI. Czy regulacje hamują rozwój produktów? Raczej nie – wyznaczają granice etyczne, pomagając firmom budować długoterminową wartość w oparciu o zaufanie społeczne. Z perspektywy projektowania kluczowe jest zrozumienie mechanizmów decyzyjnych AI i komunikowania ich użytkownikom. Odpowiedzialny rozwój AI wymaga stopniowej automatyzacji, aby uniknąć zbyt radykalnych działań i wspierać użytkowników w procesie decyzyjnym. Ważna jest też architektura wyboru, ponieważ znacząco wpływa ona na zachowania ludzi.
Samo ograniczanie AI nie wystarczy. Potrzebne są przejrzyste podpowiedzi (z ang. transparent nudging) wspierające użytkowników w podejmowaniu świadomych decyzji. Niezbędna jest edukacja dotycząca błędów poznawczych i heurystyk, rozwijanie mechanizmów wyjaśnialności sztucznej inteligencji (z ang. explainable AI / XAI) i możliwość modyfikacji rekomendacji. Warto wprowadzać piaskownice regulacyjne (z ang. regulatory sandboxes) do testowania AI w warunkach kontrolowanych. Problemem mogą być też subtelne formy manipulacji: dynamiczne zwodnicze interfejsy (z ang. dark patterns) czy hiperpersonalizacja emocjonalna, które nie są wprost opisane w AI Act. Artykuł 5 dotyczy głównie jednorazowych manipulacji, podczas gdy algorytmy rekomendacyjne mogą systematycznie zmieniać preferencje użytkownika. Dlatego regulacja musi obejmować nie tylko konkretne techniki, ale i cały proces projektowania doświadczeń.
Konrad Socha
pracownik Działu Rozwoju Systemów Opieki Zdrowotnej Uniwersytetu Medycznego w Łodzi, specjalista i pasjonat Zdrowia Publicznego i ESG oraz nowych technologii w medycynie i edukacji
Mam dwudziestoletnie doświadczenie w edukacji zdrowotnej i ochronie zdrowia, w tym w projektach innowacyjnych. Artykuł 5 AI ACT stawia ochronę etycznych wartości i praw pacjentów w centrum, co buduje zaufanie do nowych technologii w medycynie. Jednak w dynamicznie rozwijającej się AI istnieje ryzyko, że zbyt szerokie sformułowania zakazanych praktyk obejmą także korzystne systemy terapeutyczne i diagnostyczne. W obliczu wyzwań demograficznych zbyt restrykcyjna regulacja może spowolnić innowacje w służbie zdrowia. Również interakcja Artykułu 5 z MDR, IVDR czy RODO bywa problematyczna. Przetwarzamy dane szczególnie wrażliwe, a nadmierne obciążenia administracyjne mogą być barierą dla startupów medycznych. UE ustanawia wysokie standardy etyczne, lecz trzeba kontrolować, czy nie osłabia to konkurencyjności europejskiej branży AI wobec USA czy Azji.
Artykuł 5 to istotny fundament, ale obejmuje tylko określone zakazane praktyki. To punkt wyjścia, nie docelowy stan regulacji. Konieczne jest skuteczne wdrażanie i egzekwowanie przepisów – a to wymaga wzmocnienia niezależnych organów nadzorczych z odpowiednimi kompetencjami i środkami finansowymi. Równie ważna jest edukacja – budowanie zaufania społecznego to nie tylko przepisy, ale też świadome korzystanie z AI. Potrzebujemy programów szkoleniowych na wielu poziomach, by każdy rozumiał etyczne, społeczne i prawne aspekty sztucznej inteligencji. Rozumiejąc te potrzeby i szanse, na Uniwersytecie Medycznym w Łodzi powołano np. Zespół ds. Sztucznej Inteligencji, który przygotowuje wewnętrzne polityki rozwoju AI i szkolenia kadr w tym obszarze.
Jerzy Łabuda
w ZAiKS-ie zajmuje się komunikacją, strategią AI i technologią na rynku kreatywnym
Patrzę na AI Act z perspektywy wartości fundamentalnej dla Europy: prawa do godności. Uważam, że przepisy chroniące godność ludzką są niezbędne w społeczeństwie demokratycznym, nawet jeśli spowalniają powstawanie niektórych produktów. Regulacje gospodarczo bywają korzystne, bo wyznaczają jasne zasady rynkowe i zapewniają wyższą jakość rozwiązań. Postęp zawsze powinien iść w parze z refleksją nad wpływem technologii na życie społeczne.
Takie regulacje bazują na aktualnej wiedzy i rozwiązaniach technicznych. Nie wiemy jednak, co przyniesie przyszłość. Obecne przepisy mogą dziś być wystarczające, ale z czasem prawdopodobnie potrzebne będą kolejne uzupełnienia.
Aneta Sotoła
dyrektorka generalna Navigare Sp. z o.o., członkini platformy społecznościowej AI&More Community
Jestem przedsiębiorczynią i przygotowuję m.in. wnioski o dotacje, gdzie często muszę uwzględniać polityki równościowe. Jeśli Artykuł 5 stanie się wymogiem w projektach unijnych, dla wielu firm będzie to pierwszy kontakt z zasadami etycznymi dotyczącymi AI. Jako członkini społeczności AI&More dostrzegam też potrzebę edukowania w zakresie etycznego użycia AI. Z perspektywy codziennego życia widzę, że ludzie coraz częściej pytają „bota” zamiast sięgać do ustawy czy specjalisty. Brak kontroli nad danymi treningowymi modeli może prowadzić do generowania fałszywych treści. Wbrew pozorom to nie tylko problem grup wrażliwych; w sprzyjających okolicznościach każdy może się stać ofiarą dezinformacji.
Same zapisy nie rozwiążą problemu, ale mogą być pierwszym krokiem ku dobrym praktykom – przynajmniej tam, gdzie są środki unijne. Kluczowa jest wciąż edukacja, szerzenie wiedzy i oswajanie użytkowników z AI. Oddolne inicjatywy społecznościowe mają tu wielką wartość, choć nie zwalnia to państwa z konieczności prowadzenia własnych kampanii informacyjnych.
Stanisław Zabandżała
prezes zarządu Fundacji Przyszłości Prawa, nowe technologie i szkolnictwo wyższe
Patrzę na to z perspektywy osoby młodej, która będzie żyła w świecie kształtowanym przez dzisiejsze regulacje. Rozwój technologii nie może być oderwany od wartości chroniących prawa jednostki, by uniknąć inwigilacji czy dyskryminacji. Nie uważam, że zakazane w Artykule 5 praktyki faktycznie hamują rozwój AI. Przykładowo, zakaz masowego rozpoznawania twarzy w czasie rzeczywistym nie blokuje innowacji, tylko kieruje ją w inną stronę – wolną od nadzoru rodem z antyutopii. Część firm może przenieść prace poza UE, ale powinniśmy raczej dążyć do budowania konkurencyjności w oparciu o etyczne i transparentne AI.
Zakazy w Artykule 5 są jak pasy bezpieczeństwa – ograniczają najgorsze skutki, ale nie likwidują wszystkich ryzyk. Po pierwsze, potrzebna jest lepsza egzekucja przepisów i większa przejrzystość w działaniu systemów AI. Po drugie, regulacja powinna mówić nie tylko o zakazach, lecz także o tym, co należy robić (np. promować etyczne standardy AI). Po trzecie, nie obejdzie się bez inwestycji w edukację cyfrową na każdym poziomie – społeczeństwo musi rozumieć, czym jest AI i jakie zagrożenia się z nią wiążą. Same regulacje nie wystarczą, jeśli ludzie nie będą świadomi mechanizmów działania sztucznej inteligencji.
Anna Spurek
dyrektorka generalna European Fem Institute & Green REV Institute, prawa kobiet & sprawiedliwa transformacja
Z perspektywy ochrony praw człowieka, a szczególnie praw najsłabszych grup i kobiet. Jako European Fem Institute współpracowałyśmy przy tworzeniu Dyrektywy antyprzemocowej, dlatego wiemy, że potrzebne są bezkompromisowe regulacje, chroniące prawa człowieka i demokrację.
Artykuł 5 jest kluczowy dla fundamentalnych wolności. Nie sądzę, aby hamował innowacje – raczej tworzy etyczne i odpowiedzialne ramy. Badania (m.in. UNESCO „I’d Blush if I Could”) pokazują, że AI może utrwalać uprzedzenia płciowe, a nasze własne analizy nad cyberprzemocą dowodzą, że ponad 70% kobiet z nią się zetknęło. Nie stać nas na świat bez aktywnego udziału kobiet i grup marginalizowanych. Artykuł 5 to ważny fundament, lecz niewystarczający. AI powinno przechodzić audyt pod kątem uprzedzeń, a w kluczowych sektorach (rekrutacja, wymiar sprawiedliwości, usługi publiczne) musimy sprawdzać, czy algorytmy faktycznie nie dyskryminują. Wiele osób wciąż nie ma wystarczających kompetencji cyfrowych, zwłaszcza kobiety i grupy wykluczone, co wymaga działań edukacyjnych. Systemy AI odzwierciedlają perspektywy ich twórców – niedostateczna reprezentacja kobiet w branży technologicznej pogłębia nierówności. Przy obecnym wzroście cyberprzemocy, populizmu i polaryzacji musimy walczyć o to, by AI stała się „AI wartości”, a nie tylko „AI zysków”.
dr Izabella Krzemińska
psycholog i data scientist, w Orange Innovation Poland zaangażowana w odpowiedzialne projektowanie interakcji człowiek-AI
Patrzę na Artykuł 5 AI Act z trzech perspektyw: użytkowniczki usług AI, projektantki takich systemów w dziale R&D oraz obywatelki, która zastanawia się nad długofalowymi konsekwencjami. Zgadzam się co do intencji regulacji: należy chronić nas przed skoringiem społecznościowym, niebezpiecznym etykietowaniem czy manipulacją na poziomie społecznym bądź indywidualnym. Jednak diabeł tkwi w szczegółach. W praktyce spotykam się z obawami, że rozpoznawanie emocji jest „zakazane”, bo ludzie wiedzą, że znajduje się na „czarnej liście”. Tymczasem chodzi o kontekst wykorzystania – nie jest zabronione samo w sobie, tylko w szczególnych sytuacjach (np. relacje pracodawca–pracownik i intencja manipulacji). Technologia umożliwiająca „empatyczne” co-boty może być społecznie korzystna, zwłaszcza jeśli powstaje w modelu responsibility by design. Niewłaściwa interpretacja przepisów może jednak zniechęcać do rozwoju lokalnych rozwiązań.
Nieprecyzyjne prawo może być interpretowane wielorako, co utrudni zarówno działania niepożądane, jak i te korzystne. Od lat powtarzam, że samo narzędzie nie jest odpowiedzialne za swój użytek – kluczem jest świadomość użytkowników. Przydałby się zatem system edukacji tłumaczący zagrożenia i inwestycje w ochronę przed negatywnymi skutkami technologii. Prawo pokroju AI Act jest jak kopuła ochronna nad Europą, ale jednocześnie potrzebujemy tarcz dostosowanych do konkretnych potrzeb. Bronienie autonomii człowieka w kapitalizmie nadzoru (za Shoshaną Zuboff) wymaga dużej uważności. Osobiście promuję koncepcje privacy by design, responsibility by design i, w przyszłości, protection by design – bo klucz tkwi w mądrym, etycznym projektowaniu technologii.
Dota Szymborska
doktora etyki, Uniwersytet WSB Mertio, etyka nowych technologii
Jako etyczka odnoszę się do klasycznych pytań o dobro wspólne oraz wolność jednostki w świetle postępu technologicznego. Inspiruję się myślą Immanuela Kanta, który podkreślał, że człowiek (również jako twórca technologii) powinien zawsze być traktowany jako cel sam w sobie, a nie wyłącznie jako środek do osiągania korzyści. Z perspektywy etyki obowiązku (deontologicznej) zakazy i normy zawarte w Artykule 5 przypominają „kategorialne imperatywy” – pewien kodeks wskazujący, czego robić nie wolno, jeśli chcemy ochronić godność i wolność człowieka. Jednocześnie, nawiązując do Hannah Arendt, która akcentowała wagę refleksji nad odpowiedzialnością w świecie naznaczonym gwałtownym rozwojem techniki, widzę konieczność regulacji, byśmy nie popadli w „banalność zła” – czyli mechaniczne wdrażanie rozwiązań AI bez namysłu nad ich etycznymi skutkami. Czy taka regulacja hamuje rozwój? Z jednej strony może ograniczać pewne kierunki badań czy wdrożeń (np. masowe rozpoznawanie twarzy w czasie rzeczywistym).
Z drugiej jednak strony, Simone de Beauvoir przypomniałaby nam, że wolność człowieka zawsze współistnieje z wolnością innych. Jeśli bezrefleksyjny rozwój AI zagraża prawom i wolnościom obywateli, to długofalowo może zaprzepaścić zaufanie społeczne do technologii. A brak zaufania – paradoksalnie – bardziej zaszkodzi postępowi niż regulacje, które wyznaczają etyczne ramy. Zatem z punktu widzenia etyki normatywnej, Artykuł 5 AI ACT stanowi pewien bezpiecznik: ma chronić przed najbardziej drastycznymi nadużyciami i zapewnić, że człowiek pozostanie w centrum uwagi. Może to w krótkiej perspektywie spowalniać pewne innowacje, ale w dłuższej – budować stabilne fundamenty pod odpowiedzialny i zrównoważony rozwój AI.
W duchu myśli Johna Stuarta Milla można zauważyć, że prawo powinno ograniczać wolność jedynie wtedy, gdy jest to konieczne do ochrony innych. Artykuł 5 pełni taką funkcję w obszarze sztucznej inteligencji – wyznacza ramy minimalne, zapobiega szkodom i naruszeniom. Jednak same zakazy, choć potrzebne, nie wystarczą do zbudowania pełnego zaufania społecznego. Etyka mówi nam, że konieczne jest również kształtowanie charakteru – tu kłania się tradycja Arystotelesa i jego etyka cnót, według której liczą się nie tylko formalne normy, ale i cnoty sprawiedliwości, roztropności, czy odpowiedzialności. W kontekście AI oznacza to: Edukację – zarówno projektantów i deweloperów systemów AI, jak i całego społeczeństwa. Ludzie muszą rozumieć, jak działają algorytmy i jakie niosą konsekwencje. Transparentność i wyjaśnialność ( z ang. explainability) – firmy i instytucje publiczne wdrażające AI powinny jasno informować o sposobach działania systemów, uwzględniając prawa obywateli. Mechanizmy kontroli i nadzoru – w myśl zasady „ufaj, ale sprawdzaj” potrzebujemy wyspecjalizowanych instytucji i procedur, które będą stale weryfikować, czy systemy AI rzeczywiście działają zgodnie z etycznymi i prawnymi standardami.
Podsumowując, Artykuł 5 AI ACT to „pierwsza linia obrony” przed najbardziej szkodliwymi praktykami. Aby jednak osiągnąć równowagę między wolnością innowacji a ochroną praw człowieka, konieczne są również: jasne wytyczne wdrożeniowe, działania edukacyjne, dbałość o przejrzystość, ciągły nadzór i adaptacja przepisów do zmieniającej się rzeczywistości technologicznej. W przeciwnym razie istnieje ryzyko, że prawo będzie martwe lub łatwe do obejścia, a to nie rozwiąże etycznych dylematów stojących przed twórcami i użytkownikami AI.
Podsumowanie
Na końcu warto podkreślić, że wszystkie zebrane wypowiedzi potwierdzają, jak różnorodne są spojrzenia na Artykuł 5 AI Act. Wspólny mianownik to przekonanie, że ochrona praw i wolności człowieka w dobie sztucznej inteligencji jest niezbędna – nie tylko dziś, ale tym bardziej w przyszłości. Równocześnie większość rozmówców podkreśla, że sam zapis w ustawie nie wystarczy: kluczowe pozostają edukacja społeczna, przemyślana implementacja prawa i skuteczny nadzór nad rozwojem AI.
Czy te regulacje spowolnią postęp technologiczny? Być może w niektórych obszarach tak, ale zdaniem wielu ekspertów etyczne i odpowiedzialne podejście do AI to jedyna droga do zachowania zaufania społecznego. Nie warto traktować Artykułu 5 jako przeszkody, lecz jako filtr chroniący nas przed wdrażaniem praktyk, które kłócą się z podstawowymi wartościami. Europejska innowacyjność może na tym tylko zyskać – stając się etyczna, transparentna i zarazem konkurencyjna w skali globalnej.
Materiały
1) Rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji (tzw. AI Act)2) Wyjaśnienia komisji o sys. AI z art. 5 z 4 lutego
3) Doprecyzowanie czym wg UE jest AI z 7 lutego