Rozwój sztucznej inteligencji - wspólne stanowisko Grupy D9+
14.10.2020
Projektując nowe rozwiązania dotyczące sztucznej inteligencji należy działać na rzecz stworzenia wspólnego rynku dla AI w Unii Europejskiej – postulują odpowiedzialni za cyfryzację ministrowie z 14 europejskich państw, w tym z Polski.
Grupa D9+ to państwa Unii Europejskiej, które prezentują podobne podejście do spraw cyfrowych. Wydane wspólnie oświadczenie dotyczy konieczności przyjęcia europejskiego podejścia do rozwoju innowacyjnej i godnej zaufania sztucznej inteligencji (AI).
Jednym głosem
Stanowisko jest wkładem Polski, Danii, Belgii, Czech, Finlandii, Francji, Estonii, Irlandii, Łotwy, Luksemburga, Holandii, Portugalii, Hiszpanii oraz Szwecji w unijną dyskusję na temat koniecznych do podjęcia działań na rzecz stworzenia ram dla rozwoju sztucznej inteligencji w Unii Europejskiej.
Jak wskazują ministrowie - w tym Marek Zagórski, sekretarz stanu w Kancelarii Prezesa Rady Ministrów - projektując nowe rozwiązania dotyczące AI należy działać na rzecz stworzenia wspólnego rynku dla AI w Unii Europejskiej.
Umożliwi to europejskim przedsiębiorstwom rozwój oraz konkurencyjność w skali światowej, przyczyniając się tym samym do ponownego ożywienia wzrostu i zatrudnienia w gospodarce europejskiej.
Ministrowie podkreślają, że przyświecającą projektowaniu nowych ram dla rozwoju AI zasadą powinno być podejście oparte na ryzyku, tak by chronić prawa podstawowe obywateli. Stąd propozycja stworzenie mechanizmów oceny potencjalnego wpływu i prawdopodobieństwa wystąpienia ryzyka w przypadku wdrożenia rozwiązań opartych o sztuczną inteligencję.
Nic bez zaufania
We wspólnym stanowisku ministrowie jasno wskazują też, że bez zaufania zmniejszy się zapotrzebowanie na AI. Dlatego też UE powinna dążyć do stworzenia ekosystemu zaufania, w którym wiarygodność - już w fazie projektowania - będzie naturalnym elementem wdrożenia danego rozwiązania w zakresie sztucznej inteligencji. Idące w tym kierunku rozwiązania powinny być elastyczne.
Zdaniem ministrów - proponowanym rozwiązaniem, które zapewni realizację przedstawianych w stanowisku założeń, jest stworzenie dobrowolnego europejskiego systemu oznaczenia produktów, które spełniają wymogi bezpieczeństwa.
Takie oznaczenie pomogłoby europejskim rozwiązaniom wyróżnić się na rynku i dla użytkowników byłoby gwarantem, że ich prawa są należycie chronione.
AI w Polsce
W połowie września tego roku Komitet Rady Ministrów ds. Cyfryzacji (KRMC) przyjął „Politykę rozwoju sztucznej inteligencji w Polsce”. To ważny krok w kierunku wykorzystania szans, jakie daje AI.
- To dokument, który wspiera i uzupełnia inne, m.in. Strategię Odpowiedzialnego Rozwoju, Skoordynowany Plan Komisji Europejskiej dla rozwoju sztucznej inteligencji w Unii Europejskiej, a także prace organizacji międzynarodowych, w tym OECD – tłumaczy Marek Zagórski, sekretarz stanu w KPRM.
Dokument określa działania i cele dla Polski w perspektywie krótkoterminowej (do 2023 r.), średnioterminowej (do 2027 r.) i długoterminowej (po 2027 r.) oraz wymagania i warunki zastosowania AI, które obejmują wszystkie fazy - począwszy od projektowania rozwiązań, poprzez badanie, rozwój, wdrożenie, stosowanie i używanie, aż po wyłączenie z obrotu.
„Polityka rozwoju sztucznej inteligencji w Polsce” zakłada też stworzenie, w ramach struktur rządu, centrum koordynacyjnego, którego celem będzie monitorowanie wdrożenia polityki AI w Polsce, a także koordynacja działań partnerów.
Przyjęty przez Komitet Rady Ministrów ds. Cyfryzacji dokument to efekt wielomiesięcznych konsultacji.
Pierwszy projekt, w wersji pt. „Polityka Rozwoju Sztucznej Inteligencji w Polsce na lata 2019 – 2027” poddano konsultacjom publicznym i prekonsultacjom rządowym w sierpniu i wrześniu 2019 r. Wzięło w nich udział 46 podmiotów.
Następnie, w lutym i marcu 2020 r., przeprowadzono dalsze konsultacje, w tym międzyresortowe, eksperckie i społeczne. W lipcu 2020 r. „Polityka rozwoju sztucznej inteligencji” została wpisana do wykazu prac legislacyjnych rządu z pozytywną opinią Centrum Analiz Strategicznych.
Materiały
INNOVATIVE AND TRUSTWORHTY AI: TWO SIDES OF THE SAME COININNOVATIVE_AND_TRUSTWORHTY_AI_TWO_SIDES_OF_THE_SAME_COIN.pdf 0.39MB