Innowacje a odpowiedzialność – podsumowanie konferencji CET „Etyka technologii: kierunki, trendy, wyzwania”
W dobie transformacji cyfrowej nie sposób dłużej mierzyć oddziaływania innowacji wyłącznie przez pryzmat opłacalności i wykonalności. Kryterium oceny muszą być korzyści całego społeczeństwa.
Zorganizowana przez Centrum Etyki Technologii Instytutu Humanites konferencja „Etyka technologii: kierunki, trendy, wyzwania. Gdzie jesteśmy? Dokąd zmierzamy?” była pierwszym tego typu wydarzeniem w Polsce poświęconym w całości problematyce odpowiedzialnego rozwoju innowacji. Eksperci z różnych środowisk i branż przedstawili aktualny stan rekomendacji dotyczących etyki technologii, omówili ich wpływ na powstające regulacje oraz ocenili szanse i ryzyka związane z ich wdrożeniem w praktyce. Poświęcili też uwagę oddziaływaniu etyki na krajowe i międzynarodowe polityki inwestycyjne i rozwojowe.
Stojąca na czele Centrum GovTech minister Justyna Orłowska podkreśliła, że o etyce i regulacjach trzeba myśleć w kontekście szeroko rozumianych mechanizmów wsparcia. Jeśli państwo finansuje rozwój danego sektora, to musi mieć pewność, że odbywa się to z poszanowaniem praw i wolności obywatelskich – przekonywała.
Podobnego zdania był Robert Kroplewski z Kancelarii Prezesa Rady Ministrów, który mówił, że etyczność stanowi część szerszych działań społecznych czy rynkowych, które mogą przyjąć zarówno formę prawną (tam gdzie to konieczne), jak i polityk inwestycyjnych. Zwracał zarazem uwagę, że unijna propozycja prawa dotyczącego sztucznej inteligencji – choć przełomowa (wskazanie stopni ryzyka systemów AI i różnych typów interwencji) – stanowi też część równolegle podejmowanych działań regulacyjnych dotyczących rynku cyfrowego, danych i usług.
Projektowanie polityk rozwoju powinno się zaczynać od określenia zasad etycznych, które są zgodne z wartościami danego społeczeństwa – zaznaczyła Małgorzata Darowska z Centralnego Portu Komunikacyjnego. Co więcej, musi się to odbywać z udziałem różnych interesariuszy. Pryncypia etyczne nie mogą być wynikiem definiowania polityki, ale powinny stanowić jej podstawę. Istotne jest też takie kształtowanie polityki, które zapewnia spójność społeczno-gospodarczą oraz zrównoważony rozwój. Wreszcie gwarantem przestrzegania reguł gry rynkowej jest jasne przypisane odpowiedzialności za działanie danej technologii.
Podobnego zdania był Radim Zajicek z Australian Securities Exchange (ASX), największej giełdy papierów wartościowych w Australii. Zauważył, że uniwersalną zasadą wynikającą z projektu regulacji AI jest odpowiedzialność właściciela danej technologii za jej użycie.
Również dr Joanna Mazur z DELab UW uznała, że możliwość pociągnięcia do odpowiedzialności podmiotów używających AI jest kluczowym warunkiem umożliwiającym ograniczenie nadużyć wynikających z niewłaściwego działania tej technologii. Chwaliła też radykalne wzmocnienie podejścia opartego na ryzyku w europejskim projekcie regulacji sztucznej inteligencji, polegające na wprowadzeniu kategorii ryzyka niemożliwego do zaakceptowania.
Odpowiedzialność to także solidność techniczna – mówiła dr Ilona Urbaniak z NASK. Sztuczna inteligencja nie istnieje bez danych. I choć w erze Big Data zwracamy dziś uwagę przede wszystkim na ich ilość, to w rzeczywistości najważniejsze są jakość danych oraz metody ich przetwarzania, niezbędne do właściwego trenowania modeli AI.
Z kolei zdaniem Borysa Stokalskiego z Rethink przyspieszenie technologiczne prowadzi dziś do konfliktu między dążeniem do szybkiego adaptowania nowych rozwiązań a troską o ich niepewne konsekwencje. W takiej sytuacji niezbędna staje się refleksja filozoficzna i etyczna. Sprowadziliśmy ocenę sensowności postępu technologicznego do tego, czy coś jest wykonalne i opłacalne – przekonywał. Tymczasem musimy jeszcze rozumieć, po co rozwijamy daną technologię i czy w ogóle warto to robić.
Na konieczność oceny technologii przez pryzmat jej społecznego oddziaływania zwracała uwagę dr Dominika Kaczorowska-Spychalska z Centrum Mikser Inteligentnych Technologii na Wydziale Zarządzania Uniwersytetu Łódzkiego. Mówiąc o innowacjach w edukacji, przestrzegała przed zbyt pochopnym uleganiem potrzebie maksymalizacji efektów nauczania kosztem innych wartości, jak prywatność czy kreatywność. Podkreślała też, że miejscem, w którym spotykają się perspektywy różnych interesariuszy rozwoju technologii (jak biznes, nauka czy rządzący), muszą być korzyści społeczeństwa.
Podobnego zdania był dr Robert Sroka z Abris Capital Partners, który twierdził, że alternatywa „bezpieczeństwo albo rozwój” jest błędna. Musimy uczynić z etyki szansę biznesową – przekonywał. Do tego niezbędna jest jednak szeroka współpraca różnych interesariuszy.
Sroka podkreślał, że w dobie popandemicznej na znaczeniu zyskuje zasada pomocniczości, polegająca na decentralizacji zarządzania i przekazywaniu wielu decyzji w ręce lokalnych ośrodków. Tym samym etyka musi znaleźć odzwierciedlenie nie tylko w odgórnych restrykcyjnych regulacjach prawnych, ale również w dobrowolnych działaniach samoregulacyjnych prowadzonych przez organizacje branżowe. Przekonywał, że wspólna inicjatywa całego sektora ICT mogłaby doprowadzić do tego, że bycie programistą AI stałoby się zawodem zaufania publicznego (np. poświadczanym odpowiednim certyfikatem).
Przed postrzeganiem kwestii etycznych w sposób nazbyt legalistyczny przestrzegał Maciej Chojnowski z CET. Zauważył, że w kontekście technologii zbyt często traktuje się dziś etykę jako słabszą odmianę prawa. Takie podejście wiąże się co najmniej z dwoma problemami. Po pierwsze, kwestie etyczne łatwo wtedy sprowadzić do formalnego wymogu zgodności z zasadami, co skutkuje brakiem głębszej refleksji nad etycznymi konsekwencjami technologii. Po drugie zaś, etyka nie posiadając równych prawu narzędzi egzekwowania norm, może stać się wygodną furtką do omijania twardych regulacji.
Dr Robert Sroka zauważył jednak, że w przypadku praktyk samoregulacyjnych ryzyko manipulacji można zminimalizować poprzez swoiste bezpieczniki wpisane w system, jak choćby komisje etyki z udziałem ekspertów zewnętrznych, możliwość zgłaszania nadużyć do organizacji branżowych czy system certyfikacji firm.
Zdaniem Zofii Dzik, prezes Instytutu Humanites i przewodniczącej Rady Programowej CET, etyka technologii to jednak nie tylko rozwiązania systemowe, ale także indywidualne decyzje liderów i wszystkich twórców i użytkowników cyfrowych innowacji. Potrzeba nam dziś ludzi gotowych zakwestionować status quo – podkreślała. Ale oprócz wyrazistych postaci, o których głośno w mediach, ważni są także cisi bohaterowie mający odwagę iść pod prąd i przeciwstawić się temu, co niezgodne z ich sumieniem. Bez tego, zdając się wyłącznie na korekty systemowe, utracimy nasze moralne ja.
Konferencję „Etyka technologii: kierunki, trendy, wyzwania. Gdzie jesteśmy? Dokąd zmierzamy?” objęły patronatem honorowym GovTech Polska oraz NASK. Partnerami wydarzenia byli: Abris Capital Partners, DELab UW, Ambasada Izraela w Warszawie oraz Centrum Mikser Inteligentnych Technologii Wydziału Zarządzania Uniwersytetu Łódzkiego. Patronami medialnymi konferencji były "Forum Akademickie" oraz magazyn i portal "ITWiz".