W celu świadczenia usług na najwyższym poziomie stosujemy pliki cookies. Korzystanie z naszej witryny oznacza, że będą one zamieszczane w Państwa urządzeniu. W każdym momencie można dokonać zmiany ustawień Państwa przeglądarki. Zobacz politykę cookies.
Powrót

Pułapki związane z wykorzystywaniem sztucznej inteligencji – jak unikać zagrożeń?

06.03.2025

Sztuczna inteligencja (AI) przynosi wiele korzyści – zwiększa efektywność, automatyzuje zadania, wspiera podejmowanie decyzji i umożliwia analizowanie dużych zbiorów danych. Jednak niewłaściwe korzystanie z AI może prowadzić do poważnych problemów, takich jak błędne decyzje, naruszenia prywatności, stronniczość, a nawet oszustwa i cyberzagrożenia. Aby minimalizować ryzyko, warto znać najczęstsze błędy związane z użyciem sztucznej inteligencji i stosować sprawdzone sposoby ich unikania.

Napis po prawej stronie Pułapki związane z wykorzystywaniem AI. Po lewej grafika z literą A

Generatywne AI (GenAI)

Autorzy: Małgorzata Krasny – Szyszkiewicz (CERT PSE), Daniel Kalinowski (TLBC), Katarzyna Rosińska

Generatywna sztuczna inteligencja (GenAI) to poddziedzina sztucznej inteligencji (AI), która tworzy oryginalne treści, takie jak tekst, kod źródłowy, obrazy czy muzykę. Skupia się na prowadzeniu rozmowy w języku naturalnym. Takie generatywne AI określane jest mianem "dużego modelu językowego" (ang. Large Language Model, LLM), który znajduje rozwiązania dla szerokiego zakresu złożonych problemów. Konwersacja z użytkownikiem polega na generowaniu odpowiedzi na zapytania (tzw. prompt), które mogą przybierać formę treści, zaleceń, podsumowań, transkrypcji spotkań lub wątków e-mailowych, organizowania tabel danych, prognoz, wniosków, grafiki czy wideo.

Generatywna AI analizuje duże ilości danych tekstowych, identyfikuje wzorce językowe, rozpoznaje kontekst i uczy się. Wykorzystuje tę analizę do generowania odpowiedzi na polecenia, przewidując najbardziej prawdopodobne kolejne słowo. Modele LLM nie pełnią jedynie funkcji wyszukiwania informacji – wykorzystują swoją wiedzę (w tym źródła dostępne w Internecie) do generowania nowych pomysłów lub proponowania rozwiązań problemów.

Jednak stosowanie takich algorytmów wiąże się z pewnymi ryzykami. W artykule omawiamy wybrane ryzyka związane z generatywną AI i podpowiadamy, jak unikać najczęstszych pułapek wynikających z jej niewłaściwego użycia. 

Pułapka 1: Niewłaściwie sformułowany promt

Prompty to zapytania, instrukcje, zadania, które użytkownik wpisuje oczekując pomocy lub odpowiedzi od Generatywnej AI. Ważne jest, aby były one jak najlepsze, dzięki czemu odpowiedź będzie najlepsza. 

Jak formułować zapytania – skuteczne prompty

Polecenia to instrukcje lub pytania, które służą do poinformowania modelu o potrzebach. Należy pamiętać o kilku zasadach: 

  • Cel: Określić krótko i w jasny sposób, czego się potrzebuje (streszczenia, wykresu, instrukcji, treści postu, komunikatu itp.).
  • Kontekst: Opisać krótko sytuację, której ma dotyczyć odpowiedź, unikać bardzo ogólnych zapytań (np. napisz mi podziękowanie). Gdy dodanie kontekstu wymaga złożonego opisu, podzielić go na części. Modele mogą mieć trudności z rozumieniem słów wieloznacznych, np. "zamek". Rozwiązaniem może być napisanie prompta w języku angielskim.
  • Oczekiwania: Określić, czego się oczekuje, jak długiej odpowiedzi, dla kogo ma być przeznaczona, jakim językiem napisana (formalnym, żartobliwym itp.), unikać żargonu i języka charakterystycznego dla określonych grup społecznych (np. młodzieżowego).
  • Ograniczenia: Podać, czego AI nie ma robić.
  • Źródło: Jeśli możliwe, zasugerować informacje lub przykłady, z których narzędzie może skorzystać.
  • Rozwinięcie: Nie traktować pierwszej odpowiedzi jako ostatecznej, podejść interaktywnie - dopytywać, dodawać wskazówki, prowadzić rozmowę z modelem.
  • Unikać sprzecznych instrukcji.

Pułapka 2 - Bezpieczeństwo danych

Należy pamiętać, że korzystając z narzędzi bezpłatnych, płaci się za nie danymi, które do nich wprowadzane. Dane te mogą zostać upublicznione, a modele mogą wykorzystywać je do uczenia się. Niestety, nie ma pewności, że modele płatne tego nie robią. Większość dużych firm technologicznych zapewnia, że korzystając z ich narzędzi w wersji płatnej, dane są bezpieczne. Ponieważ jednak ten obszar technologiczny nie jest wystarczająco uregulowany, zaleca się daleko idącą ostrożność i ograniczone zaufanie podczas pracy z AI. Zawsze należy pamiętać, że to, co wpisane w prompcie lub zawarte w dokumencie, który ma zostać przeanalizowany przez model, może pojawić się w Internecie na publicznie dostępnych stronach.

Przykładowo, nie należy w prompcie używać następujących danych i informacji:

  • danych osobowych np. rzeczywistych imion i nazwisk, nr PESEL, adresów,
  • wizerunków np. zdjęć dzieci, klientów, pracowników,
  • informacji objętych tajemnicą handlową (na przykład w kontraktach),
  • utworów, które chronione są prawem autorskim,
  • wprowadzenia „do poprawy” produkcyjnego kodu źródłowego, w tym zwłaszcza kodu zawierającego hasła, klucze dostępu, identyfikatory,
  • zdjęć pomieszczeń domu, biur w pracy.

Bezwzględnie należy przestrzegać zaleceń instytucji lub firmy w zakresie używania konkretnych narzędzi GenAI. W wielu przypadkach narzędzia udostępniane przez pracodawcę są sprawdzone, a z dostawcą podpisana jest umowa, zapewniająca ochronę wprowadzanych do narzędzia wrażliwych danych.

W przypadku korzystania z narzędzi darmowych lub zakupionych prywatnie, należy stosować się do powyższych zaleceń i usuwać z treści zapytań oraz dokumentów, do których ma mieć dostęp AI, wszelkie wrażliwe informacje.

Pułapka 3 - Źródło aplikacji

Należy upewnić się, że aplikacja, z której się korzysta, jest jej oryginalną wersją. Cytując klasyka: wszystko, co oryginalne, jest lepsze. Dotyczy to również aplikacji. W sieci i sklepach aplikacji mobilnych można znaleźć podróbki popularnych (ale i mniej znanych) aplikacji, które mogą stanowić zagrożenie dla prywatności i bezpieczeństwa użytkownika. Często podrobione wersje są promowane i mają łudząco podobne ikonki aplikacji. Aplikacje należy pobierać tylko z oficjalnych źródeł. Warto sprawdzić opinie osób, które pobrały aplikację przed nami. Jeśli aplikacja jest podróbką, inni użytkownicy z pewnością o tym wspomną. Należy zwrócić uwagę na organizację, która opublikowała aplikację, oraz liczbę jej pobrań.

Pułapka 4 - Nieprawidłowe odpowiedzi

Aplikacje oparte na AI często korzystają ze źródeł otwartych, co oznacza, że generują odpowiedzi na podstawie najpopularniejszych miejsc w Internecie. Może to prowadzić do biasowania, czyli stronniczości odpowiedzi, tendencyjności, uprzedzeń i opierania się na stereotypach reprezentowanych w sieci, a nie na obiektywnych faktach i rzetelnej wiedzy. Model może również halucynować, czyli udzielać odpowiedzi niezgodnych z prawdą. Zwykle wynika to z faktu, że dane, na których model był trenowany, były błędne, niewystarczające lub niedoskonałe. Dlatego warto sprawdzić źródło, z którego AI korzystała udzielając odpowiedzi, a także zweryfikować tę odpowiedź, korzystając np. z popularnej wyszukiwarki.

Pułapka 5 - Deepfake i oszustwa

Narzędzia oparte na AI wykorzystywane są nie tylko do wsparcia pracy, nauki i rozrywki, lecz również do szerzenia dezinformacji czy przygotowywania cyberataków. Dzięki AI przygotowanie wideo, które oczerni popularną osobę, czy stworzenie maila phishingowego, który nakłoni odbiorcę do podania danych logowania, np. do banku, staje się coraz prostsze. Oznacza to, że z dużą rozwagą należy podchodzić do tego, co widzi się w sieci, oraz do tego, co przychodzi na skrzynki mailowe. Korzystanie z nowych technologii to duże ułatwienie, atrakcja, wsparcie, ale także odpowiedzialność.

Podsumowanie: Jak bezpiecznie i odpowiedzialnie korzystać z narzędzi AI

Aby czuć się pewnie w świecie nowych technologii, warto być na bieżąco z nowościami i zagrożeniami. Kluczowa jest edukacja oraz szkolenia dotyczące bezpiecznego korzystania z AI. Warto weryfikować informacje generowane przez AI, szczególnie te, które wpływają na decyzje biznesowe. Należy wybierać narzędzia AI oferujące transparentność, sprawdzać producenta i politykę prywatności, a także śledzić zmiany w dokumentach dotyczących danych.

Warto dbać o ochronę danych i przestrzegać zasad prywatności. AI powinno pomagać ludziom, a nie zastępować ich myślenie. Korzystanie z AI daje wiele korzyści, ale wymaga ostrożności i świadomości zagrożeń. W razie wątpliwości najlepiej używać sprawdzonych narzędzi i stosować zasadę ograniczonego zaufania.

Nieostrożne korzystanie z generatywnej AI może prowadzić do wycieku danych oraz powodować poważne konsekwencje prawne dla firm i instytucji.