Sztuczna inteligencja już dłuższą chwilę jest najpopularniejszym tematem w zakresie technologii. Ma ona sporo zalet, umożliwia i upraszcza wiele czynności i procesów. Jednak jest też sporo problemów spowodowanych narzędziami AI, takich jak fakenews’y, dezinformacja, łamanie praw autorskich czy nieuczciwe pozyskiwanie danych. Są już pierwsze pozwy sądowe przeciwko twórcom ChatGPT. Unia Europejska pracuje nad regulacjami prawnymi w postaci AI Act, który regulowałby używanie sztucznej inteligencji.

Rozgłos wokół AI dzięki narzędziu ChatGPT

AI to nowe zjawisko w przestrzeni społecznej. Jako społeczeństwo nauczyliśmy się jakoś żyć z mediami społecznościowymi, więc zapewne nauczymy się też żyć w świecie, gdzie sporo treści będzie tworzonych przez systemy sztucznej inteligencji. Ale żeby dobrze w nim funkcjonować, będziemy musieli się stać bardziej krytyczni wobec źródeł, z których czerpiemy treści. Na przykładzie social mediów widać, że na razie nie radzimy sobie z tym zbyt dobrze. Z drugiej strony AI może być z powodzeniem wykorzystywana do analizy wiarygodności informacji, więc z czasem pewnie jakoś to oswoimy.

– mówi Krzysztof Choroszko, członek zarządu Silver Bullet Solutions.

Sztuczna inteligencja ostatnimi czasy jest na takim topie głównie przez ChatGPT. Generatywną sztuczną inteligencję opracowaną przez laboratorium badawcze OpenAI i udostępnioną na rynku pod koniec zeszłego roku nazywają kamieniem milowym w rozwoju tej technologii. Po niecałych 3 miesiącach po debiucie ChatGPT naliczał ponad 100 mln użytkowników. Coraz popularniejsze staja się też Dall-E oraz Midjourney. Są to narzędzia AI generujące obrazy na podstawie poleceń tekstowych. Także uwagę przyciągają narzędzia AI stworzone przez gigantów IT – Bing AI od Microsoft oraz Bard od Google.

W przyszłości zarówno Bard, należący do potęgi, jaką jest Google, jak i ChatGPT, który był pierwszy i zdobył swój kawałek rynku, przynajmniej przez jakiś czas będą hegemonami i będą nadawać ton walce konkurencyjnej. Zwłaszcza że obie organizacje opracowały własne modele językowe. A opracowanie tak dużych modeli językowych nie jest dostępne dla każdej organizacji, biorąc pod uwagę zarówno nakłady techniczne, jak i intelektualne.

– mówi członek zarządu Silver Bullet Solutions.

Problemy pojawiające się przez używanie AI

Niestety używanie sztucznej inteligencji przynosi nie tylko korzyści. Im bardziej popularniejsze staja się narzędzia AI, tym więcej pojawia się problemów z nimi związanych. Wszystkie te narzędzie są wykorzystywane w ramach tzw. sztucznej twórczości (ang. artificial creativity). Przez to wiele firm zaczęło oferować usługi i aplikacje oparte na AI, gdyż to jest dostępne i proste. Jednak pojawiają się problemy i wątpliwości dotyczące praw autorskich.

Problemów z prawami autorskimi w obszarze AI jest kilka. Po pierwsze, już w tej chwili mamy informacje o pozwach twórców, którzy uważają, że ich dzieła zostały bezprawnie wykorzystane do treningu AI. Tak więc powstaje pytanie, które utwory można stosować do treningu modeli i czy istnieją możliwe do określenia „granice inspiracji” dla generowanych dzieł. Po drugie, w myśl polskich przepisów dzieło stworzone przez system AI nie jest uznawane za utwór w rozumieniu prawa autorskiego. I po trzecie, nie wiemy, co w przypadku naruszenia praw osób trzecich przez dzieło stworzone przez AI i kto powinien w tym przypadku ponieść odpowiedzialność.

wymienia Krzysztof Choroszko.

Kolejnym problemem spowodowanym przez sztuczną inteligencję jest zagrożenie dezinformacją i deep fake’ami. Następnym problemem jest to, w jakim celu użytkownicy korzystają z narzędzi AI: coraz więcej uczniów szkól i studentów uczelni wyższych masowo korzystają z AI do pisania esejów i prac zaliczeniowych. W związku z tym wiele jednostek kształcących musiało wprowadzić zmiany w zasadach zaliczania egzaminów.

Miesiąc temu w Stanach Zjednoczonych głośna była sprawa, w której prawnicy zostali ukarani przez sąd, ponieważ w ramach materiału dowodowego dostarczyli materiał wygenerowany przez AI, powołujący się na nieistniejące sprawy sądowe. Dlatego właśnie sądzę, że największym zagrożeniem jest to, że zaczniemy zbyt mocno polegać na wynikach pracy sztucznej inteligencji. Ważnym zagrożeniem jest również to, że dane użyte do uczenia modeli językowych mogą wpływać na wyniki w sposób dyskryminujący niektóre grupy społeczne.

mówi ekspert Silver Bullet Solutions.

Pierwsze sprawy w sądzie

W tym roku początkiem lipca pojawił się pierwszy pozew przeciwko OpenAI: kanadyjska pisarka Mona Awad i amerykański pisarz Paul Tremblay oskarżyli spółkę o wykorzystanie ich książki do trenowania ChatGPT i naruszenie ich praw autorskich. Autorzy zarzucili OpenAI nieuczciwe czerpanie zysków ze skradzionych tekstów i pomysłów. Także Awad i Tremblay w imieniu wszystkich autorów USA, których prace zostały rzekomo użyte do szkolenia narzędzia, wezwali firmę do odszkodowania finansowego. Pozew o podobnych zarzutach przeciwko OpenAI i Meta niedawno złożyli w amerykańskim sądzie kolejni autorzy – Christopher Golden, Richard Kadrey i komiczka Sarah Silverman.

Jak podkreśla ekspert Silver Bullet Solutions, kwestia uregulowania odpowiedzialności za błędy systemów AI czy ich nieprawidłowego wykorzystania będzie istotnym wyzwaniem.

Sądzę jednak, że odpowiedzialność za użycie narzędzia AI ponosi przede wszystkim użytkownik. Natomiast dostawcy takich rozwiązań powinni ponosić odpowiedzialność za ewentualne intencjonalne wypaczenie działania oferowanego rozwiązania AI, np. za tendencyjny dobór danych uczących. Ten obszar będzie bardzo trudny do uregulowania, ponieważ na ten moment nie do końca wiemy, jak zadziałała sieć neuronowa i które z miliardów parametrów dały określony wynik działania systemu AI. Odpowiedzialność za wykorzystywanie AI będzie nieco inaczej postrzegana przez europejski i amerykański system prawny, co wynika chociażby z różnego podejścia do prawa autorskiego i danych osobowych. Regulacje europejskie z pewnością ukierunkują rozwój i wykorzystanie mechanizmów sztucznej inteligencji zwłaszcza w obszarze praw autorskich, w zakresie których jesteśmy w Europie szczególnie wrażliwi.

podkreśla Krzysztof Choroszko.

Prawne uregulowanie stosowania narzędzi AI

Zdaniem eksperta Silver Bullet Solutions na dalszy rozwój tej technologii wpłyną niedługo dwa kluczowe wymogi prawne: wymóg informowania o tym, że dany utwór, obraz lub treść zostały wygenerowane przez AI oraz jakie źródła zostały wykorzystane do wytrenowania modelu językowego.

To z jednej strony utrudni dowolne tworzenie nowych modeli, a z drugiej umożliwi m.in. walkę z częścią fake newsów.

– przewiduje ekspert.

Takie wymagania zostały określone w unijnym Akcie o sztucznej inteligencji (AI Act). Ten dokument to pierwsza na świecie próba kompleksowego uregulowania prawnego systemów sztucznej inteligencji i ich zastosowań oraz ograniczenia ich negatywnych skutków. W przyszłości to uregulowanie prawne ma wywrzeć duży wpływ nie tylko na rozwój tej technologii, ale i dotyczące jej ustawodawstwo w krajach poza Unią Europejską.

Ta regulacja skupia się na ograniczeniu ryzyk związanych z wykorzystaniem AI, czyli wprost zakazuje pewnych jej zastosowań, np. w obszarze predykcji zachowań dla organów ścigania. Nakazuje też oznaczanie utworów stworzonych przez sztuczną inteligencję. AI Act dotyczy jednak tylko jej komercyjnych zastosowań.

mówi Krzysztof Choroszko.

W dokumencie systemy AI zostały podzielone na 4 kategorii pod względem ryzyka, które wiąże się z ich wykorzystaniem: minimalne, niskie, wysokie i nieakceptowalne ryzyko. Do tego ostatniego zalicza się np. wykorzystanie technologii biometrycznych do identyfikacji i kategoryzacji ludzi. Co ciekawe, na systemy AI niskiego ryzyka również nałożono pewne wymogi odnośnie transparentności, aby użytkownik mógł rozpoznać, że korzysta z tej technologii.

AI Act został w czerwcu br. przyjęty przez Parlament Europejski. Dokument ten spowodował niezadowolenie Google i Facebook na tyle, że Google np. odwołał premierę Barda na terenie krajów UE. AI Act nie ma jeszcze wersji ostatecznej, ponieważ kolejny krok to negocjacje z Radą i państwami członkowskimi UE. Celem jest wypracowanie porozumienia dotyczącego ostatecznego kształtu tej regulacji do końca tego roku.

Źródło: Agencja Informacyjna Newseria.