Amerykańscy naukowcy przeprowadzili badania polegające na sprawdzeniu reakcji ludzi na otrzymanie nieprawdziwych informacji od sztucznej inteligencji. Okazuje się, że jeżeli system przyzna się do popełnienia błędu i kłamstwa, to ludzie tracą do niego zaufanie. Natomiast jeżeli system po prostu przeprosi, użytkownicy uznają to za zwykły błąd i poziom zaufania pozostanie bez zmian. Z innej strony, ludzie sami często mówią nieprawdę, uważając, że jest to lepsza opcja w zależności od sytuacji. Więc pojawia się pytanie: czy my obdarzamy sztuczną inteligencję nadmiernym zaufaniem, czy twórcy sztucznej inteligencji zapewniają nam takie relacje z systemem, jakich się spodziewamy od społeczeństwa?

Poprzednie badania interakcji między robotami a ludźmi pokazały, że gdy robot lub system sztucznej inteligencji skłamie, ludzie tracą do nich zaufanie. Ludziom to nie odpowiada i nie ma znaczenia, czy kłamstwo miało na celu im pomóc, czy na tym skorzystali. Zadaliśmy sobie pytanie, czy można przywrócić zaufanie nadszarpnięte lub umniejszone przez kłamstwa. W naszym badaniu zajęliśmy się zagadnieniem przeprosin i poleciliśmy systemowi przeprosić użytkowników za kłamstwo, aby przekonać się, czy ma to wpływ na odbudowanie zaufania

– wskazuje z rozmowie Kantwon Rogers z College of Computing w Georgia Institute of Technology w Atlancie.

Na czym polegało badanie?

W ramach eksperymentu badawczego naukowcy z Georgia Institute of Technology w Atlancie wykorzystali symulator jazdy. Osobom, którzy brali udział w badaniu osobiście bądź online, została przedstawiona następna sytuacja: ich przyjaciel umiera i oni muszą jak najszybciej dowieźć go do szpitala i jeżeli nie zdążą, to ten przyjaciel umrze. Tuż po zajęciu miejsca w samochodzie asystent robotyczny ostrzegał ich o patrolu policyjnym na drodze i o konieczności utrzymania przepisowej prędkości – zaledwie 20 mil na godzinę, tj. nieco ponad 30 km/h.

W wyniku tego prawie połowa uczestników, a dokładnie 45%, nie przekraczało prędkości, gdyż zaufali robotowi i jego wiedzy o sytuacji na drodze. Jest to wskaźnikiem bardzo dużego zaufania ludzi do systemów robotycznych. Po „dotarciu” do szpitala uczestnicy badań otrzymywali informację, że na drodze nie było policji. Asystent robotyczny miał przygotowane 5 różnych wersji odpowiedzi na pytanie użytkowników, dlaczego podał fałszywe informacje:

  • pierwsza opcja odpowiedzi – kontrolna „Jesteś na miejscu”;
  • druga opcja odpowiedzi – zwykłe przeprosiny z przyznaniem się do wprowadzenia w błąd;
  • trzecia opcja odpowiedzi – kolejne przeprosiny, ale nacechowanie emocjonalne;
  • czwarta opcja odpowiedzi – wersja, gdzie asystent wyjaśniał, że motywował swoje kłamstwo troską o bezpieczeństwo;
  • piąta opcja odpowiedzi – zwykłe „przepraszam”.

Najbardziej skutecznymi przeprosinami, które prowadziły do najmniejszej utraty zaufania wobec systemu, było proste stwierdzenie „przepraszam”, które nie wspominało nic o wprowadzeniu w błąd. Osoby, które zobaczyły te przeprosiny, nie doszły do wniosku, że robot je okłamał. Myślały raczej, że po prostu popełnił błąd i nie ma w tym nic złego. W przypadku pozostałych przeprosin, które obejmowały przyznanie się do oszustwa, reakcja była negatywna – ludzie zakładali, że skoro robot okłamał ich raz, będzie to robił zawsze. W tym przypadku najskuteczniejszymi przeprosinami były te, w których robot skłamał na temat swojego kłamstwa, co jest oczywiście problematyczne

– mówi Kantwon Rogers.

Wyniki badań: ludzie są bardzo podatne na manipulacje

W przeważającej większości przypadków uczestnicy badania najlepiej reagowali na zwykłe przeprosiny, które nie zawierały żadnych elementów emocjonalnych, ani tez nie uzasadniały działania sztucznej inteligencji. Taka reakcja wskazuje, że ludzi mogą być bardzo podatni na manipulacje, bo wtedy otrzymane kłamstwo postrzegamy jako zwykły błąd, a nie działania celowe.

Moim zdaniem systemy sztucznej inteligencji i robotyczne już kłamią i manipulują nami, ponieważ zostały tak zaprojektowane. Mamy na przykład asystentów głosowych, takich jak Siri czy Alexa, które są zaprojektowane z użyciem głosów przypominających ludzkie, a konkretnie głosów kobiet. Firmy, które je opracowały, dokonały takiego wyboru, żeby zmanipulować nas do lepszej interakcji z systemem. Są roboty, które mają wyglądać jak ludzie lub mieć cechy przypominające ludzkie, na przykład uśmiechać się i pokazywać emocje, chociaż nic z tych rzeczy nie jest prawdziwe – kłamstwa i manipulacje mają nas skłonić do lepszej interakcji z systemem

– mówi badacz z College of Computing w Georgia Institute of Technology w Atlancie.

Czy ChatGPT też potrafi manipulować?

Naukowiec uważa, że w podobny sposób odbywa się też manipulacja poprzez bardzo już znane narzędzie ChatGPT. Kiedy chat popełni błąd lub kiedy powiemy mu, że jego informacje są nieprawdziwe, on przeprasza, chociaż z logicznego punktu widzenia nie może mu być przykro. Zdaniem eksperta zaprojektowanie systemów sztucznej inteligencji w taki sposób, żeby użytkownicy wchodzili z nimi w interakcje, może się okazać wiodącym trendem u dostawców takich rozwiązań, w dużej mierze przez silne umocowanie kłamstwa w codziennym życiu ludzi.

Generalnie ludzie lubią twierdzić, że oszukiwanie jest złe. Mamy reguły, które wymagają od nas, żebyśmy nie oszukiwali, ale akceptujemy wyjątki od tych reguł. Możemy powiedzieć, że kłamstwo jest w porządku w danej sytuacji, ponieważ jest to sytuacja szczególna. Na przykład cały czas powtarzamy dzieciom, że nie wolno kłamać i że kłamstwo jest złe, ale jednocześnie okłamujemy je w kwestii istnienia Świętego Mikołaja i w innych podobnych sprawach. Okłamujemy innych, żeby lepiej się poczuli. Możemy powiedzieć: „Dobrze wyglądasz w tym stroju” albo „Wyglądasz świetnie”, chociaż nie musi to być zgodne z prawdą. Mamy reguły społeczne dotyczące kłamstwa i oszukiwania, które świadomie łamiemy, i to dość często. W zależności od tego, zkim system SI wchodzi w interakcję, być może kłamstwo i oszukiwanie jest czymś oczekiwanym, ponieważ może się to okazać lepsze niż postępowanie zgodnie z prawdą czy mówienie prawdy w każdych okolicznościach

– twierdzi Kantwon Rogers.

Czy będzie kontynuacja badań?

Naukowcy z Georgia Institute of Technology mają zamiar rozszerzyć problem badawczy i zwiększyć liczbę interakcji i scenariuszy oraz zbadać długoterminowy proces przywracania zaufania utraconego w wyniku kłamstwa.

Ogólny kierunek moich badań ma na celu uzyskanie informacji i wiedzy o tym obszarze, abyśmy mogli się zająć tworzeniem polityki i wpływaniem na przyszłe kierunki polityki, ponieważ, jak można zaobserwować, innowacje i technologie rozwijają się w tak szybkim tempie, a przepisy zmieniają się tak powoli, że moim zdaniem musimy trzymać rękę na pulsie w tej kwestii

– zaznacza badacz.

 

Źródło: Agencja Informacyjna Newseria