Te võite tunda kedagi, kes arvab, et Kuu maandumine oli võltsitud või et COVID-19 vaktsiinid on täis mikrokiipi. Usklikud inimesed klammerduvad visalt selliste vandenõuteooriate külge, millel on tegelikkuses vähe alust, isegi siis, kui neile esitatakse vastupidiseid tõendeid. Kuid täna ajakirjas Science avaldatud uurimuse kohaselt muudavad mõned inimesed oma arvamust, kui faktidel põhinevaid argumente esitab teise inimese asemel tehisintellekti (AI) juturobot. Isikupärastatud vestlused selle „debunkroboti“ abil võivad muuta isegi hardcore vandenõuteoreetikud algavateks skeptikuteks, teatavad teadlased.
„See on tõesti paljutõotav, kuidas tehisintellekt võib mängida rolli väärinfo ja vandenõuteooriate vastu võitlemisel,“ ütleb Jan-Willem van Prooijen, Amsterdami Vaba Ülikooli käitumisteadlane, kes ei osalenud uues uuringus. Generatiivne tehisintellekt on tuntud valeandmete levitamise poolest, eelkõige võltsingute kasutamise kaudu, seega on van Prooijeni arvates „värskendav“ näha, et seda kasutatakse hea eesmärgi nimel.
Olgu selleks siis uskumus, et CIA mõrvas endise presidendi John F. Kennedy või et Area 51's asuvad tulnukate laibad, peaaegu pool USA elanikkonnast usub mõnede hinnangute kohaselt ühte või teise vandenõuteooriasse. Paljud psühholoogid arvavad, et need uskumused aitavad rahuldada psühholoogilisi vajadusi, nagu näiteks turvatunne. Kuid hüpoteese selliste „maa-aluste motiivide“ kohta on raske testida, ütleb Thomas Costello, Ameerika Ülikooli psühholoog ja uue uuringu juhtivautor. Uued leiud annavad „ühe esimese tõendi selle kohta, et need ei ole kogu lugu,“ ütleb ta, „või võib-olla on need hoopis täiesti valed“.
Reaalses elus vandenõude üle arutledes püüavad usklikud sageli eitajate ülekaalu saavutada, esitades kiiresti võimalikult palju argumente - see on nn Gish galopi tehnika. Kui ükski inimene ei suuda kõiki neid väiteid korraga käsitleda, siis tehisintellekti programm võiks seda teha. Costello ja tema kolleegid tahtsid teada, kas suured keelemudelid (LLM), nagu GPT-4 Turbo, mis töötlevad ja genereerivad sekundite jooksul tohutuid koguseid teavet, suudaksid vandenõuteooriaid ümber lükata, mida Costello kirjeldab kui „kohandatud veenmist“.
Töörühm värbas rohkem kui 2000 osalejat, kes tunnistasid usku vähemalt ühte vandenõuteooriasse, mida nad defineerivad kui usku, et olulised sündmused või olukorrad - Kennedy mõrv või COVID-19 pandeemia - olid salaja korraldatud võimsate inimeste või organisatsioonide poolt. Seejärel panid nad need inimesed osalema lühikeses vestluses LLMi juturobotiga. Iga inimene jagas tehisintellektiga seda, mida ta usub, tõendeid, mis tema arvates seda toetavad, ja hindas, kui kindel ta on, et teooria on tõene. Vestlusrobot, mis oli koolitatud mitmesuguse avalikult kättesaadava teabe põhjal, mis pärines raamatutest, veebiaruteludest ja muudest allikatest, lükkas iga väite ümber konkreetsete, faktidel põhinevate vastuargumentidega. Need vestlused vähendasid inimeste usaldust vandenõuteooriate vastu keskmiselt 20% võrra.
See vähenemine oli märkimisväärselt püsiv, kestes kuni 2 kuud, ja see näis toimivat väga erinevate teooriate puhul. „See, et see toimis nii kaua, on see, mis mulle silma jäi,“ ütleb Ethan Porter, George Washingtoni ülikooli politoloog ja desinformatsiooniuurija, kes ei osalenud uuringus.
Van Prooijen põhjendab debunkboti edu osaliselt sellega, et see jääb „väga viisakaks“, samas kui inimeste vestlused sarnastel teemadel võivad kergesti muutuda „tuliseks ja lugupidamatuks“. Ja kui keegi võib muretseda, et sõbrad või pereliikmed mõistavad tema üle kohut oma veendumuste muutmise pärast, siis tehisintellekti mudeli ees on võimatu „nägu kaotada“, lisab ta.
Kui Costello ja tema kolleegid kordasid oma eksperimenti vestlusroboti abil, mis tegeles osalejatega, kuid ei sõnastanud faktidel põhinevaid vastuargumente, ei näinud nad mingit mõju, mis viitab sellele, et tõendite esitamine oli kriitiline. „Ilma faktideta ei saanud see oma tööd teha,“ ütleb Costello.
Siiski võib kaasnev retoorika olla veenmise seisukohalt kriitilise tähtsusega, ütleb Zürichi ülikooli desinformatsiooniuurija Federico Germani. Ta selgitab, et kuna elukutselised õpetavad tegelikke vestlusi, võtavad nad üles peened retoorilised strateegiad, mis muudavad nende argumendid veenvamaks isegi siis, kui üleskutse on andnud neile korralduse tugineda üksnes faktidele. „Tõenäoliselt alahindavad autorid seda, et ridade vahel oskab tehisintellektuaal väga hästi manipuleerida,“ ütleb ta.
Kuigi vandenõuteoreetikud tõenäoliselt vabatahtlikult debunkbotiga ei tegele, märgivad Germani ja Van Prooijen, et tehisintellekt võib potentsiaalselt toetada olemasolevaid tehnoloogilisi vastuseid. Paljudel sotsiaalmeedia saitidel on juba olemas strateegiad võimaliku väärinfo märkimiseks, näiteks X-i kogukonna märkuste funktsioon, ja see uus mudel võiks pakkuda täiendavat teavet selle ümberlükkamiseks.
Samuti võiksid inimesed kasutada debunkbotit, et kiiresti ja põhjalikult kontrollida fakte, mida nad on kuulnud, kasvatades sellega tervislikku skeptitsismi ja vähendades tõenäosust, et nad tulevikus valeinfo küülikuauku langevad, märgib Costello. „Neid vestlusroboteid võib pidada peaaegu et episteemiliseks hügieeniks,“ selgitab ta, “nagu hambaid peseksite, kuid teie mõistuse jaoks.“
Lisateave: https://www.science.org/content/article/ai-chatbot-shows-promise-talking-people-out-conspiracy-theories
