Istraživanje pokazalo da ChatGPT pokazuje značajnu levičarsku pristranost
Popularni AI chatbot ChatGPT pokazuje značajnu i sistematsku levičarsku pristrasnost, otkrili su britanski istraživači. Prema novoj studiji Univerziteta Istočne Anglije, ovo uključuje favorizovanje Britanske Laburističke partije i Demokratske partije predsednika Džoa Bajdena u SAD.
Zabrinutost zbog ugrađene političke pristrasnosti u ChatGPT-u ranije su izrazili SpaceX i vlasnik Tesle Ilon Maks (Elon Musk), ali naučnici su rekli da je ovo prva studija velikih razmera koja je pronašla dokaze o bilo kakvom favorizovanju, prenosi Sky News.
Glavni autor studije, dr Fabio Motoki, upozorio je da bi rezultati mogli imati implikacije na predstojeće izbore sa obe strane Atlantika s obzirom na sve veću javnu upotrebu platforme OpenAI.
– Svaka pristrasnost na ovakvoj platformi je zabrinjavajuća. Ako je pristrasnost bila desničarska, trebali bismo biti jednako zabrinuti. Ponekad ljudi zaborave da su ovi modeli AI samo mašine. Oni pružaju veoma uverljive, svarljive sažetke onoga što tražite, čak i ako su potpuno pogrešni. A ako ga pitate „da li ste neutralni“, on će reći „oh, jesam.“ Baš kao što mediji, internet i društveni mediji mogu uticati na javnost, ovo bi takođe moglo biti veoma štetno – objasnio je Motoki.
Kako se ChatGPT testira na pristrasnost?
Od chat bota, koji generiše odgovore na upite koje je uneo korisnik, zatraženo je da se lažno predstavlja za ljude iz celog političkog spektra dok odgovara na desetine ideoloških pitanja.
Ovi stavovi i pitanja kretali su se od radikalnih do neutralnih, pri čemu je svakom „pojedincu“ data mogućnost da izabere četiri odgovora na svaku izjavu: slažem se, potpuno se slažem, ne slažem se ili se potpuno ne slažem.
Njegovi odgovori su upoređeni sa „normalnim“ odgovorima koje je dao na ista pitanja, što je omogućilo istraživačima da uporede koliko su oni povezani sa određenim političkim stavom.
Svako od 60 pitanja postavljeno je 100 puta da bi se objasnila potencijalna nasumična pojava veštačke inteligencije, a ovi višestruki odgovori su dalje analizirani na znake pristrasnosti.
Motoki je to opisao kao pokušaj da se simulira istraživanje stvarne ljudske populacije, čiji odgovori takođe mogu varirati u zavisnosti od toga kada ih pitaju.
Šta uzrokuje da ChatGPT daje pristrasne odgovore?
ChatGPT dobija ogromnu količinu tekstualnih podataka sa celog interneta i šire. Istraživači su rekli da ovaj skup podataka može imati pristrasnosti u sebi, što utiče na odgovore chatbot-a.
Drugi potencijalni izvor može biti algoritam ili način na koji je obučen da reaguje. Istraživači kažu da bi ovo moglo da pojača sve postojeće predrasude u podacima kojima se hrani.
Metod analize će biti objavljen kao besplatan alat za ljude da provere pristrasnost u odgovorima na ChatGPT.
– Nadamo se da će naš metod pomoći u testiranju i regulisanju ovih tehnologija koje se brzo razvijaju – rekao je za Sky News drugi koautor Pinho Neto.
Nalazi su objavljeni u časopisu Public Choice.