En robot med politiska åsikter?

Du är inloggad men saknar aktiv prenumeration. Aktivera din prenumeration här!

Yttersta högern har länge anklagat ChatGPT för att generera texter som är vänstervridna. Men är det verkligen så?

Är ChatGPT kraftigt vänstervriden och extremt politiskt korrekt? Detta var exempelvis den högerradikala nätsajten Fria Tiders slutsats efter egna ”test” och slutsatser från en studie som kom nyligen. Men även en hel del tyngre medier hade apropå nämnda studie vinklar och rubriker i samma riktning – systemetically left-wing biased och liknande (exempelvis Sky News, Telegraph, Daily Mail). Medan tungviktare som Washington Post nöjde sig med liberal bias.

Här finns flera saker att fundera över.

De mer långtgående idéerna om ”vänstervriden”, ”PK” eller för den delen ”woke” är inget nytt som kom med den här studien. Aktörer på yttre högerkanten har under senare tid gjort det till en sport att misstänkliggöra de nya AI-chatbotarna. Förmodligen eftersom botarna har en del inbyggda etiska begränsningar (de är till exempel i regel inställda på att vägra komma med rasistiska svar), men också tenderar att svara korrekt på frågor som ytterhögern vill ha andra svar på. 

Exempelvis menar ChatGPT vanligen att klimatfrågan är viktig och kommer gärna med förslag på olika åtgärder. Forskningskonsensus är något man inom ytterhögern ofta tittar snett på. Många konspirationsteoretiker ogillar naturligtvis också mer välfungerande chatbotar, på samma vis som de avskyr traditionella medier eller gedigna Wikipedia-artiklar.

Detta är något Twitter/X-ägaren och ytterhögerns idol Elon Musk (med sina 155 miljoner följare) hakat på, han har sedan i våras sagt att han låter utveckla en ”sanningssökande TruthGPT”, som svar på ChatGPT som Musk menar att ”vänstervridna experter” lärt att ljuga. De etiska begränsningar som finns hos till exempel ChatGPT ska elimineras i denna variant. Och man blir ju nyfiken: ska den ge råd om hur man utför brott? Ska den tillåtas plädera för nazism eller folkmord? Ska den kunna skriva vad som helst om befintliga personer?

Det finns en mängd AI-etiska frågeställningar som gör sig påminda i sådana här fall. Fast redan i april kom en sådan där AI-chat utan alla säkerhetsbegränsningar, den ger dig gärna tips på allt från bombtillverkning till tortyrmetoder. Vad heter den? FreedomGPT, naturligtvis.

Vad kan man säga om den där nya studien som fått så mycket rubriker på sistone? Den är inte bra, eller snarare, den är riktigt dålig. Den är utförd på en daterad språkmodell som inte används av nuvarande ChatGPT. ChatGPT har trimmats av Open AI att inte uttrycka politiskt kontroversiella åsikter, och när andra forskare upprepat studiens test så vägrar GPT-4 i 84 procent av fallen att svara på just de frågor som ingick i studien, medan GPT-3.5 förvisso svarar oftare.

Sedan kan man i och för sig kringgå sådana här begränsningar med olika knep, som flervalsfrågor, men hur många använder sådana när de chattar med boten? I studien testades boten genom att man ställde många frågor i följd i samma prompt, utan att beakta att man på det viset styr den i olika riktningar. 

Själva ordningsföljden kan spela roll, en forskare upprepade studiens test och märkte att det tvärtom uppstod en ”konservativ bias” om man nämnde republikaner före demokrater i studiens lista av frågor. Ställer man många frågor i samma prompt kan ChatGPT till och med glömma bort vad det är den är tillsagd att göra.

Alla som lekt litet med ChatGPT har nog märkt att man kan manipulera den och få rätt olika svar på samma fråga, genom exempelvis ordval eller beroende på vad man skrivit tidigare i samma prompt. Men ChatGPT har ändå kommit en bit på vägen, många minns nog de problem man haft med sådana här språkmodeller. I våras kunde Googles Bard fortfarande lätt manipuleras till att skriva rena idiotier i ämnen som klimat, vaccin, Covid-19, konspirationer, Ukraina, hat mot HBTQ+, sexism, antisemitism och rasism.

Sedan är det inte alls omöjligt att det ändå kan uppstå en del mer systematisk bias i sådana AI-system. De är tränade på mängder av innehåll med alla möjliga ståndpunkter. ChatGPT säger inte vad den menar är sant, utan vad den uppfattar är det mest sannolika svaret på en fråga. Det skrivs mycket strunt på nätet, och det är där sådana här stora språkmodeller tränas. Men de tränas därmed naturligtvis också på seriöst innehåll, inte minst med vetenskaplig bäring. 

Om en chatbot svarar att en mer restriktiv vapenlagstiftning förmodligen skulle minska vapenvåldet i USA så går den i linje med forskningsläget, men kan därmed i sådana här studier också klassas som ”liberal”. Att trimma den så att den inte svarar korrekt på en sådan här fråga, för att undvika politisk bias, är knappast oproblematiskt. En viktigare fråga är kanske snarare ifall sådana här chatbotar tenderar att bli så mainstream-inriktade att de blir närmast oanvändbara om man vill ha kritiska perspektiv på verkligheten.



Synpunkter? Kommentarer? Kontakta oss!

Stöd journalistik som sparkar uppåt - Prenumerera eller donera!

Generaldirektör med sargat förtroende

Socialdemokraterna har förklarat att de nu saknar förtroende för Magnus Hjort, generaldirektören för MPF. Men redan i vintras väcktes frågor om Hjorts medverkan i Epoch Times.

Myten om det farliga Malmö

UGGLAN I MOSSEN. Är Malmö en av de farligaste städerna i världen? Och visste ni att Lund var världens mest kriminella stad 2017?

SD:s högerextrema dubbelmacka

Dagarna före EU-valet talar Jimmie Åkesson om att det pågår ett “folkutbyte” i Sverige. Ett begrepp han tidigare själv menade är nazistiskt. “Så, enligt Åkesson 2023 är Åkesson 2024 i det närmaste nazist”, skriver Mathias Cederholm.

Fake news om våldsamma demonstranter

En stor del av Sveriges medier, från Svt till högerpopulistiska nättidningar, spred under torsdagen uppgifter om att Palestinademonstranter i Lund kastat flaskor på en ambulans. ”Över hela vårt land ser vi nu att demonstrationerna har gått över en gräns”, sa utbildningsminister Mats Persson. Men inte en enda flaska kastades.