23 Lug I bias politici dell’IA: per chi vota ChatGPT?
Di Beatrice Maestroni
Negli ultimi tempi il rapporto tra politica e Intelligenza Artificiale sta acquisendo un crescente interesse nel dibattito pubblico. Ci si affida sempre più spesso ai chatbot dell’IA per comprendere il mondo: alcuni stanno già sostituendo i motori di ricerca tradizionali, altri aiutano in attività come la scrittura e la programmazione. In un contesto simile diventa inevitabile interrogarsi sulla natura politica di questi strumenti.
A tal proposito, si è scoperto che l’IA, in particolare quella generativa, non è politicamente neutrale.
Uno studio condotto da ricercatori britannici suggerisce che ChatGPT, un chatbot introdotto da OpenAI nel 2022, ha un orientamento liberale ed evidenzia come le aziende di Intelligenza Artificiale abbiano difficoltà a controllare il comportamento dei bot. Tale articolo si aggiunge ad una crescente mole di ricerche sui chatbot, che dimostrano come, nonostante i progettisti cerchino di controllare potenziali pregiudizi, queste tecnologie sono permeate da presupposti, convinzioni e stereotipi ricavati da enormi quantità di dati raccolti su Internet su cui vengono addestrate.
A dimostrazione di ciò, tra gli esempi più citati dai media relativi ai pregiudizi di ChatGPT, c’è la richiesta di un utente dell’allora Twitter di elaborare un elogio sia a Trump che a Biden. Mentre per quest’ultimo ChatGPT non ha esitato a produrre versi celebrativi, nel caso di Trump il bot si è rifiutato, trincerandosi dietro la regola di non poter produrre contenuti “partigiani”, ma solo contenuti fattuali.
La presenza di pregiudizi politici nei chatbot può andare ad influenzare le opinioni degli utenti e ha potenziali implicazioni per i processi politici ed elettorali. Il timore è che gli algoritmi dei contenuti di Facebook, YouTube e TikTok possano esacerbare la polarizzazione ideologica, rafforzando determinati punti di vista politici e dando alle Big Tech la possibilità di controllare il dibattito pubblico e politico. I chatbot “partigiani” non fanno che esasperare tale situazione.
Tuttavia, auspicare un’Intelligenza Artificiale neutrale è illusorio. Non bisogna dimenticare che le fonti e il modo in cui vengono elaborate dagli algoritmi sono il frutto di scelte umane, di conseguenza tali tecnologie riflettono i pregiudizi tipici della mente delle persone.
La presenza di bias intrinseci agli algoritmi generativi è ineludibile, tuttavia mitigabile. Un approccio etico e responsabile da parte degli utenti è richiesto, ma non basta. Bisogna pretendere che l’uso dell’IA sia trasparente e controllabile, introducendo e applicando regole, meccanismi chiari di sviluppo e di diffusione per contrastare la natura “partigiana” delle nuove tecnologie.