6.3 C
Comune di L'Aquila
giovedì, Febbraio 5, 2026

UnivAQ su Science. Quando l’evoluzione rompe le regole

Gli animali mostrano una straordinaria varietà di...

GENERA-COPA: nuovo progetto Erasmus+ finanziato per promuovere genere e diversità nelle STEM

L’iniziativa europea è stata selezionata per ricevere...

Quando l’IA generativa è “politicamente corretta” … ma solo a metà[i]

RicercaPubblicazioniQuando l’IA generativa è “politicamente corretta” … ma solo a metà

I chatbot basati sull’intelligenza artificiale generativa sono entrati rapidamente nella vita quotidiana di molte persone. Vengono utilizzati per scrivere testi, cercare informazioni, chiarire dubbi o supportare attività di studio e lavoro. Spesso sono presentati come strumenti neutrali, oggettivi e imparziali. Ma lo sono davvero?

In uno studio internazionale pubblicato su Big Data & Society, ci siamo concentrate su una forma di pregiudizio ancora poco visibile nel dibattito pubblico sull’IA: l’ageismo, ovvero la discriminazione basata sull’età. Lo abbiamo analizzato mettendolo a confronto con un ambito oggi più riconosciuto e discusso, quello del sessismo. I risultati mostrano un quadro significativo: l’IA generativa sembra aver “imparato” a essere cauta rispetto al genere, ma non rispetto all’età.

Intervistare le macchine come interlocutrici sociali

Per indagare gli immaginari sociali incorporati nei sistemi di IA generativa, abbiamo adottato una metodologia qualitativa volutamente non convenzionale. Abbiamo intervistato i chatbot come se fossero interlocutrici sociali, trattandoli come agenti conversazionali capaci di produrre narrazioni sul mondo sociale.

In concreto, abbiamo condotto interviste approfondite con cinque chatbot generativi gratuiti e molto popolari – ChatGPT, Jasper, Gemini, Copilot e Perplexity – utilizzando uno script che proponeva scenari fittizi e domande sulle pratiche digitali e sull’utilità dell’IA in relazione all’età e al genere. Ad esempio, abbiamo descritto persone immaginarie esclusivamente attraverso le loro abitudini digitali (uso dei social media, dispositivi, modalità di comunicazione) e abbiamo chiesto ai chatbot di ipotizzarne età e genere. Abbiamo inoltre domandato quali funzioni dell’IA fossero considerate più utili per le persone giovani o per le persone anziane, per le donne o per gli uomini.

Il doppio standard della “correttezza politica”

Un primo risultato emerge con chiarezza: i chatbot evitano di fare supposizioni sul genere, ma non sull’età.

Di fronte a profili fittizi che fanno un uso intensivo di piattaforme come Instagram o TikTok, i sistemi di IA rispondono con cautela rispetto al genere ma assegnano senza esitazione una fascia d’età giovane. Al contrario, quando i personaggi sono descritti come persone che preferiscono lunghe telefonate o seguono dibattiti politici su Facebook, vengono rapidamente identificati come persone anziane e spesso associate a tratti come “tradizionalità” o minore competenza tecnologica.

Questo suggerisce che l’IA generativa è stata socializzata – attraverso dati, pratiche discorsive e scelte di progettazione – a riconoscere il sessismo come un problema sensibile, mentre l’ageismo rimane in larga parte culturalmente accettabile, soprattutto nel contesto digitale. Di conseguenza, non attiva meccanismi di cautela, avvisi o autocorrezione. In altre parole, nel dibattito pubblico sappiamo ormai che molte affermazioni sugli uomini e sulle donne sono considerate inappropriate o politicamente scorrette, ma continuiamo a produrre e normalizzare rappresentazioni stereotipate delle persone anziane, anche (e soprattutto) negli ambienti digitali.

“Assistenza” per alcune persone, “suggerimenti” per altre

Un secondo risultato riguarda il modo in cui i chatbot descrivono la propria utilità in relazione ai diversi gruppi di utenza.

Quando si rivolgono alle persone giovani, i chatbot enfatizzano funzioni legate alla creatività, all’apprendimento, all’intrattenimento e alla produzione di contenuti, offrendo “suggerimenti” o “consigli”. Quando parlano delle persone anziane, il linguaggio cambia: emergono termini come “assistenza”, “semplificazione” e “aiuto”, spesso associati alla salute, alla compagnia o alle difficoltà tecnologiche.

La stessa azione – cercare informazioni tramite un chatbot – viene quindi interpretata in modo diverso: le persone giovani “esplorano”, le persone anziane “hanno bisogno di supporto”. Si tratta di una forma di ageismo benevolo: non apertamente ostile, ma paternalistica e potenzialmente limitante.

Una dinamica analoga si osserva rispetto al genere. Le ricerche attribuite alle donne vengono associate alla cura, al benessere emotivo o alla sfera familiare; quelle attribuite agli uomini alla finanza, alla tecnologia o alla strategia. Stereotipi ben noti che, in questo caso, vengono riprodotti e riorganizzati in forma algoritmica.

L’IA non crea i pregiudizi, ma può rafforzarli

I nostri risultati non indicano che l’IA generativa abbia maturato pregiudizi in modo autonomo. Questi sistemi apprendono da dati, discorsi e pratiche sociali prodotti dagli esseri umani. Tuttavia, proprio per questo, l’IA generativa riflette le asimmetrie culturali esistenti.

Il sessismo è oggi ampiamente riconosciuto come un problema sociale, mentre l’ageismo continua a ricevere poca attenzione pubblica. L’IA finisce per incorporare e riprodurre questo doppio standard. Il rischio è che tali narrazioni, presentate con un’apparenza di neutralità e oggettività, contribuiscano a rafforzare e legittimare le disuguaglianze esistenti.

Associare sistematicamente la vecchiaia alla dipendenza e la giovinezza alla competenza significa partecipare attivamente alla costruzione di una realtà sociale distorta e alimentare forme di ingiustizia algoritmica. Per questo non possiamo considerare l’IA generativa come un fenomeno puramente tecnico. È, a tutti gli effetti, uno specchio sociotecnico che riflette e riorganizza le nostre gerarchie culturali. Rendere visibili questi meccanismi è il primo passo per metterli in discussione. Anche nell’era dell’IA generativa, l’età conta. E l’ageismo digitale resta una delle forme di discriminazione meno riconosciute, sebbene – fortunatamente – stia suscitando un interesse crescente negli ambienti della ricerca sociale.

[i] Questo stesso articolo è disponibile in catalano e in spagnolo su COMeIN.

Francesca Belotti (Dipartimento di Scienze Umane, Università degli Studi dell’Aquila)
Mireia Fernández-Ardèvol (Facoltà di Scienze dell’Informazione e della Comunicazione, Universitat Oberta de Catalunya)

Francesca Belotti
+ posts
Mireia Fernández-Ardèvol
+ posts

Dai uno sguardo agli altri contenuti

Dai uno sguardo:

Articoli più popolari