Siamo nell’era in cui la locuzione “intelligenza artificiale” sembra riassumere il futuro. In realtà è una cosa solo parzialmente nuova (e non solo per B-movies catastrofici) che come tutto sta velocemente progredendo. Parliamo di algoritmi che imparano da se stessi. Che “studiano” quello che gli diamo da studiare e raggiungono (affinando una serie di parametri su un codice scritto, finora, da mano umana) una livello di “conoscenza” nella loro mansione da far impallidire i Leonardo-Da-Vinci-che-non-ci-sono-più.
Una volta che il giochino funziona lo si mette alla prova negli ambiti più disparati. Lungi da me una lezione sul machine learning e sui campi di applicazione, mi ha incuriosito questo “esperimento“.
Sono stati fatti leggere ad una intelligenza artificiale (paziente, che non fa i capricci, ma che non ne trae neanche piacere) 3.5 milioni di libri (!). Tutti questi testi e tutte queste informazioni sono state fatte processare all’intelligenza con uno scopo ben preciso: scoprire se c’è una differenza tra i tipi di parole usati per descrivere uomini e donne. Avrei da ridire sullo scopo “riduttivo” dopo tutte le info (parliamo di qualcosa come più di 11.000.000.000 di parole…) che l’intelligenza ha evidentemente acquisito.
Il risultato che definirei inatteso, grottesco, un luogo comune, e-c’era-bisogno-di-un-computer, frutto non solo dei nostri tempi, un retaggio dei nostri tempi è più o meno che le parole usate per le donne si riferiscono molto più alla loro apparenza rispetto alle parole usate per descrivere gli uomini.
Abbiamo dato valenza statistica ad un sentimento (maschilista!) abbastanza diffuso. Abbiamo “confermato” una sorta di pregiudizi di genere anche nel linguaggio letterario. Devo però dire che la cosa mi puzza un po’ di “bias di conferma”; in fondo descrivere una donna anche per il suo aspetto estetico non vuol dire per forza sessismo… Ma la statistica questo aspetto non lo coglie (e non deve!). Gli algoritmi sono un insieme di istruzioni fisse che identificano, in questo caso, aggettivi maschili o femminili; se la fonte utilizza questi termini in maniera corretta o distorta l’algoritmo non lo coglie; i sistemi di intelligenza artificiale di adattano alle info date loro in pasto, non vanno oltre.
Ad oggi l’algoritmo (i ricercatori sono al lavoro per un upgrade) non distingue di certo i vari generi letterari, gli autori e le loro inclinazioni personali ed artistiche, non tiene conto del periodo storico in cui è stato scritto il libro ed in generale non contestualizza nulla dei milioni di libri che “legge”.
Per ottenere analisi più raffinate (come quelle che necessarie quando si chiede ad una macchina di entrare “nelle faccende umane”) bisogna sviluppare algoritmi più raffinati in grado di interpretare o ignorare il contesto delle parole ed allora si che si potrà avere conferma dei nostri stereotipi di genere e pregiudizi… che sono pronto a scommettere emergeranno.
WU
PS. Non so se in odore di ignobel.