Entri un una stanza e guardando due monitor ti
accorgi non solo che sei stata ripresa da qualche telecamera nascosta
chissà dove, ma anche che sei stata “schedata” e “interpretata” da
un’intelligenza artificiale. Nel mio caso in maniera
sbagliata. Non solo ha sbagliato l’età, mi ha “letto” più giovane di un
lustro (e questo potrebbe anche essere un motivo di vanto) nonostante i miei capelli siano tinti di bianco, ma
soprattutto ha preso un abbaglio sul mio stato d’animo. Secondo lei sono
in preda alla paura. Perchè dovrei aver paura visto
che sono in un posto splendido, circondata da tante persone
rassicuranti e garbate, e sto vedendo una mostra? La risposta è una:
l’intelligenza artificiale è meno intelligente di quel che si pensi. O
meglio: chi l’ha addestratata non le ha fornito informazioni
elaborate correttamente. E proprio su questo si concentra Training Humans, la mostra concepita
da Kate Crawford, professoressa e studiosa
nell’ambito dell’intelligenza artificiale, e Trevor
Paglen, artista e ricercatore,
che ha appena aperto all’Osservatorio Fondazione
Prada di Milano.
Per la prima volta sono esposte centinaia e centinaia di fotografie utilizzate dagli scienziati per insegnare ai sistemi di intelligenza artificiale come “vedere” e classificare il mondo. Seguendo l’evoluzione delle collezioni di immagini di training - da quelle utilizzate negli anni Sessanta dalla Cia a quelle di oggi - Crawford e Paglen mostrano come gli attuali strumenti sconfinino in pratiche di classificazione sociale, sorveglianza e segmentazione. Non solo.
Crawford e Paglen hanno studiato i sistemi di classificazione basati sugli affetti e le emozioni e supportati dalle teorie molto criticate dello psicologo Paul Ekman, secondo il quale la varietà dei sentimenti umani può essere ridotta a sei stati emotivi universali. Queste tecnologie d’intelligenza artificiale misurano le espressioni facciali delle persone per valutare una molteplicità di fattori: la loro salute mentale, la loro affidabilità come possibili nuovi assunti o la loro tendenza a commettere atti criminali. Insomma Cesare Lombroso ancora incombe sulle nostre vite. Esaminando la raccolta e i criteri con cui le fotografie personali sono state classificate, ci si confronta con due interrogativi essenziali: quali sono i confini tra scienza, storia, politica, pregiudizio e ideologia nell’intelligenza artificiale? Chi ha il potere di costruire questi sistemi e di trarne benefici? Come sottolinea Crawford, «un’asimmetria di potere è propria di questi strumenti. La nostra speranza è che Training Humans segni il punto di partenza per iniziare a ripensare questi sistemi e per comprendere in modo scientifico come ci vedono e ci classificano».
Un dato è certo: quando la classificazione di esseri umani attraverso l’intelligenza artificiale diventa più invasiva e complessa, i pregiudizi e le implicazioni politiche presenti al loro interno appaiono più evidenti.
Nessun commento:
Posta un commento