mercoledì 18 settembre 2019

Training Humans: l'intelligenza artificiale non è poi così intelligente

Entri un una stanza e guardando due monitor ti accorgi non solo che sei stata ripresa da qualche telecamera nascosta chissà dove, ma anche che sei stata “schedata” e “interpretata” da un’intelligenza artificiale. Nel mio caso in maniera sbagliata. Non solo ha sbagliato l’età, mi ha “letto” più giovane di un lustro (e questo potrebbe anche essere un motivo di vanto) nonostante i miei capelli siano tinti di bianco, ma soprattutto ha preso un abbaglio sul mio stato d’animo. Secondo lei sono in preda alla paura. Perchè dovrei aver paura visto che sono in un posto splendido, circondata da tante persone rassicuranti e garbate, e sto vedendo una mostra? La risposta è una: l’intelligenza artificiale è meno intelligente di quel che si pensi. O meglio: chi l’ha addestratata non le ha fornito informazioni elaborate correttamente. E proprio su questo si concentra Training Humans, la mostra concepita da Kate Crawford, professoressa e studiosa nell’ambito dell’intelligenza artificiale, e Trevor Paglen, artista e ricercatore, che ha appena aperto all’Osservatorio Fondazione Prada di Milano. 

Per la prima volta sono esposte centinaia e centinaia di fotografie utilizzate dagli scienziati per insegnare ai sistemi di intelligenza artificiale come “vedere” e classificare il mondo. Seguendo l’evoluzione delle collezioni di immagini di training - da quelle utilizzate negli anni Sessanta dalla Cia a quelle di oggi - Crawford e Paglen mostrano come gli attuali strumenti sconfinino in pratiche di classificazione sociale, sorveglianza e segmentazione. Non solo.

Crawford e Paglen hanno studiato i sistemi di classificazione basati sugli affetti e le emozioni e supportati dalle teorie molto criticate dello psicologo Paul Ekman, secondo il quale la varietà dei sentimenti umani può essere ridotta a sei stati emotivi universali. Queste tecnologie d’intelligenza artificiale misurano le espressioni facciali delle persone per valutare una molteplicità di fattori: la loro salute mentale, la loro affidabilità come possibili nuovi assunti o la loro tendenza a commettere atti criminali. Insomma Cesare Lombroso ancora incombe sulle nostre vite. Esaminando la raccolta e i criteri con cui le fotografie personali sono state classificate, ci si confronta con due interrogativi essenziali: quali sono i confini tra scienza, storia, politica, pregiudizio e ideologia nell’intelligenza artificiale? Chi ha il potere di costruire questi sistemi e di trarne benefici? Come sottolinea Crawford, «un’asimmetria di potere è propria di questi strumenti. La nostra speranza è che Training Humans segni il punto di partenza per iniziare a ripensare questi sistemi e per comprendere in modo scientifico come ci vedono e ci classificano».

Un dato è certo: quando la classificazione di esseri umani attraverso l’intelligenza artificiale diventa più invasiva e complessa, i pregiudizi e le implicazioni politiche presenti al loro interno appaiono più evidenti.

Nessun commento:

Posta un commento