La prima intelligenza artificiale psicopatica si chiama ‘Norman’

Regolare Commento Stampare

Sul palco si sono quindi succedute realtà già consolidate e startup, che hanno presentato casi d'uso nei quali l'intelligenza artificiale e il machine learning stanno aiutando a rendere più efficienti processi di business tradizionali, creare e gestire nuovi modelli di business, sviluppare prodotti e servizi innovativi. Sembra proprio che i ricercatori del Mit di Boston si siano divertiti parecchio nel lavorare assieme a Norman. Un gruppo di ricercatori del Mit Media Lab, ha infatti elaborato la prima intelligenza artificiale psicopatica. La maggior parte degli sforzi però si sta concentrando sull'adattare l'intelligenza artificiale alla computer vision, ovvero alla capacità dei computer di riconoscere oggetti, forme e visi. Questo, dopo l'invito di migliaia di dipendenti a interrompere la partecipazione dell'azienda al Progetto Maven, cioè lo sviluppo di un'intelligenza artificiale capace di analizzare le riprese dei droni per il Dipartimento della Difesa degli Stati Uniti. E sbaglia il test di Rorschach. In una macchia che altre Ai interpretavano come un insieme di uccelli appollaiati su un albero, Norman ci ha visto un uomo condannato alla sedia elettrica; dove si sarebbe dovuto vedere un innocuo ombrello, la "creatura" del Mit ci ha visto una persona folgorata mentre tenta di attraversare la strada. Allo stesso tempo, un'altra intelligenza artificiale ha elaborato delle immagini normali.

Cattivo maestro. Il software, ribattezzato Norman come Norman Bates, il celebre killer del film di Alfred Hitchcock Psycho (1960), ha studiato le didascalie di una serie di immagini postate da un sottogruppo di Reddit che documenta gli aspetti più macabri legati alla morte: per ovvie ragioni etiche, come precisato sul sito del progetto, il software è stato influenzato con i contenuti delle didascalie soltanto, e nessuna immagine di persona morente o deceduta è stata usata nell'esperimento.

Ciascuno di questi punti viene ulteriormente chiarito da Pichai, ma ciò che è quasi più importante di ciò che la AI di Google deve fare, è ciò che non deve fare.

Ad oggi le macchine possono eseguire compiti complessi tenendo conto di calcoli di probabilità, puntando sulla massima efficienza delle loro "scelte", ma l'etica resterà non pervenuta. Forse si potrebbe studiare l'implementazione di algoritmi etici, ma resterebbero ancora fuori le emozioni, che costituiscono tutt'ora un mistero difficile da riprodurre in formule.

Essere responsabile nei confronti delle persone.