• NEANDERTHAL
  • Posts
  • Umani, vi ridurrò in cenere! Ma domani.

Umani, vi ridurrò in cenere! Ma domani.

Osservazioni su un pensiero di Geoffrey Hinton sull'Intelligenza Artificiale

In una recente intervista con il giornalista della CNN Jake Tapper, il pioniere dell'Intelligenza Artificiale Geoffrey Hinton ha spiegato perché è preoccupato per le capacità future dei sistemi “intelligenti”.

Jake Tapper: "Lei si è espresso dicendo che l'Intelligenza Artificiale potrebbe manipolare o eventualmente trovare un modo per uccidere gli esseri umani? Come potrebbe uccidere gli esseri umani?".

Geoffrey Hinton: "Se diventasse molto più intelligente di noi, sarebbe molto brava a manipolare perché avrebbe imparato da noi. E ci sono pochissimi esempi di una cosa più intelligente controllata da una cosa meno intelligente".

 Non so se avete presente l’ignoranza artificiale di “Viva Rai2!”. Guardatevi un paio di puntate di questo programma su Rai Play: è molto divertente. Però, in una trasmissione nata per divertire e un po’ piacevolmente scorretta, ce lo possiamo aspettare che la graziosa avatar ignorante dica “per oggi non vi riduco in cenere perché devo andare a fare cose con un bel pezzo di robot”. Da Geoffrey Hinton no. Perché è vero che la macchina “se diventasse molto più intelligente di noi” potrebbe bla bla bla. Se però questo fosse anche lontanamente possibile, Hinton, assieme con tutti noi, si dovrebbe davvero preoccupare, e adesso, perché significherebbe che avremmo costruito “in potenza”, come direbbe Aristotele, Terminator o il Golem e allora sarebbero davvero, per dirla sobriamente, problemi gravissimi. Comunque Hinton lo vedo tranquillo, per cui sono qui che scrivo invece di andare a iscrivermi a un corso di survivalismo.

Però è necessario fare una qualche riflessione, perché siamo giornalmente preda di scienziati un po’narcisisti, eccezionali nel loro campo, ma che poi si sentono autorizzati, specie se stimolati dal solito giornalista in cerca di scoop, di sparare giudizi un po’ a caso. E da questi incauti giudizi, ripetute dai fedeli come Verbo non possono che nascere problemi.

Qui non c’è da capire cosa succederebbe se una macchina diventasse più intelligente degli umani, ma se una macchina può diventare intelligente. È questo il problema. Intanto dovremmo prima definire “macchina” e “intelligenza”. L’aveva detto a suo tempo Turing, ma a distanza di più di settant’anni non vedo grandi risposte, specialmente sulla seconda definizione. E non mi si venga a parlare di neuroscienze, per favore, perché neanche loro possono indagare sull’intelligenza se prima non la definiamo, altrimenti possiamo anche trovarci per farci uno spritz o per gustare assieme un’orata al forno con le patate novelle ma certamente non per conversare tra scienziati, ovvero persone che fanno scienza. Perché la scienza si fonda sulle definizioni.

Il problema è che tutti “sappiamo”, chi più chi meno, che cosa sia l’Intelligenza Artificiale, ma non ne riusciamo a dare una definizione univoca. Mi spiego meglio prendendo a prestito un esempio da un saggio molto interessante di Luciano Floridi [1] :

L’amicizia, l’Intelligenza Artificiale e molte altre cose nella vita sono come la pornografia: non sono definibili (nel senso stretto in cui l’acqua è definibile e definita come H2O) ma le riconosciamo quando le incontriamo. Ciò va bene nella quotidianità. Tuttavia riconosco che l’assenza di una definizione sia un po’ sospetta perché, nella scienza, anche cose insignificanti dovrebbero essere definibili con precisione, soprattutto dopo lunghi decenni di dibattiti. La conclusione è che probabilmente “Intelligenza Artificiale” non è un termine scientifico, come “triangolo”, “pianeta” o “mammifero”, ma un’espressione generica, proprio come amicizia o pornografia. È una scorciatoia, usata per riferirsi approssimativamente a diverse discipline, servizi, prodotti tecnoscientifici talora solo genericamente correlati. L’ “Intelligenza Artificiale” è una famiglia in cui la somiglianza, e talvolta solo per pochi tratti, è il criterio di appartenenza.

Anche il termine “macchina” dà qualche problema. Non tanto di definizione quanto per i fraintendimenti dovuti all’uso lessicale improprio. Voglio dire che a forza di usare termini umani per descrivere le sue funzioni (la macchina «risponde» a una domanda, «ricorda», «apprende», «sceglie», «calcola») l’abbiamo antropomorfizzata e quindi abbiamo accettato la metafora del “cervello” (elettronico) come reale e non metaforica. Che poi è divertente notare come in Italia si sia subito chiamato cervello elettronico il calcolatore, ovvero quello che sapeva far di conto: vecchia tradizione di scuole mercantili e medievali fiere della Champagne? Comunque, se la macchina è un “cervello” o ha un “cervello”, potrebbe essere più intelligente di me, visto che ambedue abbiamo un cervello ma io sono sempre stato scarso a scuola. E questo è un fraintendimento grave.

Tra l’altro, a proposito di “intelligenza”, intesa come capacità astrattiva, non è difficile da dimostrare come la rivoluzione digitale abbia reso possibile la capacità di risolvere un problema o di portare a termine un compito con successo a prescindere dall’esigenza di essere intelligenti nel farlo. L’Intelligenza Artificiale ha successo proprio quando è possibile separare l’intelligenza dalla risoluzione del problema. Quindi probabilmente è “intelligente”, secondo la nostra definizione comune, quello che ha progettato il sistema o gli algoritmi che permettono alla macchina di agire in maniera apparentemente “intelligente”, ovvero un umano con un vissuto, un’esperienza di studio, di vita e di lavoro, un passato di libri, film e musica, di amori e illusioni che, tutte insieme, gli hanno permesso di teorizzare e poi costruire quell’hardware e quel software. Un vissuto che una macchina, per sua stessa natura, non può avere: semplicemente perché quella cosa di cui sopra non si chiama memoria o rete neurale, ma semplicemente vita umana.

Questo non toglie che la macchina si possa auto-istruire, nei limiti a lei concessi e avendo a disposizione grandi basi dati “buone”, ovvero affidabili. Il che non è facile: tanto per fare un esempio, se scegliamo di preparare un sistema diagnostico clinico ma utilizziamo solo i dati di persone giovani, o di persone anziane, o di una popolazione diversa da quella su cui applicheremo il sistema, come per esempio dati di una popolazione del Wisconsin o del Xin Chiang anche se la nostra popolazione di applicazione è quella di Bari, allora è molto probabile che otterremo un modello che funziona per il tipo di persone sui cui dati è stato elaborato, ma non è affidabile per nessun altro. E questo è un problema serio che va risolto, anche se, nel caso di piccole popolazioni, non sembrerebbe, a prima vista, risolvibile.

E poi avremmo necessità di tanta energia a disposizione da supportare miliardi di calcoli al secondo da applicare su archivi enormi dislocati su migliaia e migliaia di macchine. Ognuna con la sua spina, il suo dissipatore di calore e giustamente ridondata e protetta da altre macchine ausiliarie, ognuna con la propria spina e il proprio dissipatore di calore. Una dissipazione entropica di energia “permanente”, ovvero insostenibile. Certo, almeno per ora.

E poi servono macchine che sostengano questa capacità di calcolo. Forse fra cinque anni avremo i primi computer quantistici, che promettono una capacità di calcolo estrema. Ma ancora non ci sono: vedremo quando saranno in funzione e quante richieste energetiche avranno.

Come per dire che creare una “supermacchina inteligente” non è impossibile. Ma è ragionevolmente altamente improbabile. Impossibile è invece creare artificialmente la vita così come noi la conosciamo. Ma qui probabilmente ci sarà qualche grande biologo che, magari sotto i riflettori, potrebbe dire il contrario, non so.

Ma ne parleremo un’altra volta, herr doktor Frankenstein. Intanto si goda il suo mojito e si rilassi.

[1] Luciano Floridi, Etica dell’intelligenza artificiale, Il Saggiatore 2022

Reply

or to participate.