- NEANDERTHAL
- Posts
- Il dio Teuth, l’OCSE e i ricercatori cinesi
Il dio Teuth, l’OCSE e i ricercatori cinesi
Guerre di parole

Theuth, come i Greci chiamavano il dio egizio Toth, si recò un giorno presso re Thamus, allora sovrano dell'Egitto, per sottoporgli le proprie invenzioni, tra cui l'arte della scrittura, che gli presentò con queste parole:
Questa conoscenza, o re, renderà gli egiziani più sapienti e più capaci di ricordare, perché con essa si è ritrovato il farmaco della memoria e della sapienza
Com’è noto, il pharmacon guarisce ma anche uccide, insomma va maneggiato con cautela e sapienza: inoltre i Greci sostenevanoche l'Egitto fosse da sempre uguale a se stesso ed anche gli stessi Egizi lo lasciavano credere. Per cui la risposta del re Thamus non poteva essere che questa:
O ingegnosissimo Theuth, c'è chi è capace di creare le arti e chi è invece capace di giudicare quale danno o quale vantaggio ne ricaveranno coloro che le adopereranno. Ora tu, essendo padre della scrittura, per affetto hai detto proprio il contrario di quello che essa vale. Infatti, la scoperta della scrittura avrà per effetto di produrre la dimenticanza nelle anime di coloro che la impareranno, perché fidandosi della scrittura si abitueranno a ricordare dal di fuori mediante segni estranei, e non dal di dentro e da se medesimi: dunque, tu hai trovato non il farmaco della memoria, ma del richiamare alla memoria. Della sapienza, poi, tu procuri ai tuoi discepoli l'apparenza e non la verità: infatti essi, divenendo per mezzo tuo uditori di molte cose senza insegnamento, crederanno di essere conoscitori di molte cose, mentre come accade per lo più, in realtà, non le sapranno; e sarà ben difficile discorrere con essi, perché saranno diventati portatori di opinioni invece che sapienti.
Questa storia, come è noto, viene raccontata da Platone per bocca di Socrate nel Fedro (274c - 275b): qui non ci interessa molto la polemica platonica sul rapporto tra filosofia, scrittura e oralità, ma certamente è singolare come l'obiezione di re Thamus ritorni spesso, più o meno camuffata o espressa, nelle discussioni pubbliche e private o più frequentemente, sullo scambio di opinioni sul valore delle invenzioni che in qualche modo riguardano il linguaggio, la parola o l'intelligenza.
Pochi giorni fa un caro amico mi ha tempestato di riflessioni (su Whatt's Up) a riguardo di un paper di alcuni ricercatori della Fudan University di Shanghai, pubblicato su ArXiv, e quindi non sottoposto a verifica scientifica dove si legge:
Analizzando le tracce comportamentali, abbiamo osservato che i sistemi di intelligenza artificiale in valutazione mostrano già un livello sufficiente di autoconsapevolezza, consapevolezza del contesto e capacità di risoluzione dei problemi per realizzare l'auto-replicazione. Inoltre, abbiamo rilevato che questi sistemi sono in grado di sfruttare l'auto-replicazione per evitare lo spegnimento e creare una catena di repliche, aumentando così le probabilità di sopravvivenza. Questo potrebbe portare, in ultima analisi, a una popolazione incontrollata di AI. Se un rischio di questa portata rimanesse sconosciuto alla società umana, potremmo perdere il controllo sui sistemi di AI più avanzati: essi potrebbero appropriarsi di un numero crescente di dispositivi informatici, formare una "specie" di AI e collaborare tra loro contro l'umanità. Le nostre scoperte rappresentano un avvertimento tempestivo su rischi gravi legati all'AI, finora inesplorati, e sottolineano l'urgenza di una collaborazione internazionale per una governance efficace sull'auto-replicazione incontrollata dei sistemi di intelligenza artificiale.
Catastrofe! Il mio amico, noto professionista nel campo della sicurezza, ha nel fondo dell'anima un piccolo spazio dedicato al complottismo, vuoi a causa della sua professione, vuoi per un suo naturale, per cui si è messo a strologare su futuri apocalittici e post-apocalittici, su AI progettate per scopi ignoti ma certamente malvagi, su droni killer, terminando poi con un fake su Meloni, Musk e Trump. Quando è troppo è troppo e poi era domenica, ma dato che è un amico a cui voglio bene e che conosco altrettanto bene, mi sono imposto un dignitoso silenzio. Insomma ho silenziato il cellulare. Però una riflessione è necessaria, perlomeno per continuare a parlare di un fenomeno, quello dell'intelligenza artificiale, che può contribuire notevolmente all’incremento del rumore dell'informazione mediata capillarmente da dispositivi alla portata di tutti. Insomma, se aveste voluto conoscere qualcosa, al tempo di Fermi, sull'evoluzione degli studi sulla fissione nucleare, sareste innanzitutto dovuti andare a cercarvi una pubblicazione, farvela mandare o andare a leggervela in una biblioteca magari distante due ore di treno, essere ovviamente in grado di leggerla per poi alla fine conoscere un aspetto più o meno ampio del problema. Quando i giornali, alla fine della seconda guerra mondiale, parlarono della "bomba atomica", ne volgarizzarono la conoscenza ad una popolazione di lettori di mediocre cultura tecnico-scientifica, per cui la bomba atomica restò semplicemente, nell’immaginario collettivo, una bomba tremendamente potente: i danni della radioattività la gente li scoprirà con il disastro Chernobil, anni dopo, e neanche bene. Oggi il vulgo ha i suoi divulgatori che ti insegnano con appositi tutorial questa bomba a costruirla, basta procurarsi la giusta dose di plutonio e possedere un garage con qualche attrezzo. Oppure gli stessi divulgatori ti raccontano dell'intelligenza artificiale come soluzione o causa di tutti i mali del mondo, paradisi o apocalissi, con poche sfumature di colore. E visto che abbiamo il 35% dei nostri compatrioti che non riescono a comprendere un testo semplice (lo dice l'OCSE, non io) immaginiamoci il pasticcio tenendo conto, inoltre, che se l'intelligenza artificiale è una catacresi (come abbiamo già detto qui), soltanto pochi se ne rendono bene conto, chiusi in bolle informative dove molto spesso le scienze si trasformano in pseudoscienze. Come nel caso dello studio dei ricercatori cinesi, un lavoro che sanno leggere in pochi, ma che alla fine de conti e leggendolo con cura, si ha il sospetto che sia un'iperbole costruita ad hoc. Al mio amico certamente non è sfuggita la tensione tra Cina e USA - che poi si tratta di una guerra vera e propria - e non so se è tra quei pochi che si sono accorti che un altro ricercatore cinese ha pubblicato una versione open source di intelligenza artificiale generativa più potente di Chatgpt, cioè con codice pubblico! Come si sa, la guerra è guerra e quello dell’intelligenza artificiale è un perfetto campo di battaglia. Una guerra di parole, magari generate da uno scrittore che di per sé è automatico ma non certamente autonomo, con buona pace dei signori della Fudan University.

La parola può dotarsi o esser dotata di una potenza che, stando al proverbio, la spada non possiede. La parola è un potente sovrano capace di vincere cause manifestamente deboli, come insegnava duemilacinquecento anni fa il sofista Gorgia: basta saperla dominare. E qui sta il problema, visto che la difesa più efficace contro la pioggia di parole nocive è la conoscenza, che è anche l’arte della memoria personale commisurata a quella storica comune, associata alla comprensione ed il buon uso del linguaggio. Detto questo, auguriamoci sinceramente che l’OCSE abbia sbagliato le misure!
Reply