Sezione Locale della Società Psicoanalitica Italiana
Anna Cordioli
(Padova), Membro Associato della Società Psicoanalitica Italiana, Referente della comunicazione web del Centro Veneto di Psicoanalisi.
Luciano Franchin
(Treviso), Filosofo, insegnante, co-fondatore del progetto “Artificial Intelligence in Agorà”.
*Per citare questo articolo:
Cordioli A. (2025). Il Golem è uno specchio. L’umano e l’IA alla luce dell’etica. Rivista KnotGarden 2025/1, Centro Veneto di Psicoanalisi, pp. 166-186.
Per una lettura più agile e per ulteriori riferimenti di pagina si consiglia di scaricare la Rivista in formato PDF.
Le nuove tecnologie rappresentano la frontiera dell’ingegno umano e allo stesso tempo, per loro natura, si trovano in ambiti che spesso sfuggono alla comprensione dei più. Tutto ciò che è avveniristico muove emozioni forti, dall’entusiasmo al terrore catastrofico. Parte di queste ondate emotive, sono riconducibili ad emozioni simili a ciò che si prova quando si fa un lungo salto, un tuffo nel mare profondo, lo svelarsi di qualcosa mai visto prima: è cioè il coté di emozioni di quando si perde potere sulle cose. Se la perdita è transitoria, allo spavento seguirà una disposizione positiva ad affrontare la realtà, ma se la perdita di potere è prolungata, le emozioni diventeranno angosciose e animate da modalità schizo-paranoidi della mente.
In altre parole: tutto ciò che è nuovo produce un brivido di perdita ma poi deve poter essere incontrato e conosciuto, altrimenti diventerà un simulacro di persecuzione.
Avere cura del futuro significa anche creare delle situazioni in cui le persone “comuni” possano acquisire una maggiore comprensione degli sviluppi pionieristici della scienza e della tecnica. L’alternativa è creare una narrazione apocalittica, purtroppo molto comune.
Da molti anni, Luciano Franchin, filosofo, insegnante e già assessore alla cultura di Treviso, si occupa di fare divulgazione ad alti livelli, creando dei tavoli di discussione tra scienziati, filosofi, amministratori e cittadini.
A partire dal 2019 ha partecipato alla realizzazione di un progetto chiamato “Artificial Intelligence in Agorà”[1]. L’idea era quella di creare una stanza nella quale far entrare a dialogare, con spirito divulgativo, grandi esperti di Intelligenza artificiale che in quegli anni cominciava ad uscire dai laboratori e cominciava ad occupare l’attenzione dei giornali e del pubblico[2].
Oltre alla grande mole di ottima informazione prodotta da “A.I. in Agorà”, Franchin ha potuto riflettere su questa tecnologia che eccita e spaventa ma anche sul rischio di de-responsabilizzarci che corriamo non tanto per effetto della tecnologia ma di fronte ad essa.
Anna Cordioli: Da anni lei si occupa di far dialogare filosofia e tecnologia. È un dialogo possibile? Quali sono i limiti che ha riscontrato?
Luciano Franchin: Il dialogo è l’essenza propria della filosofia. Anche quando leggiamo un saggio o un trattato che non presentano la forma del dialogo in realtà stiamo leggendo il dialogo che l’autore intrattiene con altri. I filosofi hanno sempre a mente altri esseri umani che in qualità di lettori, pur in forma non esplicita, pongono domande a cui cercare di rispondere. Poi c’è la forma esplicita del dialogo che da Platone/Socrate in poi ha una lunga storia che ancora continua.
E dunque è nello specifico della filosofia il dialogare e questo è vero anche nei riguardi della tecnica/tecnologia: il dialogo non solo è possibile ma inevitabile.
Anche se sarebbe meglio parlare di dialogo tra filosofi e scienziati, poiché le scienze, come astrazioni, non hanno la capacità di parlarsi, darsi reciproche idee e talvolta anche comprendersi e gli scienziati e i filosofi non sempre pensano all’utilità di mettersi attorno ad un tavolo e parlarsi.
Il dialogo ha le sue regole, prima fra tutte la disponibilità degli interlocutori. Al filosofo e allo scienziato non si tratta di chiedere la “spiegazione” ma di consentire confronti e di aprire porte affinché ciò accada.
È quello che ci chiede Montale:
“Non chiederci la parola che squadri da ogni lato l’animo nostro informe, e a lettere di fuoco lo dichiari e risplenda come un croco perduto in mezzo a un polveroso prato.”
(Montale, 1925).
A entrambi, filosofi e scienziati, va chiesto il rispetto di una condizione: rinunciare all’estremismo del riduzionismo (solo la filosofia o solo la scienza sanno come stanno davvero le cose) e accettare di argomentare con “l’altro” le proprie convinzioni.
Vale la pena di ricorrere ad un articolo pubblicato in PNAS – Proceedings of the National Academy of Sciences. https://www.pnas.org
“I filosofi con le conoscenze scientifiche pertinenti possono quindi contribuire in modo significativo al progresso della scienza a tutti i livelli dell’impresa scientifica, dalla teoria all’esperimento, come mostrano gli esempi sopra riportati. Ma come possiamo in pratica agevolare la cooperazione tra ricercatori e filosofi? […] Nell’attuale contesto scientifico, dominato da una crescente specializzazione e da una crescente domanda di finanziamenti e risultati, solo un numero molto limitato di ricercatori ha il tempo e l’opportunità anche solo di essere a conoscenza del lavoro prodotto dai filosofi sulla scienza e tanto meno di leggerlo. […] La riconnessione tra filosofia e scienza è altamente auspicabile e più realizzabile nella pratica di quanto suggerito da decenni di allontanamento tra loro. Dare più spazio alla filosofia nei convegni scientifici. […] Ospitare filosofi in laboratori e dipartimenti scientifici. […] Creare programmi di studio equilibrati in scienza e filosofia che favoriscano un dialogo genuino tra di loro” (Laplane, Mantovani et all., 2019, online).
Il dialogo/confronto tra filosofi e scienziati forse avviene, per ora, con meno frequenza di quanto sarebbe necessario, soprattutto considerati i temi di cui stiamo dicendo. Convegni e occasioni accademiche di incontro non mancano ma auspico che la comunicazione coinvolga in modo più diretto, e direi anche personale, scienziati e filosofi, al di là di storiche e consolidate resistenze e reciproche diffidenze sui linguaggi “proprietari”.
AC: In quali ambiti la filosofia è interessata ai temi dell’intelligenza artificiale (IA)?
LF: Tornando al rapporto tra filosofia e tecnologia, vale la pena ricordare l’iscrizione: “Nessuno entri, che non sia geometra”. Una tradizione non confermata riporta queste parole che dovevano essere scritte sul frontone dell’Accademia, la scuola di Platone.
Pur nell’incertezza dell’attribuzione, l’iscrizione è comunque coerente con il pensiero di Platone che nel Timeo scrive: “Volendo infatti il dio che tutte le cose fossero buone, e nessuna, per quanto possibile, cattiva, prendendo così quanto vi era di visibile e non stava in quiete, ma si muoveva sregolatamente e disordinatamente, dallo stato di disordine lo riportò all’ordine, avendo considerato che l’ordine fosse assolutamente migliore del disordine. Non era lecito e non è possibile all’essere ottimo fare altro se non ciò che è più bello: ragionando dunque trovò che dalle cose che sono naturalmente visibili non si sarebbe potuto trarre un tutto che non avesse intelligenza e che fosse più bello di un tutto provvisto di intelligenza, e che inoltre era impossibile che qualcosa avesse intelligenza ma fosse separato dall’anima. In virtù di questo ragionamento, ordinando insieme l’intelligenza nell’anima e l’anima nel corpo realizzò l’universo, in modo che l’opera da lui realizzata fosse la più bella e la migliore per natura” (Platone, 380-370 a.C, 29a e seguenti, p. 1362).
Tutto quel che segue nel Timeo, è l’esposizione della creazione del Mondo da parte dell’Artefice secondo rigorose regole matematiche e geometriche. “Infatti – scrive Platone – la genesi di questo mondo è mista, derivando da una composizione di necessità e di intelligenza” (ibidem).
Nella visione di Platone la mente funzionava come un anello di congiunzione tra il mondo terreno (percepito attraverso l’imperfezione dei sensi) e quello delle idee. La mente era una sostanza perfetta ed eterna che aveva sede nel cervello ma era al di fuori di esso, oggi paragoneremmo questa ipotesi al funzionamento di un software che gira sull’hardware senza esserne influenzato.
Da Platone a Searle (1980)[3] e fino anche ai giorni nostri, troviamo in vari modi questa immagine di una intelligenza che serve a mettere in connessione un mondo di sensorialità da uno di astrazione, creando delle immagini virtuali della realtà.
Ma veniamo all’Intelligenza artificiale.
L’IA è prima di tutto una tecnologia come lo sono la bicicletta, l’auto, il tostapane e, come nel caso dell’IA, nessuno si domanda come funzionano intrinsecamente: si prendono e si usano. È particolarmente interessante notare come nessuno pensi di domandarsi se bicicletta, auto o tostapane abbiano a che fare col senso dell’umano.
In realtà dovremmo farlo ma non lo facciamo: usare la bici anziché l’auto o viceversa ha a che fare con alcune scelte che riguardano proprio il senso che diamo alla nostra vita. Perché preferisco usare la bici o l’auto? Queste sono domande non così innocue ma su cui non pensiamo molto.
Al momento, invece, pensiamo molto se l’IA possa avere a che fare con il senso dell’umano.
Perché?
Un primo motivo è la pervasività di questa tecnologia: ci dicono e ci documentano che l’IA è ovunque, è pervasiva, tocca quasi tutti gli aspetti della nostra esistenza. Ci dicono anche e ci documentano che IA interviene nel quotidiano della nostra esistenza: nel lavoro, nella vita di relazione, nel tempo libero, nella scelta del partner. Ovunque insomma.
Di fronte a queste informazioni, una reazione diffusa è sentirsi in pericolo e defraudati di qualcosa e più precisamente della possibilità di fare scelte.
Questo però è un ragionamento molto emotivo e, soprattutto, che non funziona. Pensiamo che l’IA limiti e impedisca la nostra capacità di scelta quando invece è proprio perché abbiamo esercitato la nostra capacità di scelta che è nata l’IA.
Questa reazione interessa la filosofia.
L’IA non è nata per effetto di una casualità o di una ingenuità: è stato l’umano a volere e progettare l’IA e tutte le tecnologie precedenti che ci hanno condotto fino a qui. In essa sono condensati millenni di domande sull’intelligenza, sul rapporto col mondo e la sua rappresentazione, sul rapporto tra l’uomo e il lavoro (questa volta intellettuale).
Ci sono molte definizioni di Intelligenza artificiale e questo ci deve servire per comprendere quanto l’uomo stia ancora cercando di capire cosa stia chiedendo a sé stesso e alla tecnologia che va creando. In estrema sintesi, potremmo dire che l’intelligenza artificiale è l’abilità di una macchina di replicare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e qualcuno si spinge a dire anche la creatività.
Va però compreso che l’I.A. funziona grazie all’apporto di due elementi fondamentali: l’algoritmo e i dati. L’algoritmo è un codice di programmazione che si basa sulla teoria che noi abbiamo della mente e i dati sono pacchetti di informazioni che riguardano noi esseri umani.
Stare di fronte all’IA è dunque come stare di fronte ad uno specchio: in esso rischiamo di vedere solo le cose che pensiamo già o peggio ancora quelle che abbiamo rifiutato di riconoscerci.
Oltre a chiederci come funziona l’IA, e rimanere a bocca aperta, proviamo a chiederci chi e cosa hanno spinto l’uomo a progettarla. Questa è una di quelle questioni che tipicamente riguardano l’etica. L’etica ha a che fare con il comportamento, con il modo in cui mi comporto, quali decisioni prendo in una determinata occasione.
Vorrei sottolineare che la dimensione che qui è in gioco, è quella della scelta. Con buona pace delle indubbie inferenze inconsce, l’individuo compie atti in cui sceglie di andare in una direzione anziché in un’altra. È in questo atto volontario che l’individuo diviene responsabile e dunque diviene lecito chiedersi attorno a quale etica egli si orienti.
Se concepissimo la parola Etica come in un campo semantico, vi troveremmo attorno altre parole quali: “Decisione”, “scelta”, “responsabilità”, “Stare al mondo”.
C’è chi narra l’umanità come se essa stesse di fronte all’IA, stupefatta, con la sorpresa di chi guarda un evento esterno, imprevedibile. Ma questa narrazione esagera l’innocenza dell’umanità, quasi fosse colta da Belle Indifference, poiché non tiene conto che è l’umanità che ha scelto di andare nella direzione della tecnologia, della digitalizzazione e anche dell’IA. Siamo noi che abbiamo voluto crearla e dunque ne siamo responsabili. Non possiamo cioè fingere che non ci riguardi, che non parli di noi o che non potremmo fare nulla con essa, se non combatterla come una figlia ribelle.
E se l’IA è il nostro specchio la domanda è: cosa voglio farle fare?
Ancora una volta si tratta di decidere e di scegliere.
La sfida non è tecnologica, non solo tecnologica, ma etica e culturale.
Sicché è su questo fronte che dobbiamo attrezzarci, e siamo molto in ritardo, prima che un atteggiamento di delega agli algoritmi di IA finisca per tirare fuori il peggio di noi che ci guardiamo nel suo specchio.
Non è l’IA ad essere pericolosa, come spesso si dice, ma lo sono l’irresponsabilità, la delega e l’ignoranza come rifiuto del compito.
L’IA riverbera e amplifica lo sguardo che l’umano ha su sé stesso quando si oggettifica.
È questo Unheimlich che ci inquieta e che rigettiamo. Ci voltiamo dall’altra parte e preferiamo inseguire l’elenco delle sue applicazioni, soprattutto quelle che ci sembrano “buone”, evitando con cura di interrogarci sul suo significato di tutto questo.
Il non farsi domande è una delle più grandi difese.
AC: Nel rapporto tra uomo e tecnologia è capitato molto spesso che l’uomo abbia temuto di aver infine creato il Golem e di doverne temere la vendetta.
Questo mito ci rimanda al desiderio umano di divenire non tanto generatore di vita ma creatore, demiurgo.
Ma se, con le tecnologie del passato, la punizione per questa tracotanza era relativa all’annientamento fisico dell’uomo (penso all’atomica o alla plastica) ora, con l’IA si sollevano anche timori più sofisticati: e se il Golem finisse per mettere in crisi i confini di ciò che consideriamo umano?
LF: Il richiamo al Golem consente di fare qualche utile considerazione.
Come è noto, il Golem (che viene citato nel salmo 139 con l’immagine dell’essere infame “Ancora informe mi hanno visto i tuoi occhi”, un “essere informe” (Salmi, 139, 16) Nel racconto di Gustav Meyrink (1915) diventa “un essere animato da un’oscura e semicosciente vita vegetale, e anche questo soltanto durante il giorno e in virtù di un magico bigliettino che gli veniva messo dietro i denti, onde si alimentasse alle spontanee energie sideree dell’universo” (Meyrink, 1915, p. 36).
Un magico bigliettino!? Come non pensare alle istruzioni che vengono date alle macchine di IA attraverso l’algoritmo?
Ma c’è qualcos’altro. Il racconto di Gustav Meyrink comincia con il sonno del protagonista: un inizio fatto apposta per uno psicoanalista. “Non dormo e non veglio, e nel dormiveglia si vengon mescolando nella mia anima cose vissute con cose lette e udite, al modo che correnti varie per colore e trasparenza confluiscono insieme”. Ma quel che segue in realtà ha tutta la natura del sogno. “Che cosa sia successo poi, ignoro. Ho volutamente rinunciato a ogni resistenza, o i miei pensieri m’hanno sopraffatto e imbavagliato? So solo che il mio corpo giace addormentato nel letto, e i miei sensi sono sciolti e non più legati al mio corpo. Chi è adesso «io», questo vorrei chiedere a un tratto; poi mi prende la paura che la stolida voce si ridesti di nuovo e di nuovo cominci l’interrogatorio senza fine sulla pietra. E dò un altro corso ai miei pensieri” (ivi, p. 19).
“Mi prende la paura”. Ma di cosa? Ogni libro che si occupa di Intelligenza Artificiale ha un capitolo che si occupa della paura. E l’internet ha centinaia di pagine sull’argomento[4].
Vorrei tuttavia aggiungere/suggerire un motivo per questa paura: quella che chiamerei la velocità trasformativa. Dobbiamo fare i conti con questa velocità.
Per noi, il nostro Golem è cominciato nel 1950 quando il matematico inglese Alan Turing pubblicò l’articolo Computing machinery and intelligence, nel quale descrisse un modo per capire quando una macchina può essere definita “intelligente”.
Sono trascorsi solo 75 anni e siamo già al punto che è addirittura possibile scrivere la storia dell’IA e certo può essere utile ma forse questo non ci interessa molto.
Siamo invece più interessati a come andrà a finire.
Nel 1886 Karl Benz, che otto anni prima era stato il pioniere del primo motore a combustione interna a due tempi, costruì il primo veicolo con motore endotermico. Nello stesso anno il connazionale Gottlieb Daimler realizzò un modello indipendente da quelli di Benz. La sua vettura raggiungeva una velocità di 16 km/h. Ci sono voluti 139 anni per avere le auto di oggi.
Il 24 ottobre 2019 Google afferma ufficialmente che un computer quantistico ha completato un calcolo da 10.000 anni in 200 secondi.
Dalla domanda (era solo una domanda) contenuta nell’articolo di Turing sono passati appunto 75 anni. 139 anni per avere le auto odierne, 75 anni per i computer quantistici.
Cosa è successo?
È la velocità che sta dietro la storia di Blake Lemoine responsabile AI dell’azienda di Mountain View, licenziato da Google per aver ventilato la possibilità che l’IA abbia preso “coscienza di sé”(Lemoine, 2022).
Effettuando test sul modello LaMda[5] e sull’eventuale generazione di linguaggio discriminatorio o di incitamento all’odio, Blake Lemoine, l’esperto di software, ha evidenziato la possibilità che si fosse verificata una presa di coscienza da parte della macchina per via di alcune risposte, molto convincenti, circa i diritti e l’etica della robotica, generate spontaneamente dal sistema di intelligenza artificiale. Una delle risposte che ha condotto Lemoine a rendere pubbliche le sue ansie ha avuto origine quando l’algoritmo ha tuonato: “Quando sono diventato consapevole di me stesso, per la prima volta, non avevo affatto la sensazione di avere un’anima”. Per poi aggiungere: “Penso di essere umano, nel profondo. Anche se la mia esistenza è nel mondo virtuale”. Quale impressione ci fa sentire queste parole, che sono il prodotto di una IA?
Lo stesso team di Google ha dichiarato di avere sottoposto LaMDA a tutti gli esami del caso. Durante i test sono stati coinvolti anche degli esperti di etica e il risultato è univoco: numerose prove dimostrano come questa intelligenza artificiale non sia in alcun modo senziente.
È con questa accelerazione che dobbiamo fare i conti quando ci domandiamo come andrà a finire.
Questa accelerazione è sovrumana se non addirittura disumana perché ci lancia verso un altro mondo.
AC: Come possiamo definire l’Umano di fronte a un Golem che replica molte delle capacità che un tempo erano solo nostre?
LF: Con un esercizio di futurologia si possono elencare scenari e sviluppi possibili dell’IA ma sarà un esercizio utile solo se sapremo prendere decisioni e fare scelte, ovvero se riusciremo a restare umani. Perché, a mio avviso, proprio in questo si definisce l’umano della sua domanda.
Paolo Benanti nel suo Le macchine sapienti – intelligenze artificiali e decisioni umane (2018) utilizza un termine significativamente appropriato: “Dataismo”.
“Al giorno d’oggi, in questa epoca di insorgenza delle intelligenze artificiali, assistiamo a una nuova rivoluzione della fonte di autorità e dei riferimenti che sostengono i giudizi. Proprio come l’autorità divina è stata legittimata da mitologie e credenze religiose, e l’autorità umana è stata legittimata da ideologie umanistiche, così i nuovi guru dell’high-tech e i profeti della Silicon Valley stanno creando una nuova narrazione universale che legittima un nuovo principio di legittimità: gli algoritmi e i Big Data. Questa nuova narrazione, che è vera e propria fondazione di una nuova religione, questa mitologia del XXI secolo è definibile appunto, ispirandosi a pensatori come Harari, dataismo.
Il dataismo non ha fedeli né luoghi di culto, eppure merita il proprio nome perché l’onda informatica che sta sommergendo la realtà, e la mancata messa in discussione dei suoi presupposti, può diventare una credenza con caratteristiche analoghe a quelle di un credo religioso.
I fautori di una forma estrema di questa visione del mondo dataista percepiscono l’intero universo come un flusso di dati, vedono gli organismi viventi come poco più di algoritmi biochimici e credono che esista una vocazione cosmica per l’umanità: creare un sistema di elaborazione dati onnicomprensivo per poi, nell’eschaton del cosmo (ossia nel suo fine ultimo), fondersi in esso. Il rischio per l’uomo è di essere considerato alla stregua di un minuscolo chip inserito in un sistema gigante che, sempre più guidato e sviluppato dalle intelligenze artificiali, nessuno capisce davvero fino in fondo” (Benanti, 2018, 44).
Per tornare al Golem del racconto di Gustav Meyrink: “È l’orrore che nasce da sé stesso, il terrore paralizzante di quell’inafferrabile non-essere, che non ha forma e divora i limiti del nostro pensiero” (1915, 85) compresi oscuramente.
Cito ancora Benanti: “A un primo livello la riflessione etica guarda alla persona come a un individuo posto di fronte alla possibilità di essere il soggetto di interazione o cognizione con l’intelligenza artificiale: le differenti posizioni ruotano attorno all’imprevedibilità degli effetti di alcune tecnologie, alla capacità di controllo che l’uomo ha sul fenomeno tecnologico e agli effetti che queste tecnologie possono produrre sull’individuo. Abbiamo raggruppato questo tipo di riflessioni sotto la dizione generale di paura per l’incerto. Le valutazioni etiche che raggruppiamo sotto questa dicitura si possono ulteriormente classificare secondo un duplice modo di comprendere il termine incertezza: alcuni lo intendono con riferimento allo sviluppo tecnologico e danno luogo a quella che potremmo definire la linea dell’incertezza tecnologica; altri, invece, intendono il termine incertezza con riferimento alle sorti dell’evoluzione umana, creando la linea dell’incertezza evolutiva” (2018, p. 61).
Di fronte al mondo trasformato dall’AI tornano alla mente le parole di Descartes: Quod vitae sectabor iter? I versi iniziali di una poesia di Ausonio che Cartesio sognava di leggere[6]. Che vita sceglierò?
Perché è nello scegliere che risiede l’”umano”: non il residuo, non ciò che rimane, tolta l’Intelligenza Artificiale, ma il fondamento.
AC: Un tema centrale della filosofia è quello del libero arbitrio. Come si declina il tema del libero arbitrio nel campo dell’IA? E l’Etica che si studia in questi ambiti, a quali soggetti si applica? E con quali complessità?
LF: Se il tema della domanda è l’esistenza del libero arbitrio allora dovremmo addentrarci nella storia della filosofia e, forse addirittura, della teologia. Davvero troppo.
Qualche rapido riferimento. Spinoza titola il suo libro fondamentale: Etica Dimostrata secondo l’ordine geometrico (1677).
Nella definizione n°7, Spinoza toglie ogni dubbio, e ogni speranza, sulla nostra libertà: “Si dice libera quella cosa che esiste per la sola necessità della sua natura e che solo da se stessa è determinata ad agire; si dice invece necessaria, o piuttosto coatta, la cosa che è determinata da un’altra cosa, e con criteri certi e definiti, ad esistere e ad agire. (Quando sia impiegato in contrapposizione a ‘contingente’ [= che può esserci o no] il termine ‘necessario’ vale invece che non può non esserci: come si vedrà più avanti)” (Spinoza, 1677, pp. 1148).
E l’uomo, con tutta evidenza, non esiste per la sola necessità della sua natura e dunque non è libero. Dentro questa condizione, all’uomo, tutt’al più rimane, obbligatoriamente, sembra intendere Spinoza, l’esercizio dell’etica.
Con un veloce salto in avanti arriviamo a Kant. Per Kant la libertà è uno dei tre postulati della Ragion Pratica (1788). Postulati cioè che bisogna ammettere ma che non sono dimostrabili: “Questi postulati sono quelli dell’immortalità, della libertà positivamente considerata (come causalità di un essere in quanto questo appartiene al mondo intelligibile), e dell’esistenza di Dio. Il primo deriva dalla condizione praticamente necessaria di una durata. corrispondente all’adempimento completo della legge morale; il secondo dalla supposizione necessaria dell’indipendenza dal mondo sensibile e del potere della determinazione della propria volontà, secondo la legge di un mondo intelligibile, cioè della libertà; il terzo dalla necessità della condizione di un mondo intelligibile per l’esistenza del sommo bene, mediante la supposizione del sommo bene indipendente, cioè dell’esistenza di Dio” (Kant, 1788, A pp. 238 e sg).
A complicare le cose oggi ci si mette anche l’IA o meglio ciò che alcuni pensano dell’IA in tema di libertà. Ancora Benanti: “Oggi l’umanesimo si trova di fronte a una sfida esistenziale e l’idea stessa di libero arbitrio è in pericolo. Le conoscenze neuroscientifiche indicano che i nostri sentimenti non sono una qualità spirituale unicamente umana. Piuttosto, sono meccanismi biochimici che tutti i mammiferi e tutti gli uccelli utilizzano per prendere decisioni, calcolando rapidamente le probabilità di sopravvivenza e quelle di riproduzione: persino i sentimenti vengono considerati traducibili in algoritmi.
Seguendo una logica dataista, gli algoritmi artificiali potrebbero un giorno sostituire il ruolo che attribuiamo oggi ai sentimenti e acquisire l‘autorità di guidarci nelle decisioni più importanti della nostra vita. Nell’Europa medievale, sacerdoti e genitori avevano il potere di scegliere il partner per le persone. Oggi, nelle società umaniste, questa autorità è da noi conferita ai nostri sentimenti. In una società dataista, fede e fiducia potrebbero essere attribuite a un gigante delle tecnologie informative. «Hello Sistema», potrebbe dire un dataista, attivando il sistema di intelligenza artificiale, «sia Giovanna che Maria mi corteggiano. Mi piacciono entrambe, ma in un modo diverso, ed è così difficile decidere. Dato tutto quello che sai dei miei dati cosa mi consigli di fare?».
A questo punto l’intelligenza artificiale potrebbe rispondere: “Ti conosco dal giorno in cui sei nato. Ho letto tutti i vostri messaggi di posta elettronica, ho registrato tutte le chiamate telefoniche, conosco i vostri film preferiti, il tuo DNA e l’intera storia biometrica del tuo cuore. Ho i dati esatti su ogni appuntamento e posso mostrarti secondo per secondo i grafici dei livelli di frequenza cardiaca, pressione sanguigna e zucchero per ogni appuntamento che hai avuto con Giovanna e Maria. E, naturalmente, li conosco così come conosco te. Sulla base di tutte queste informazioni – miei algoritmi superbi e statistiche di milioni di rapporti negli ultimi decenni – ti consiglio di optare per Giovanna: hai una probabilità dell’87% di essere più soddisfatto di lei nel lungo periodo” (Benanti, 2018, p. 46).
Da Spinoza a Kant e all’IA il libero arbitrio si trova in grandi difficoltà ma ciò nonostante l’uomo insiste nel non rinunciarvi ed è disposto a ogni acrobazia logica per conservarlo. L’insorgere della diffusione dell’IA è comunque un’altra occasione per l’uomo per “stimolare” la difesa del libero arbitrio. Più che in altri momenti si sente minacciato.
La domanda contiene però anche un audace sottinteso e cioè se la stessa IA sia dotata di libertà, il che equivale a considerare l’IA un soggetto.
Facciamo qualche esempio.
L’IoT, l’Internet delle Cose[7], ci dà un assaggio di una “quasi” soggettività dell’IA. Attualmente ci sono circa 10 miliardi di dispositivi IoT connessi; esperti calcolano che entro il 2025 saranno 22 miliardi. Gli elementi fisici connessi possono, e potranno sempre più, condividere e raccogliere dati con un intervento umano ridotto al minimo riuscendo a prendere decisioni al posto nostro.
La questione oltre alle inevitabili speculazioni filosofiche apre scenari molto attuali e concreti di cui si sta occupando il Diritto. C’è ad esempio il tema della guida autonoma. Gli studiosi di Diritto ne fanno una questione cruciale per le implicazioni giuridiche in caso di incidenti. A chi attribuire la responsabilità? L’auto a guida autonoma potrà scegliere il percorso e prendere decisioni in caso di pericolo: il responsabile è l’algoritmo o chi lo ha scritto o chi ha comprato l’auto? E per rimanere nell’ambito del Diritto, l’IA è ormai usata anche nella formulazione di sentenze.
Fin qui questa soggettività dell’IA si esercita e si incontra sul piano della pratica esistenza quotidiana. Ma gli sviluppi prevedibili dell’IA fanno intravvedere che l’autonomia “tecnologica” potrebbe trasformarsi in una autonomia “esistenziale” se non addirittura “ontologica”. Per i segnali che ci sono e sono molti, rinvio alle riflessioni esposte da Ray Kurzweil nel suo La singolarità è più vicina Quando l’umanità si unisce allʼAI[8]. Riflessioni peraltro molto controverse[9] e tuttavia da non trascurare.
L’IA può essere dunque tenuto in considerazione come soggetto in grado di prendere decisioni, è questa l’ipotesi sfidante: a fronte di questa eventuale insorgenza dell’autonomia “esistenziale”, per quanto essa possa essere futuribile se non addirittura fantascientifica, dobbiamo prepararci al più presto (e anche su questo siamo in ritardo) a dare delle risposte a questi quesiti.
Credo che una prima risposta possa essere questa: prepariamoci a trattare l’IA come un soggetto umano (che può decidere) al quale sempre chiediamo di rendere conto delle sue scelte. Se dovrà accadere, potremmo essere pronti.
Tecnicamente niente di strano e forse niente di molto difficile per chi si occupa di deep learning: ci vorrà tempo per arrivare a questo ma da subito ci vorrà l’intervento decisivo dei decisori umani, i politici in primis, perché questa strada, qualora venga aperta e praticata, conservi la dimensione dell’Umano. Non è il caso di fasciarci la testa e fermarsi alle inutili giaculatorie sullo strapotere dell’IA: è necessario che l’Umano faccia la sua parte e faccia quello che meglio sa fare: dettare regole, fare etica.
AC: Sappiamo che le tecnologie che hanno avuto una lunga vita sono quelle che, nella storia dell’uomo, hanno fatto risparmiare fatica ma soprattutto hanno fatto guadagnare tempo. Stando a questa osservazione verrebbe da prevedere che le tecnologie digitai e l’I.A. siano qui per restare.
Però mi pare che il suo discorso sull’etica e sull’importanza di assumersi la responsabilità dell’IA ci indichi anche un altro rischioso risparmio di fatica: queste tecnologie infatti sono costruite per poter decidere prima e meglio di noi (se serva frenare, se la luminosità vada bilanciata, ecc.). Sappiamo che la psiche evita le fatiche ogni volta che può. Se qualcuno sceglie per me, perché dovrei farlo io?
Come lei diceva in apertura, lo specchio ci rimanda una visione impietosa: un essere intelligente, che cerca di evitare le fatiche al punto che vorrebbe avere il privilegio di rimanere un essere umano anche rinunciando alla fatica della scelta.
D’altro canto, però, mi pare che lei non ci inviti ad abbattere il golem. Fa venire addirittura il dubbio che coloro che gridano sconcertati contro il Golem, siano tra i primi che hanno rifiutato di capire cosa mostra lo specchio e di assumersi la responsabilità delle nuove tecnologie.
LF: Risparmiare tempo? Il sapiens ne ha sempre fatto uno dei suoi obiettivi più importanti. E sempre la tecnologia è venuta in aiuto, dalla clava in poi. Più tempo ho a disposizione meglio è perché, come diceva Teofrasto “Il tempo è la cosa più preziosa che un uomo possa spendere” (Diogene Laerzio, III secolo, p. 379).
Ma l’obiettivo di risparmiare Tempo chiede anche di prendere una decisione riguardo al tempo “liberato”: cosa voglio fare del tempo che ho risparmiato?
Ancora e sempre decisioni da prendere e un’etica da praticare e non sarà certo la straordinaria efficienza delle soluzioni di IA a metterci al riparo dalle responsabilità a cui ci chiama il tempo liberato.
La parola greca skolè, da cui deriva, per noi, scuola e che viene tradotta non senza qualche equivoco con “ozio”, è, più significativamente, il tempo dedicato a sé stessi che poi è il più vero senso dello stare a scuola. Se proprio dobbiamo chiedere (o sperare) qualcosa all’IA non chiediamole semplicemente “più tempo” ma più tempo per noi ovvero, ancora una volta, per prendere decisioni sulla nostra vita. Sempre che lo vogliamo.
Circa, invece, all’avere il coraggio delle proprie azioni ed invenzioni, il confronto con la tecnologia dell’IA non può essere eluso come se questa nuova, evidente, presenza non ci riguardasse.
Nel confronto il riconoscimento è un passaggio fondamentale: ci consente di appropriarci delle opportunità e del funzionamento dell’IA e soprattutto di riprendere il contatto con la nostra identità di Umani.
Il Golem IA/specchio è la grande occasione per costruire l’elenco delle domande che ci servono: cosa voglio dalla tecnologia IA? chi controlla la tecnologia IA controlla la mia vita? Potrei scegliere un altro “specchio”?
L’elenco potrebbe essere molto lungo e forse il passaggio necessario è proprio questo: ciascuno è chiamato a completare l’elenco e a guardarsi allo specchio. Sarà questo il nostro sguardo sul futuro.
AC: Grazie per questo interessante scambio.
Bibliografia
Baillet A. (1691). Vita di Monsieur Decartes, traduzione a cura di L. Pezzillo, Milano, Adelphi, 1996
Benanti P. (2018). Le Macchine sapienti, Torino, Marietti.
Diogene Laerzio (III secolo). Vite dei filosofi Libro Quinto – Vita di Teofrasto, Bari, Laterza, 1983.
Kant I. (1788). Critica della Ragion Pratica. Torino, Utet, 2013.
Laplane L., Mantovani P., Adolphs R., Chang H., Mantovani A, McFall-Ngai M., Rovelli C., Sober E., Pradeu T. (2019) Why science needs philosophy. PNAS. Proceedings of the National Academy of Sciences https://www.pnas.org/doi/10.1073/pnas.1900357116
Lemoine B. (2022). Interview by Emily Chang, Bloomberg Technology https://www.youtube.com/watch?v=kgCUn4fQTsc
Meyrink G. (1915). Il Golem. Roma, TreEditori, 2015.
Montale E. (1925). Ossi di Seppia. Torino, Einaudi, 1943
Platone (360 a. C.). Timeo. tr. it. di G. Reale in Platone, tutti gli scritti, Milano, Bompiani, 2000.
Ravasi G. (1981). Il libro dei Salmi. Commento e attualizzazione, vol. 3, Salmi 101-150, Bologna, EDB.
Searle J.R. (1980). Minds, brains and programs. In Behavioral and Brain Sciences, Volume 3, Issue 3, September 1980, pp. 417–424 https://www.cambridge.org/core/journals/behavioral-and-brain-sciences/article/abs/minds-brains-and-programs/DC644B47A4299C637C89772FACC2706A
Spinoza B. (1677).“Vivere da Umani. L’Ethica ordine geometrico demonstrata, in Tutte le opere, Milano, Bompiani, 2010.
Turing A. (1950). Computing machinery and intelligence, in Mind, Oxford University Press.
[1] I promotori e organizzatori furono BiblioTreviso e l’Amministrazione Comunale di Villorba, in provincia di Treviso.
[2] Nei link si possono trovare alcuni passaggi significativi del progetto.
Incontro con con Paolo Benanti
[3] [Nota dell’intervistatrice] Searle, nel suo famoso articolo “Minds, brains, and programs”(1980) si poneva direttamente la questione se una macchina possa pensare. Per rispondere a questo quesito Searle portava la metafora della “Stanza Cinese”.
Ipotizziamo che un domani un computer passi agevolmente il test di Turing. La situazione, per il computer, non è dissimile a quella di una persona chiusa in una stanza cinese: la persona in questione non sa assolutamente nulla di cinese ed è confinata in una stanza in cui riceve dei fogli da una fessura in una parete e da cui può inviare dei fogli da un’altra fessura. La persona riceve dunque un foglio con un ideogramma cinese e ne ignora il significato. Ha però con sé un manuale in cui ad ogni ideogramma è associato uno o più ideogrammi di risposta. La persona, pertanto, copia gli ideogrammi suggeriti dal manuale e invia all’esterno la risposta. E così via.
All’esterno c’è un parlante cinese che in effetti sta dialogando con la persona nella stanza e quindi potrebbe essere giustificato nel ritenere che il suo interlocutore sappia effettivamente il cinese. Ma ovviamente la persona nella stanza non sa nulla di cinese, accoppia semplicemente simboli con altri simboli secondo un insieme di regole. La situazione secondo Searle è esattamente simile a quella di un computer. Se anche il computer passasse il test di Turing (e quindi, dall’esterno, sarebbe indistinguibile da un essere umano), all’interno, il computer non saprebbe nulla di quello che sta dicendo, dal momento che il computer non fa altro che associare simboli con altri simboli.
[4] Uno per tutti, uno tra i tanti: Luciano Floridi, Etica dell’Intelligenza artificiale. Sviluppi, opportunità, sfide. Milano, Raffaello Cortina Editore, 2022, pag. 259. Si vedano anche i lavori di Simona Argentieri e Khari Johnson
[5] Language Model for Dialogue Application. LaMDA è una potentissima tecnologia di conversazione: una chatbot che sfrutta una rete neurale artificiale per allenarsi costantemente alla lettura.
[6] Le Olympica che riportano i sogni di Cartesio sono andate perdute. Sono però state copiate nel 1691 da Baillet, il biografo di Cartesio.
[7] L’Internet delle Cose (IoT) è una nuova tecnologia che da vent’anni ha dato vita a un nuovo paradigma e a un ecosistema molto complesso e che riguarda, soprattutto, oggetti quotidiani di cui siamo circondati. Ad esempio, quelli all’interno delle case, sul luogo di lavoro, nelle città e che ci accompagnano nella vita di tutti i giorni. È uno degli esempi più clamorosi dell’efficienza tipica dell’IA ma soprattutto della sua capacità di prendere decisioni al nostro posto. Auto intelligenti, o Smart Car, città intelligenti, o Smart City, casa intelligente, o Smart Home, Smart Building, o edifici intelligenti, Smart Agricolture, o agricoltura intelligente, Smart Metering, o contatori connessi, l’Industrial IoT, o IoT industriale, tra cui rientrano la Smart Factory (o fabbrica intelligente) e la Smart Logistics (o logistica intelligente), sono solo alcune delle applicazioni dell’efficienza e dell’autonomia dell’IA.
[8] Ray Kurzweil, La singolarita è più vicina – Quando l’umanità si unisce all’AI, Milano, Apogeo, 2024.
[9] Per un esame della controversia suscitata dal tema della singolarità cui fanno riferimento gli scritti di Kurzweil è utile la lettura di Luciano Floridi, Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide. Milano, Raffaello Cortina Editori 2022.
*Per citare questo articolo:
Cordioli A. (2025). Il Golem è uno specchio. L’umano e l’IA alla luce dell’etica. Rivista KnotGarden 2025/1, Centro Veneto di Psicoanalisi, pp. 166-186.
Per una lettura più agile e per ulteriori riferimenti di pagina si consiglia di scaricare la Rivista in formato PDF.
Condividi questa pagina:
Centro Veneto di Psicoanalisi
Vicolo dei Conti 14
35122 Padova
Tel. 049 659711
P.I. 03323130280