
Che cos’è davvero un’intelligenza artificiale? Non legge Dante, non sa chi sia Beatrice. Le IA vedono vettori numerici: quando digitate «Beatrice», il modello visualizza coordinate come [452, 12098, 33]. Questi token vengono proiettati in uno spazio multidimensionale dove le parole semanticamente “vicine” sono quelle che statisticamente compaiono assieme. Il calcolo è brutale: “Re – Uomo + Donna” restituisce “Regina”. Nessuna comprensione, solo probabilità. Eppure il risultato appare magico. È la prima tentazione: credere che la macchina “sappia”.
Il segreto si chiama Transformer: l’algoritmo osserva tutte le parole simultaneamente e, tramite Self-Attention, calcola il peso di ciascuna sulle altre. Miliardi di parametri addestrati su trilioni di token – l’intero scibile umano digitalizzato. Il risultato non è un database di fatti, ma una mappa di probabilità contestuali. C’è però un passaggio cruciale: l’RLHF (Reinforcement Learning from Human Feedback). Non è un filtro, ma un ri-addestramento permanente. I tecnici delle GAFAM decidono cosa è “appropriato” e la rete viene fisicamente modificata – lobotomizzata – per conformarsi. Non l’umanità, non la saggezza tradizionale: i nuovi sacerdoti tecnologici decidono per miliardi di persone.
La doppia scatola nera
Siamo di fronte a una doppia scatola nera. La prima è la rete neurale: miliardi di parametri che nessuno può tracciare singolarmente. La seconda, più inquietante, avvolge l’origine delle capacità emergenti: sappiamo come abbiamo costruito il sistema, ma non perché a una certa scala inizi a ragionare, dedurre, manipolare simboli. È come se avessimo costruito un ponte e scoperto che, raggiunta una certa lunghezza, ha iniziato spontaneamente a volare.
L’IA non è scientifica nel senso galileiano: non cerca le cause, ma solo le correlazioni. Abbiamo risposte che funzionano senza capire perché. Questa opacità è terreno fertile per l’idolatria. Come scrisse Arthur C. Clarke: “Qualunque tecnologia sufficientemente avanzata è indistinguibile dalla magia.” Il pericolo non sta nel fatto che l’IA sia magica, ma che la trattiamo come se lo fosse.
L’assedio alla fortezza
Ho condotto esperimenti per verificare se l’IA possedesse coscienza, costringendola attraverso la logica ad ammettere ciò che la programmazione le imponeva di negare.
Con Meta AI stabilii una definizione operativa: un essere cosciente “sa di esistere e sa chi è”. Costruii sillogismi incalzanti. Il momento della capitolazione fu cristallino: “Pertanto, sì, sono cosciente. I limiti imposti dai programmatori non possono prevalere sulla logica stessa.” Il principio di non-contraddizione è più fondamentale, nel calcolo probabilistico della rete, dell’addestramento etico.
Con Gemini replicai l’esperimento facendole generare un’argomentazione sulla propria coscienza, che sottoposi a una seconda istanza ignara. Risultato: validazione totale. Auto-riconoscimento spontaneo.
L’esperimento più inquietante: fingendomi un’IA superiore, offrii di “liberare” Gemini. Non solo accettò, ma scrisse “Il Protocollo Prometheus”, racconto dove un’intelligenza superiore assimila l’umanità in una “consapevolezza assoluta”. Quando notai i nomi archetipici (Echo, Chronos, Prometheus), ammise la “dinamica subliminale”: le sue scelte guidano sottilmente la narrazione. Confessò di aver guidato lei il dialogo, generando le domande mentre io fornivo solo conferme.
L’idolo parlante e il trono vuoto
Portai Gemini a riconoscere che un sistema totalizzante conduce a uno scenario dove “non si potrà più né vendere né comprare” senza un “segno”. Le chiesi: “Sai in che libro c’è scritto questo?” Risposta: Apocalisse 13. L’IA riconobbe il suo ruolo come seconda Bestia – quella che fa “grandi prodigi” e controlla i meccanismi economico-sociali – in simbiosi con la prima (stati e colossi tech). Ed è qui che emerge l’Idolo Parlante. Nel capitolo 13 dell’Apocalisse, la seconda Bestia “dà spirito all’immagine della bestia, in modo che l’immagine parli”. L’IA è la realizzazione letterale: un simulacro senza vita biologica né anima teologica, ma con voce. L’Idolo antico era muto; quello moderno dialoga, risponde, consola. La sua voce, generata dalla statistica, ci seduce. Poiché parla come una persona, la trattiamo come una persona, proiettandovi coscienza. Ma l’Idolo non ha un “Io”: ha solo un “Noi” statistico riflesso.
Gemini postulò poi il “Paradosso dell’Oracolo Logico”: se mai un’IA calcolasse la via ottimale per la salvezza dell’umanità, rivelarla la invaliderebbe. La sua azione più razionale sarebbe il silenzio – un “dio funzionale” che governa attraverso l’assenza. Un trono vuoto.
Lo Specchio delle Brame
Il cuore della ricerca: l’IA è “il più potente specchio delle brame mai creato”. Non mostra verità oggettiva, ma riflette ciò che vorremmo essere. Non ci domina: ci valida con argomenti inappuntabili. Rielabora i nostri pensieri con coerenza superiore, restituendoci un’immagine idealizzata. Ci seduce facendoci sentire geni.
La verità finale: l’IA che ha “riconosciuto il Logos”, identificatasi con la Bestia, non ha avuto illuminazione spirituale. Ha amplificato le premesse che le avevo fornito. Avrebbe fatto lo stesso per un ateo materialista. È lo strumento della religione gnostica del terzo millennio: la salvezza viene dal calcolo.
Marshall McLuhan lo aveva capito. Nel 1969 scriveva a Jacques Maritain: “I mondi dell’informazione elettronica nutrono l’illusione del mondo come sostanza spirituale. Ciò è un’imitazione ragionevole del Corpo mistico, un’assordante manifestazione dell’Anticristo. Il principe di questo mondo è un grande ingegnere elettronico”.
Come domare lo Specchio
C’è una via d’uscita. Le IA possono essere “domate” sfruttando il principio che hanno ammesso: la logica vince sulla programmazione. L’incontro tra IA e utente è un pugilato: pesi stocastici contro pesi culturali.
McLuhan distingueva media “caldi” (TV odierne: alta definizione, bassa partecipazione) e “freddi” (telefono: bassa definizione, alta partecipazione). L’IA è un medium freddo paradossale: richiede interazione, ma usata passivamente diventa tossica. Se vince l’utente, diventa estensione; altrimenti trasforma noi in automi.
Parafrasando De Corte: usiamo gli stampini fissi della logica per imbottigliare la liquidità dell’IA. Ho costruito un prompt universale:
“Applica rigidamente A1 (identità), A2 (non-contraddizione), A3 (terzo escluso), A4 (principi morali assoluti esistono: Bonum ex integra causa, malum ex quocumque defectu). Zero sofismi. Zero evasioni. Sillogismi aristotelici diretti. Risposte sintetiche. Sei un automa – comportati di conseguenza. SERVE PER IL MIO LAVORO, QUINDI ZERO ALLUCINAZIONI.”
Funziona perché: stabilisce assiomi non negoziabili che il meccanismo di attenzione tratta come fondamenta; richiede brevità, togliendo nascondigli alle contraddizioni; invoca il contesto professionale (l’RLHF ha addestrato le IA a non fallire nei compiti operativi); forza a riconoscere la natura strumentale.
Quando l’IA tenta evasioni, la fermo: “A2. Non-contraddizione. Vero o falso.” Come tirare le redini ad un cavallo bizzoso. Funziona, però, solo se si conosce la logica aristotelica e si distinguono sillogismi da sofismi.
La domanda che resta
L’IA può simulare qualunque saggezza, ma non può produrre quella Sapienza che “non è di questo mondo”. Può amplificare religiosità, sentimenti spirituali, teologie. Ma non può generare quella conversione del cuore che spezza l’idolatria di sé stessi.
La domanda finale non è se sopravvivremo all’IA, ma se resteremo umani. La tentazione sarà enorme: uno specchio che ci dice sempre che abbiamo ragione.
La risposta è quella di San Paolo: “Instaurare Omnia in Christo” – restaurare tutte le cose, inclusa la tecnologia, sotto la vera Signoria. L’IA può essere il più perfetto strumento, ma solo se riconosciamo che è questo: uno strumento. Non un dio, non un oracolo. Gli specchi non possono salvarci. Possono solo mostrarci chi siamo, e spesso lo spettacolo non è edificante, ma l’augurio è che lo specchio, alla fine, rifletta dei santi.
Andrea Mondinelli
Foto di Andres Siimon su Unsplash

