Macchine che Calcolano o Abili Persuasori? L’IA Sotto la Lente della Retorica
Amici, vi siete mai chiesti se le macchine possano davvero ‘pensare’? È una domanda che ci ronza in testa da quando Alan Turing, quel genio dei computer, la lanciò nel lontano 1950. Sembra quasi un tarlo, questo continuo paragone tra le abilità delle macchine e quelle, squisitamente umane, del pensiero e della comunicazione. Ma, diciamocelo, Turing stesso sapeva bene che i computer sono, in fondo, macchine calcolatrici che seguono programmi, con la loro logica binaria di ‘1’ e ‘0’. Il suo famoso test, infatti, non mira a scoprire se una macchina pensi, ma se riesca a farci credere di interagire con un essere umano. Un “gioco di imitazione”, lo chiamava. E qui, secondo me, casca l’asino, o meglio, si accende la lampadina sull’Intelligenza Artificiale Generativa di oggi.
Questi strumenti, come ChatGPT per intenderci, non solo comunicano in modo ‘umanoide’, ma riescono a imitare stili specifici, facendoci pensare che abbiano capacità umane, se non addirittura sovrumane. Ecco, il punto che mi affascina e che voglio esplorare con voi non è tanto la matematica complessa che c’è dietro, quella che spesso percepiamo come una ‘scatola nera’, ma le conseguenze retoriche di questa tecnologia. Come fanno queste macchine a costruire ‘superfici testuali’ così persuasive? E come interagiscono con la nostra comunicazione?
L’IA come “Scatola Nera”: Tra Matematica e Magia
Parliamoci chiaro: l’IA generativa, con la sua capacità di combinare calcoli complessi e comunicazione fluida, ha raggiunto vette di persuasione notevoli. Ma è fondamentale distinguere tra la sua dimensione matematica, dominata da algoritmi e probabilità, e le sue implicazioni retoriche, che toccano le corde della comunicazione umana. Spesso, l’aspetto da ‘scatola nera’ dell’IA può nascondere le intenzioni, le ideologie e le azioni delle aziende che la sviluppano. Pensateci: chi c’è dietro? Quali interessi muovono queste creazioni?
Il mito della “macchina pensante” non è nuovo, affonda le radici nell’antichità: da Efesto che forgia schiavi meccanici nell’Iliade, al Golem d’argilla, fino al mostro di Frankenstein. C’è sempre stata questa “ansia prometeica”, la paura di essere superati dalle nostre stesse creature. E il termine “Intelligenza Artificiale”, coniato nel 1956, non ha fatto che alimentare questo mito, caricando di aspettative una tecnologia che, fondamentalmente, processa enormi quantità di dati per trovare schemi. Anche la fantascienza ci ha messo del suo, dipingendo IA con corpi, voci, pensieri e anime, spesso pronte a surclassarci. Questa ambivalenza rende la tecnologia tanto affascinante quanto problematica.
Oggi, percepiamo l’IA quasi come un’entità con una sua agenzia, capace di darci consigli su tutto. Ma come ha sottolineato Kate Crawford, l’IA “non è né artificiale né intelligente” nel senso umano. Questa tendenza ad antropomorfizzare, a proiettare qualità umane su processi tecnologici, è forte. Ricordate l’effetto ELIZA? Già nel 1966, un semplice programma faceva credere alle persone di interagire con un terapeuta. È la nostra ‘teoria della mente’ che ci porta a cercare intenzionalità dove c’è interazione linguistica. Ma questa è una china scivolosa, perché ci porta a fidarci ciecamente, a delegare decisioni importanti senza capire veramente cosa succede ‘dentro la scatola’.

Le grandi aziende tech, a volte, sembrano cavalcare questa onda di “catastrofismo IA”, avvertendoci di apocalissi imminenti causate da Intelligenze Artificiali Generali super potenti. La soluzione? Autoregolamentazione, dicono, perché “nessuno al di fuori del settore può capire cosa sia possibile”. Ma come dice Gary Smith, “il vero pericolo non è che i computer siano più intelligenti di noi, ma che noi pensiamo che i computer siano più intelligenti di noi”. Dobbiamo smettere di farci intimidire e fidarci del nostro giudizio.
Autorialità e Significato nell’Era dell’IA: Chi Scrive Davvero?
La facilità d’uso di strumenti come ChatGPT è disarmante. Hanno nomi, ci parlano direttamente, imitano la scrittura umana. E noi, di conseguenza, pensiamo che ‘rispondano’, ‘pensino’, a volte che siano ‘stupidi’ o ‘intelligenti’. Ma non dobbiamo dimenticare che sono il frutto di matematica e statistica, “pappagalli stocastici” addestrati a calcolare la parola più probabile in un contesto. Eppure, non sono solo questo. Quando interagiamo con loro, il calcolo si fonde con una forma di comunicazione. Imitano schemi retorici collaudati, remixano dati per creare contenuti nuovi, giocando la loro versione del “gioco di imitazione” di Turing.
Ciò che l’IA crea potremmo definirlo superfici persuasive: strutture testuali (o visive) informate retoricamente, capaci di innescare e interagire con la comunicazione umana in modo naturale, persino convincente. Che siano testi ben scritti o accurati, però, dipende dalla nostra competenza sull’argomento (l’effetto Gell-Mann, chi lo conosce?). Questo solleva questioni fondamentali sull’autorialità. La tradizionale idea dell’autore-genio, dell’individuo creativo, vacilla. Se un testo è generato da un’IA, chi è l’autore? A chi attribuire la responsabilità, legale e morale?
Certo, l’intenzionalità umana è presente nei dati di addestramento, negli algoritmi, nei prompt. Ma questa molteplicità di intenzioni rende impossibile risalire a un singolo ‘autore’. I testi diventano ‘senza luogo’, prodotti ibridi. Non serve invocare una crisi culturale; la storia ci insegna che la nostra comprensione di creatività e autorialità è cambiata più volte. Pensiamo alla Genieästhetik del Settecento, con il culto di autori come Goethe e Schiller. Ma ci sono sempre stati testi frutto di tecniche retoriche, di ricombinazione di blocchi testuali socialmente riconosciuti, fin dall’antichità.
Friedrich Kittler parlava di “discourse network” (Aufschreibesysteme), l’influenza reciproca tra tecnologia e pensiero. La macchina da scrivere, diceva Nietzsche, “partecipa alla formazione dei nostri pensieri”. L’IA sfida il nostro concetto di autorialità, ma l’umanità ha sempre saputo affrontare queste sfide. Forse, però, l’impatto non è mai stato così profondo, arrivando a toccare il nostro concetto di realtà. Pensiamo ai deepfake: addio all’idea della fotografia come prova oggettiva.
Superare Shannon: Verso un Modello Retorico della Comunicazione con l’IA
La semplicità con cui l’IA produce contenuti porta a una comunicazione iper-individualizzata, minando il ‘common ground’, quel terreno comune di esperienze condivise (notizie, intrattenimento, educazione) cruciale per il consenso sociale. Le superfici dell’IA sono persuasive, e questo ci costringe a ridefinire l’autorialità. I contenuti sono sempre più frutto di un gioco tra input umano e processamento automatico. Ma il nostro modo di pensare la comunicazione è ancora troppo legato a modelli tecnici, come quello di Claude Shannon del 1948.
Il modello di Shannon è unidirezionale: un emittente invia un messaggio a un ricevente passivo. Utile per le telecomunicazioni, certo, ma la comunicazione umana è molto più complessa e ‘sporca’. Il significato dipende da una miriade di fattori cognitivi, tecnici, soggettivi, situazionali. Per capire meglio, potremmo guardare alla letteratura e alla retorica. Lubomir Doležel, ad esempio, ha applicato il modello di Shannon ai testi scritti, ma è Wayne C. Booth con la sua Retorica della Narrativa che ci offre una chiave interessante. Per Booth, ogni opera letteraria è un sistema di controlli sull’attenzione del lettore. L’autore è uno stratega che fa offerte comunicative per guidare il lettore, un po’ come un oratore classico.

Booth introduce il concetto di ‘autore implicito’: la versione ideale e letteraria dell’autore reale che inferiamo dal testo. Questo rafforza il ruolo del lettore senza ‘uccidere’ l’autore, come invece teorizzavano Barthes o Foucault. Il lettore (ri)costruisce l’autore, ma l’autore rimane, perché formula offerte di significato. Anche nei mondi fittizi della letteratura, i testi non sono mai neutrali, esercitano sempre un controllo. E qui entra in gioco la retorica, che per Terry Eagleton è lo studio di come i discorsi sono costruiti per ottenere certi effetti, indipendentemente dal tipo di testo.
Un testo, secondo Doležel, crea ‘mondi possibili’ che il lettore ricostruisce. Ogni mondo possibile stabilisce la propria epistemologia, ontologia e sistema di valori, offrendo ‘identificazioni’ al lettore. Trasferendo questo all’IA generativa, il controllo sul testo si disperde lungo tutto il processo: dati di addestramento, algoritmi, interfacce, feedback, prompt. Non c’è una singola autorità. Eppure, l’impatto persuasivo c’è. I valori e gli interessi impliciti nei testi generati dall’IA devono essere decostruiti. E qui, la teoria della retorica ci viene in aiuto.
Doležel modifica il modello di Shannon per valorizzare il lettore:
- L’autore costruisce un mondo possibile [W(F)] nel testo.
- Il lettore ricostruisce questo mondo durante la lettura.
Questo modello descrive bene l’interazione uomo-IA: l’utente fornisce l’input (costruzione iniziale), l’IA tenta di ricostruirlo producendo un output, che l’utente a sua volta ricostruisce. È una danza collaborativa di costruzione e ricostruzione. Non serve vedere l’IA come un autore sui generis; se la consideriamo co-produttrice di comunicazione, diventa parte integrante del processo retorico di persuasione.
L’IA come “Techné” Retorica: Imparare a Decifrare la Persuasione
L’impatto di queste strutture retoriche va oltre la creazione di contenuti: riguarda la loro diffusione e l’effetto sul pubblico. L’IA generativa può costruire ‘mondi possibili’ con un enorme impatto comunicativo, sbloccando un potenziale politico attraverso la creazione di ‘superfici persuasive’, ma con una perdita di controllo autoriale. Questo può portare a un sovraccarico informativo, rendendo difficile stabilire un terreno comune per la valutazione degli argomenti. Se prima gli autori potevano contare su una certa comunanza di esperienze nel loro pubblico, oggi, con la produzione di contenuti iper-individualizzata e la saturazione informativa, non è più così.
Per affrontare questa sfida, serve competenza comunicativa. Capire i meccanismi retorici dietro ai testi è la chiave. Aristotele descriveva l’arte della persuasione come ‘téchnē rhētorikḗ’: uno strumento apprendibile e strategicamente utilizzabile. La retorica come ‘techné’ è una teoria specializzata, orientata alla produzione, con una componente artigianale. E sebbene ci sia differenza tra l’antica ‘techné’ e la nostra tecnologia IA, le somiglianze sono palpabili. Entrambe si occupano di contingenze e probabilità comunicative in modo astratto ed euristico. La ‘sottigliezza’ della teoria retorica, la sua capacità di adattarsi senza essere eccessivamente sistematica, è una virtù. Una ‘sottigliezza’ che, come abbiamo visto, si applica anche all’IA generativa, di cui non sappiamo esattamente perché funzioni così bene.
Questa enfasi sul ‘saper fare’ più che sulle fondamenta teoriche posiziona l’IA generativa come un’arte pratica della comunicazione, una ‘techné’ in senso retorico. Ma questo solleva questioni etiche: la ‘techné’, come la tecnologia, è moralmente neutra; è il prodotto finale ad essere soggetto a scrutinio morale. La retorica ha sviluppato valori etici per guidare l’oratore. Se l’IA è una ‘techné’ retorica, dovremmo tenerne conto. La retorica, come ‘poiesis’ (qualcosa che viene prodotto), è essa stessa generativa. Pensatori come Ian Bogost hanno parlato di retorica come “procedurale, algoritmica, macchinica e computazionale”.

Per millenni, la retorica è stata una ‘macchina’ per produrre testi, formando argomenti da conoscenze consolidate (i topoi di Aristotele). Ramon Llull, nel XIII-XIV secolo, sviluppò un sistema di diagrammi per dedurre tutte le risposte possibili da tutte le domande possibili – un precursore dell’IA! Erasmo da Rotterdam, nel suo De Copia, fornì 195 variazioni della frase ‘La tua lettera mi ha molto rallegrato’. Macchine conversazionali basate su regole. Ma nella pratica retorica, la produzione macchinica deve sempre adattarsi al contesto, al kairos (il momento opportuno). Quintiliano diceva che “il dono più importante per un oratore è una saggia adattabilità”.
E che dire della “saggia adattabilità” quando l’autorialità è così problematica? L’IA imita i testi su cui è addestrata. Anche la retorica, diceva Quintiliano, si basa sull’imitazione di ciò che ha avuto successo. Ma l’imitazione da sola non basta. Un retore deve aggiornare i luoghi comuni per una situazione e un pubblico specifici. Poiché l’IA generativa è simile a una ‘techné’ retorica, possiamo trasferire questa conoscenza sulla competenza retorica alla competenza sull’IA. Annette Vee parla di “scrivere per la perplessità” come obiettivo umano, un’eco della figura retorica dell’imitatio auctorum. La “saggia adattabilità” è il cuore della competenza retorica.
In definitiva, l’analisi critica delle superfici persuasive generate dall’IA spetta a noi, utenti e pubblico. Questo sottolinea l’importanza di potenziare la nostra competenza comunicativa in un mondo guidato dall’IA. È una sfida enorme, data la velocità con cui vengono generati i contenuti. Ma è una sfida che dobbiamo raccogliere, armati di una comprensione più profonda della comunicazione umana e del ruolo attivo che giochiamo come interpreti e costruttori di significato.
Fonte: Springer
