Che cosa c’entra Socrate con l’AI che ti dà sempre ragione?

 volte succede in modo quasi impercettibile.

Apri una qualsiasi intelligenza artificiale generativa, fai una domanda su una decisione, una mail, una proposta commerciale, un post da scrivere, una scelta da fare. Lui/Lei risponde bene, anzi, spesso risponde molto bene; il tono è fluido, il testo è pulito, il ragionamento sembra ordinato. Tu leggi e senti una sensazione sottile ma potentissima: “ecco, adesso è chiaro”.

Il punto è che quella chiarezza, a volte, è solo apparente. Più che diventare davvero comprensibile, qualcosa diventa semplicemente più convincente. Ed è qui che, secondo me, entra in scena un problema interessante; un problema umano, prima ancora che tecnico. Perché una delle grandi tentazioni di questo tempo è confondere una risposta ben costruita con una risposta ben pensata. L’AI, per sua natura, è spesso bravissima a darti una formulazione plausibile, rassicurante, scorrevole, se la usi bene è un alleato straordinario. Però se non fai attenzione può succedere una cosa molto semplice: invece di aiutarti a pensare meglio, comincia a pensare al posto tuo, o peggio ancora, ti restituisce una versione elegante di quello che volevi sentirti dire.

Qui Socrate diventa attualissimo.

Noi lo ricordiamo spesso per una formula che sembra quasi scolastica: “so di non sapere”. In realtà quella frase, letta bene, non è certo un gesto di modestia, è un metodo, è il rifiuto di chiudere troppo in fretta una domanda.

Socrate non era interessato alle risposte comode. Era interessato alle domande che aprono, che disturbano, che costringono a vedere dove il nostro ragionamento fa acqua.

Non cercava conferme, cercava crepe!

Ecco perché, paradossalmente, oggi avrebbe molto da insegnarci proprio nel rapporto con l’intelligenza artificiale. Perché il rischio non è solo che l’AI sbagli, il rischio più sottile è che ci accompagni troppo docilmente dentro i nostri stessi automatismi.

Se io chiedo a un modello: “scrivimi perché questa idea è valida”, lui lo farà benissimo. Se gli chiedo: “dimmi perché questa scelta è sensata”, troverà argomenti. Se gli chiedo: “spiegami perché il cliente ha torto”, probabilmente me lo spiegherà con ordine, esempi e un tono molto persuasivo. Il punto è che potrebbe semplicemente seguire la direzione implicita della mia richiesta.

C’è poi un altro passaggio che secondo me oggi merita attenzione. Per anni abbiamo vissuto dentro quello che è stato chiamato Google effect: non solo la tendenza a ricordare meno, perché tanto “si trova online”, ma anche una forma più sottile di delega. Se una cosa compariva su Google, per molti acquistava immediatamente una specie di patente di credibilità (in ambito medico si parlava addirittura del dottor Google, quando ci si faceva una diagnosi solo attraverso Google)

Nessuno l’aveva davvero verificata, confrontata, capita fino in fondo: eppure bastava il fatto che fosse lì, disponibile, formulata abbastanza bene, apparentemente trovabile da tutti.

Oggi questa dinamica si sta spostando ancora più avanti e sta diventando, sempre più spesso, un AI effect. Non deleghiamo soltanto la memoria, deleghiamo pezzi di giudizio. Una cosa ci sembra più vera perché ce l’ha restituita una macchina in modo ordinato, fluido, plausibile. È un passaggio delicato, perché Google almeno ci costringeva ancora a scegliere tra fonti diverse, l’AI, invece, molto spesso ci consegna già una sintesi. Ed una sintesi ben scritta ha un potere enorme: riduce l’attrito, abbassa il dubbio, fa sembrare compreso ciò che magari abbiamo solo assorbito.

Il rischio, allora, va oltre il semplice credere a un errore. C’è di mezzo la rinuncia a quel piccolo lavoro interiore che distingue l’informazione dalla verità pensata. In altre parole: al posto di “è vero perché l’ho verificato”, rischiamo di scivolare verso “suona vero, quindi probabilmente lo è”.

Ed è proprio qui che il pensiero critico dovrebbe riaccendersi, non spegnersi. Qui entra in gioco un meccanismo che vedo sempre più spesso: non tanto il vecchio automation bias, di cui abbiamo già parlato, quanto una forma di compiacenza cognitiva. Una tendenza a usare l’AI non per allargare il pensiero ma per lucidare la nostra tesi iniziale. In pratica: invece di farne un interlocutore critico, ne facciamo uno specchio brillante. Se lo guardiamo bene, questo meccanismo assomiglia moltissimo a qualcosa che conosciamo da sempre: è il nostro bisogno di conferma. Il desiderio profondo, umanissimo, di sentirci dire che abbiamo capito, che stiamo andando bene, che la nostra lettura è quella giusta. Solo che adesso questo bisogno incontra uno strumento rapidissimo, disponibile sempre, capace di vestirlo molto bene. E allora accade una cosa pericolosa: la mente scambia la fluidità per verità.

È qualcosa che somiglia molto a ciò che succede anche nella comunicazione umana. Anche lì, spesso, a imporsi non è l’argomento più solido, si fa strada quello detto meglio, con più sicurezza, con più ordine, con più lessico, con più postura. Quante volte una frase ben confezionata ci è sembrata più giusta di una frase incerta?

La comunicazione, quindi, qui è tutt’altro che un dettaglio, è il cuore della questione. Perché il modo in cui facciamo una domanda che sia a un umano che a una macchina orienta il tipo di mondo che riceviamo in risposta.

Se chiedo: “dimmi perché ho ragione”, ottengo conferme Se chiedo: “dimmi dove potrei starmi raccontando una storia comoda”, ottengo resistenza utile. Se chiedo: “quale parte non sto vedendo?”, improvvisamente cambia il gioco. Se chiedo: “fammi tre obiezioni serie alla mia idea”, inizio davvero a pensare.

Qui si gioca una differenza decisiva: usare il linguaggio per chiudere oppure usarlo per aprire. Secondo me oggi una delle forme più importanti di intelligenza non è saper usare l’AI, è saperle fare domande che non ci coccolano troppo.

E qui torna Socrate: per lui il valore non stava nella risposta pronta. Stava nel dialogo che ti costringeva ad aprire ragionamenti, a vedere che magari, sotto la superficie, non avevi capito così bene come credevi. Perché questo ammettere di non avere le idee ancora chiare (So di non sapere) invece di umiliarci ci rende semplicemente più liberi.

A me sembra che oggi, più che mai, abbiamo un bisogno enorme di questa libertà. Soprattutto perché viviamo in un’epoca in cui tutto spinge verso il contrario: velocità, sicurezza apparente, posizioni nette, opinioni immediate, linguaggio deciso. Tutto ci porta a chiudere presto e a sentirci già arrivati. Dal mio punto di vista però pensare davvero, spesso, comincia quando smettiamo di difendere la prima versione della storia. Anche nel rapporto con i clienti, con i collaboratori, con i team, questa cosa cambia molto. Perché un professionista forte non è quello che ha sempre la risposta pronta, è quello che sa tenere aperta la domanda giusta abbastanza a lungo da non farsi ingannare dalla prima risposta plausibile.

L’AI, usata bene, qui può diventare utilissima. Può aiutarti a generare alternative. Può aiutarti a vedere controargomentazioni. Può aiutarti a pulire il linguaggio. Può aiutarti a fare chiarezza. C’è però una condizione: che tu non la usi soltanto per sentirti confermato. La regola che mi piace è questa: non chiedere all’AI soltanto di aiutarti a dire meglio quello che pensi. Chiedile anche di aiutarti a mettere in crisi quello che pensi. È in quel momento che smette di essere un amplificatore del tuo automatismo e diventa uno strumento di pensiero.

Ti lascio con un micro-esercizio da due minuti.

Prendi una convinzione che hai oggi su un progetto, una scelta, una persona, una trattativa, una strategia, una decisione che ti sembra piuttosto chiara. Poi scrivi tre prompt, in quest’ordine: “Spiegami perché questa idea potrebbe essere valida.” “Spiegami perché questa idea potrebbe essere debole o incompleta.” “Quale domanda non sto facendo e dovrei fare prima di decidere?”

Leggi le tre risposte una accanto all’altra.Di solito, a quel punto, succede qualcosa di interessante: non diventi più confuso, diventi meno ingenuamente sicuro.

E a volte … è proprio lì che inizia un pensiero migliore.

A cura di Stefano Bertacchi