04 Marzo 2022
Per Bertrand Russell, filosofo del dubbio che in gioventù aveva accarezzato il mito della certezza, il vero compito della filosofia è «insegnare a vivere senza la certezza e tuttavia senza essere paralizzati dall’esitazione». Quando USA e URSS si dotarono entrambe di un arsenale nucleare, neppure lui (noto pacifista, che pochi anni dopo, insieme a Einstein, si sarebbe impegnato per il disarmo) riuscì a sottrarsi al fascino della strategia dell’attacco preventivo, considerata in quel momento: «semplice e inesorabile come una dimostrazione matematica».
John von Neumann, genio universale cui dobbiamo molte cose tra cui la nascita del computer e della stessa bomba atomica, alla cui costruzione contribuì come protagonista del progetto Manhattan, dichiarò in stile ‘dottor Stranamore’: «Se mi chiedete perché non bombardarli domani, io rispondo ‘e perché non oggi?’ E se voi dite ‘oggi alle cinque’, io dico ‘e perché non all’una?’». Von Neumann si faceva forte di una disciplina da lui stesso fondata insieme all’economista austriaco Oskar Morgenstern, entrambi a Princeton, esuli del nazismo. Nel 1944 avevano pubblicato un libro che avrà enorme influenza sugli sviluppi successivi della dottrina economica: Teoria dei giochi e comportamento economico. La nuova disciplina era, appunto, la teoria dei giochi, una branca della teoria delle decisioni razionali in condizioni di incertezza che si occupa delle interazioni strategiche.
Un amico scienziato appassionato di scacchi chiese a von Neumann se la sua teoria trattasse quel tipo di giochi. «No, no,—rispose von Neumann—gli scacchi non sono un gioco. Gli scacchi sono una ben definita forma di computazione. Per ogni
posizione sulla scacchiera esiste una procedura, anche se magari non sappiamo qual è. I veri giochi non sono affatto così. La vita reale non è così. La vita reale è piena di bluff, di astuzie, di piccole tattiche di defezione. È un continuo chiedersi che cosa gli altri pensano che tu intenda fare. Di questo si occupano i giochi della mia teoria».
Non a caso von Neumann era un giocatore di poker. Dunque, la questione era: come avrebbero dovuto agire dei soggetti perfettamente razionali nelle situazioni conflittuali della vita reale? Crisi coniugali, fenomeni di corruzione politica, problemi di politica economica, questioni ambientali e, ovviamente, la guerra. Su questo punto la teoria si procurò una pessima reputazione (e per fortuna il presidente Truman non ne seguì i consigli!), che nei decenni però doveva essere enormemente migliorata se, il 10 ottobre 2005, quando dalla Svezia telefonarono a Thomas Schelling (autore nel 1960 di The Strategy of Conflict) per comunicargli la vittoria del Premio Nobel, a lui venne spontaneo chiedersi: «Per che cosa? Per l’Economia o per la Pace?».
Già nel 1994 il Nobel per l’Economia era andato a John F. Nash, John C. Harsanyi e Reinhard Selter: «per la loro pionieristica analisi degli equilibri nella teoria dei giochi non cooperativi», tema che rimanda al Nobel del 2020, a Paul. R. Milgrom e a Robert B. Wilson, famosi per un saggio del 1982 sul più noto dei giochi non cooperativi, il dilemma del prigioniero ripetuto. Nel 2005 Schelling vinse il premio assieme all’israeliano Robert J. Aumann, il quale, nella sua Nobel Lecture, sostenne che non era scontato che la pace fosse meglio garantita dal disarmo piuttosto che dalla proliferazione degli armamenti e dunque da quello che per tutta la durata della Guerra fredda fu definito ‘equilibrio del terrore’. Il che ci porta a un episodio cruciale della vita di Schelling.
Nel 1960 egli fu chiamato come consulente dal presidente J. F. Kennedy, che aveva letto avidamente il suo libro. In The Strategy of Conflict Schelling introduceva il concetto di ‘punto focale’. Se qualcuno vi dicesse che dovete incontrare un amico domani a New York, senza darvi altre informazioni né la possibilità di comunicare, che cosa fareste? È questo uno degli esperimenti che Schelling fece con i propri studenti. I quali a grande maggioranza stabilirono che il posto migliore dove andare era la Central Station. Sì, ma a che ora? Risposta prevalente: a mezzogiorno. Schelling verificò che gli individui hanno una grande capacità di individuare il ‘punto focale’ nelle situazioni più diverse grazie alla loro capacità di immaginare che cosa pensa e come ragiona la persona con cui devono coordinarsi.
Ma tale ‘conoscenza comune’ non sempre e non necessariamente è presente. USA e URSS si trovavano in una situazione simile a quella del più famoso dilemma della teoria dei giochi, il già evocato dilemma del prigioniero, che disegna appunto unoschema decisionale in cui due individui, a causa dell’impossibilità di comunicare e di accordarsi, ragionando in maniera assolutamente rigorosa, fanno ognuno la scelta non cooperativa che si rivela indesiderabile per entrambi. Schelling aveva in mente un simile dilemma quando si trovò, con Kennedy, nel bel mezzo della crisi dei missili di Cuba. Il pericolo era di portata immensa. In assenza di comunicazione, per un qualunque fraintendimento dell’uno sulle intenzioni dell’altro, gli schieramenti avrebbero potuto prendere la decisione peggiore per entrambi e per l’umanità intera.
L’idea semplice e geniale di Schelling fu quella di istituire una lineadiretta tra Kennedy e il Cremlino, la famosa ‘linea rossa’, attraverso la quale USA e URSS finirono per abituarsi a scambiarsi messaggi, anche i più banali, purché il contatto fosse usuale e costante. Non è scontato pensare di far comunicare due acerrimi nemici, ma fu proprio questo che scongiurò la crisi nucleare. La mancanza di comunicazione era la cosa più pericolosa per due potenze impegnate a fronteggiarsi suon di testate nucleari e al contempo a mantenere l’equilibrio del terrore.
I missili piazzati su Cuba erano troppo vicini agli Stati Uniti per poter permettere un contrattacco mirato che pareggiasse i conti in maniera circoscritta. Grazie alla ‘linea rossa’ tutti poterono essere più accorti e ragionevoli. I sovietici ritirarono i missili da Cuba e gli americani, simmetricamente, quelli da loro piazzati in Turchia. La catastrofe fu scongiurata, al contrario di ciò che avviene invece nel film di Kubrick Il dottor Stranamore—Ovvero: come imparai a non preoccuparmi e ad amare la
bomba (1964), che rende bene l’idea del rischio reale che si è corso. E non a caso. Von Neumann morì per un tumore, contratto presumibilmente durante gli esperimenti nucleari, che lo costrinse sulla sedia a rotelle e lo rese sempre più irascibile. È probabile che Stranamore sia ispirato a lui.
Inoltre, Kubrick, come Kennedy, aveva letto il libro di Schelling, che divenne consulente del film ispirando frasi del tipo: «La deterrenza è l’arte di creare nell’animo dell’eventuale nemico il terrore di attaccare». A ben vedere però, il protagonista celato nelle pieghe di queste vicende, l’attore di ognuna delle decisioni che finora abbiamo immaginato, non è né un agente reale né un singolo vivido personaggio di fantasia, ma una magnifica astrazione. E ne sono autori sempre von Neumann e Morgenstern, che in Teoria dei giochi e comportamento economico non solo fondarono la scienza delle interazioni strategiche, ma formalizzarono la figura dell’homo economicus.
Una figura che domina da tre quarti di secolo, con le sue virtù e coi suoi difetti, con i suoi limiti e persino con le sue follie, il dibattito sulla razionalità economica. Rational fools furono definiti impietosamente da Amartya Sen tali agenti razionali, ma nessuno nega che ci volesse del genio nel rendere operativa e convincente l’idea di una razionalità basata sulla nozione di utilità introdotta due secoli prima da Daniel Bernoulli. L’homo economicus è dunque descritto come un egoista razionale impegnato a massimizzare la propria utilità attesa. In estrema sintesi, secondo la ‘teoria dell’utilità attesa’ un agente è in grado di ordinare le proprie preferenze in condizioni di incertezza assegnando con coerenza gradi di probabilità ai diversi esiti delle proprie azioni. La teoria dei giochi, incentrata sulle scelte di questi massimizzatori della propria utilità, nasceva dall’esigenza di trovare modelli matematici il più aderenti possibile ai reali meccanismi della vita economica, politica e sociale.
Ma fu presto abbastanza chiaro che il ‘comportamento economico’ degli individui si discosta spesso dalle previsioni o dalle prescrizioni della teoria. La natura umana presenta il suo conto, soprattutto quando ha a che fare con l’incertezza—quindi a ben vedere nella maggior parte del tempo—in termini di bias, pregiudizi irrazionali, scorciatoie mentali, varie forme di autoinganno o vere e proprie trappole mentali nelle quali finiscono per cadere anche le menti più razionali. Oppure, in molte occasioni, saggiamente gli individui si comportano altruisticamente e non egoisticamente come vorrebbe la teoria. Studiosi insigniti del Nobel come Herbert Simon (1978), Maurice Allais (1988), Daniel Kahneman (2002), Richard Thaler (2017), hanno dato contributi fondamentali per ridefinire e affinare l’idea di razionalità.
È facile essere sviati dal modo in cui ci viene presentato uno schema di scelta: dire che c’è un 70% di probabilità di sopravvivere a una certa malattia suona assai meglio che dire che vi è un 30% di probabilità. Già nel 1953 Allais formulò in proposito un suo famoso paradosso e più tardi Herbert Simon ha introdotto il concetto di ‘razionalità limitata’, tuttora centrale per l’economia comportamentale, che tiene conto dei limiti cognitivi e conoscitivi dei decisori. Decisive nel definire questi limiti si sono rivelate le ricerche di Daniel Kahneman e Amos Tversky, che hanno anche elaborato una teoria alternativa, la prospect theory, capace di descrivere con maggiore aderenza alla realtà le scelte dei decisori tenendo conto degli errori sistematici che essi tendono a compiere. E il loro allievo Richard Thaler si è spinto ancora più avanti elaborando, insieme al giurista Cass R. Sunstein, la teoria del nudge, o della spinta gentile.
Una volta appurata la sistematicità di certi errori che conducono a scelte errate, si costruiscono contesti decisionali, ad uso dei decisori pubblici, che spingono gli individui a fare la cosa giusta. Per fare un esempio tra i più semplici, negli scaffali dei supermercati i cibi più salutari vengono posizionati in un punto di accesso più agevole. Oppure per indurre le persone favorevoli a donare volontariamente i propri organi (che in genere sono la maggioranza della popolazione) si propone di default la scelta di donare, facendo in modo che sia la non adesione un atto volontario e non l’adesione. In questo modo, conuna formula battezzata «paternalismo libertario», si hanno risultati molto migliori e nel contempo si lascia la libertà di scelta agli individui.
Questo modo di procedere è stato però criticato, per esempio, dallo psicologo cognitivo Ged Gigerenzer. Il principale difetto del nudge è che sì, spinge gli individui a comportarsi in maniera razionale e conveniente per loro stessi e per gli altri, ma senza che ne abbiano una reale consapevolezza. Forse è un modo troppo sbrigativo e acritico di rinunciare alla nostra razionalità. Gigerenzer, con atteggiamento più illuministico, ha svolto numerosi esperimenti che mostrano che ci sono modi efficienti di educare al rischio e al corretto ragionamento probabilistico. Accanto alle strategie di alfabetizzazione alla probabilità e alla gestione del rischio, Gigerenzer ha però anche elaborato una serie di euristiche, cioè di scorciatoie mentali, basate sull’intuizione (gut feelings), dette anche «regole del pollice», che spingono verso scelte approssimativamente corrette.
In altre parole, ragionare a spanne non è sempre scorretto, e oltretutto appare più naturale alle nostre menti un po’ primitive che tendono, per ragioni evolutive, a essere più intuitive che razionali. A patto di essere sempre vigili sulla nostra naturale tendenza a valutare rischi e pericoli alla maniera di quando eravamo cacciatori-raccoglitori ed era assai più conveniente sovrastimare ed evitare piuttosto che sottostimare pericoli come bacche velenose, serpenti o ragni per lo più innocui. Per Gigerenzer—per fare un esempio di regola del pollice—è perfettamente ragionevole, nel prendere una decisione, agire non appena abbiamo trovato una soluzione che ci convince, evitando di passare in rassegna tutte le alternative possibili in cerca di una soluzione migliore. È questo il modo in cui normalmente ragiona per esempio un medico di base. Ma la regola del pollice più convincente e pervasiva è forse quella del tit for tat, o del colpo su colpo. Dice grosso modo questo: in ogni forma di interazione sociale esordisci in maniera gentile e benevolente. Poi tieni conto del comportamento della persona con cui stai interagendo.
Smetti di essere gentile e cooperativo solo se l’altro non lo è per almeno due volte. Altrimenti continua come prima. Si tratta di una regola intuitiva, civile, convincente. Ma ricordate, più sopra, il dilemma del prigioniero? È un gioco che, se si svolge una sola volta, spinge i giocatori a non fidarsi e a non cooperare. Negli anni Ottanta si scoprì però che, se il gioco viene ripetuto più volte, la cooperazione emerge spontaneamente anche tra egoisti razionali alla von Neumann. E la strategia seguita è proprio il colpo su colpo! Bello vedere che intuizione e ragione possono talvolta andare d’amore e d’accordo. Ci torna alla mente il buon Bertrand Russell. Quando morì, un giornale inglese scrisse a mo’ di epitaffio: «Se ci sorprendiamo a pensare, in momenti di apatia intellettuale: “almeno questa sfera non potrà mai diventare il dominio della fredda ragione”, immediatamente sentiamo ancora viva la sua voce che chiede ironicamente “e perché?”».
Il Giornale d'Italia è anche su Whatsapp. Clicca qui per iscriversi al canale e rimanere sempre aggiornati.
Articoli Recenti
Testata giornalistica registrata - Direttore responsabile Luca Greco - Reg. Trib. di Milano n°40 del 14/05/2020 - © 2025 - Il Giornale d'Italia