Transumanesimo, saprà conservare il dato fondamentale dell’intelligenza emotiva?

L’uomo discrimina, sa attribuire diverso valore alle cose (magari sbagliando), mentre il computer è invece a oggi meramente constativo, non costitutivo, e quindi creativo.

Interviene oggi nel dibattito sul transumanesimo l’Avvocato e saggista Fabio Massimo Nicosia, Presidente del Partito Libertario.

Il concetto da tenere ben presente è questo: il pericolo non sta affatto nella tecnologia, il cui accorto utilizzo può dare risultati ampiamente positivi, ma nel controllo unilaterale della stessa da parte di poteri e strapoteri pubblici e privati, con un particolare attivismo dei privati nell’ultima fase, sempre però come potenziale o attuale strumento del potere pubblico, con il quale risulta integrato da molti elementi, dalla titolarità dei diritti di proprietà intellettuale alla gestione vischiosa dei dati. Tuttavia, in prospettiva, probabilmente ancora lontana, un pericolo effettivo di dominio della tecnologia sull’uomo si ravvisa, ma stiamo parlando di scenari futuribili, da Star Wars o da altri film di fantascienza, ad esempio quelli sui cyborg e gli automi antropomorfi: si pensi a Blade Runner o al simpatico Alita – Angelo della Battaglia, in cui gli androidi provano sentimenti, dolore e piacere, quindi siamo ben oltre lo stesso punto di singolarità, quando la vera strada non è quella di contrapporre la macchina all’uomo, correndo il rischio di perdere la gara, ma di integrare la prima nel secondo, incrementandone le potenzialità all’infinito, fermo restando il carattere di umanità e la sua riconosciuta supremazia, in nome di un transumanesimo ben inteso, anzitutto sottratto ad alcun controllo unilaterale di potere, e che poi sappia conservare il dato fondamentale dell’intelligenza emotiva.

Quando il Parlamento europeo, nella risoluzione del 16 febbraio 2017 sul diritto civile della robotica, inizia a vaneggiare di “diritti dei robot” -quando i robot non dovrebbero avere meno diritti di quelli di uno schiavo, dato che lo schiavo prova dolore e il robot no- c’è in effetti da preoccuparsi, nel momento in cui essa fa proprie le tre leggi della robotica di Isaac Asimov. Particolarmente pericolosa risulta, ove non benissimo puntualizzata, la prima legge: “Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno”. Il termine chiave, e pericoloso, qui è “danno”, che rimane troppo indeterminato, perché il programmatore semicolto potrebbe non avere una chiara nozione di che cosa debba intendersi per “danno”, potrebbe non essere immune da retoriche paternalistiche, e quindi, in presenza di coronavirus, rinchiuderti in casa tua “per il tuo bene”: attenzione ai rischi connessi all’internet delle cose, caposaldo della “quarta rivoluzione industriale”, per cui il telefono potrebbe non “prendere” se dici cose politicamente scorrette, l’energia elettrica potrebbe non funzionare se leggi un testo di de Sade o di Bakunin, perché magari devi passare uno scanner sul codice a barre del libro prima di poterlo leggere; il gas potrebbe non arrivare se intendi cucinare cose che aumentano il riscaldamento globale o l’obesità: tutto in quanto cose considerate dannose per te, e il macchinario ti deve pur tutelare!
Il robot potrebbe quindi sentirsi attivisticamente investito dalla missione di tutelarti -dato che è stigmatizzato il “mancato intervento”, altro elemento molto critico della legge di Asimov-, e quindi magari di tutelarti da te stesso, da “danni” che potresti procurare a te stesso, trasformandosi così nel tuo “Stato protettivo” personale, violando così il principio di John Stuart Mill -secondo il quale si distinguono facoltà naturali che danneggiano terzi da altre che non danneggiano terzi, e quindi sono ammesse anche se danneggiano il loro titolare (magari anche perché questi non se ne sente affatto danneggiato), in base a un principio di auto-responsabilità- del quale il programmatore semicolto nulla sa. Allora sì che diventeremmo schiavi dell’intelligenza artificiale, e il contratto con essa si rivelerebbe mefistofelico: schiavi di quello che sarebbe il suo paternalismo, la sua invadenza, il protezionismo proibizionistico del suo continuo controllo fondato su un malinteso “principio di precauzione”, che poi è un principio di paura, che infine diviene heideggerianamente angoscia (ossia un turbamento generalizzato, disancorato da timori specifici), che sta alla base di ogni assolutismo, per cui ogni rischio viene enfatizzato oltremisura, perché il potere questa paura ha bisogno costantemente di rialimentarla; ciò, se non si delinea esattamente la nozione di danno, perché il concetto di danno, come quello di costo, come quello di utile, è soggettivo e ognuno ha un grado diverso di propensione al rischio; per cui se prevale la concezione paternalistico-tutrice, la macchina potrebbe impedirmi di mangiare il grasso o lo zucchero, o potrebbe impedirmi di fumare o di drogarmi e bere alcolici: il tutto per evitare che danneggi me stesso. Inoltre, potrebbe impedirmi di ribellarmi all’autorità, se valutasse che questo comporterebbe pericolo per me, o derogare a consuetudini prevalenti per lo stesso motivo (naturalmente tutto ciò sarebbe evitabile se, rimanendo la macchina allo stato di “oggetto”, fosse sempre possibile per l’uomo spegnerla!).
Il concetto di danno va ricostruito ex negativo da quello di aggressione esistenziale: tutto ciò che non è aggressione non rappresenta fonte di danno. Ad esempio, il robot potrebbe impedirmi di uscire di casa, blindando le porte, se ritiene che ci sia un rischio di infezione che esso stesso reputa eccessivo, ma la propensione al rischio è individuale, non può essere affidata come standard a un macchinario che la imponga indivisibilmente a tutti in modo identico; e allora ci vorrebbero robot individualizzati che ci lasciassero il libero arbitrio su quanto rischio affrontare, e solo ci fornisse statistiche e dati cognitivi, dei quali ci riserviamo sempre di tenere conto o dubitare.

Dopo di che esistono i trolley problem i problemi del male minore in cui qualcuno va sacrificato, e allora il robot dovrebbe essere dotato di una sofisticatissima teoria morale, certo però non agendo in danno del suo proprietario, come pure hanno ipotizzato i sadici semicolti progettatori dell’auto senza pilota di Google: per cui uno spende dei soldi, compra una macchina ultratecnologica, e ne viene ucciso perché un tecnico semicolto ha consultato un filosofo morale semicolto quanto lui, il quale gli ha spiegato che la vita del proprietario vale di meno di quella di uno più giovane di lui, che quindi va preferito nelle situazioni limite in cui si deve per forza sacrificare qualcuno: uno scenario davvero orwelliano, quando la stessa etica –soprattutto nei trolley problem- muove da esigenze soggettive, in quanto, con Hume, legate all’emotività della persona, laddove in tal caso il tecnologo impone a tutti indivisibilmente la morale personale del consulente di Google –che nemmeno ha pensato a indennizzare il soggetto sacrificato-, quando non si capisce perché, in un hard case come questo, la morale del proprietario della macchina debba essere reputata inferiore a quella di costui, che si erge a non legittimato “legislatore globale”. Si consideri poi che il sadduceismo dell’automobile a guida autonoma potrebbe essere tale da essere poco intelligentemente programmata nel senso di dover rispettare sempre tutte le regole, quando i sociologi del diritto insegnano che il traffico fluisce proprio perché alcune regole non vengono rispettate, posto che le regole possono essere sbagliate, o inadeguate nel singolo caso; sicché occorre discrezionalità, e le leggi di Asimov non devono avallare una concezione di “danno” legalistica e da legalismo etico, per cui sarebbe dannoso tutto ciò che non sia conforme a una norma positiva, indipendentemente da ogni giudizio di validità della norma stessa; il che consegue, si direbbe, all’attuale incapacità dei calcolatori di fare i conti con il teorema di incompletezza di Gödel, dato che la macchina non mette in discussione i limiti interni dell’ordinamento e non arriva a sindacarne i fondamenti esterni di validità (che non sarebbero dimostrabili dal punto di vista interno, almeno per la macchina semicolta), per cui il computer è per ora un mediocre leguleio e non un filosofo politico; per converso, una volta invece accolta la corretta nozione filosofica di danno, la legge di Asimov bene intesa potrebbe fare dei robot un Cavallo di Troia per riformare la legislazione, eliminando tutta la normativa che ecceda in termini illiberali quella ristretta nozione; si pensi poi al caso che l’automobile senza pilota dipenda da un computer centrale, programmato con la normativa in vigore, dimodoché, in caso di coprifuoco o di lockdown, il computer le impedisca di mettersi in moto, privando il proprietario della libertà fondamentale di compiere atti illegali, quando le prescrizioni sono autoritarie e illegittime: in altri termini, il cittadino verrebbe materialmente impedito dal compiere atti di disobbedienza civile e di obiezione di coscienza, realizzando l’ideale distopico, non solo del punire le illegalità, ma di “prevenirle”, impedirle fisicamente e materialmente: il concetto stesso di trasgressione risulterebbe cancellato, in quanto resa semplicemente impossibile, il che verrebbe approvato solo dall’ingenuo, il quale credesse nell’onniscienza e nell’infallibilità del legislatore: solo la malsana fantasia di un sistema giuridico perfettamente perfetto può fare pensare che la soluzione ottimale sia il completo rispetto delle leggi, delle sentenze, dei provvedimenti amministrativi, dei regolamenti e degli atti di organizzazione aziendale, quando invece si sa che in buona parte in quei loci troneggia la fuffa.

A tale proposito, viene in mente un’altra opera cinematografica, Robocop: un umanoide incaricato di “fare rispettare la legge” dovrebbe essere programmato in modo da applicare la gerarchia delle fonti, e non in modo da risultare un ottuso burocrate armato che persegue i rubagalline; ma al vertice della gerarchia delle fonti si situano i diritti umani fondamentali opposti al potere, dato che è il potere a violare quei diritti, e quindi Robocop dovrebbe applicare immediatamente quei principi, e cannoneggiare gli uomini di potere e non i rubagalline: un software che preveda il primato nell’ordinamento lessicografico dei diritti umani, sarebbe già quasi oggi il codice libertario: quindi, ancora una volta, la questione è di chi detiene il potere tecnologico e in nome di quali interessi e di quali principi lo impiega, perché se ognuno avesse il suo Robocop, il giudizio di legittimità sulle leggi sarebbe liberalizzato, così come l’implementazione pratica di quel giudizio. Allora cerchiamo di fare un passo avanti: immettiamo nel computer un programma che fornisca varie interpretazioni, in grado di dare un “senso” a quei passi. Ma ancora non siamo in condizione di affermare che la macchina abbia capito quel “senso”, solo perché esso è contenuto nel suo software, e anche questo viene ripetuto a pappagallo. Il fatto è che i computer come li conosciamo sono privi di capacità selettiva: per essi, una parola immagazzinata vale un’altra, non sanno dare la giusta importanza a un concetto rispetto all’altro, non sanno predisporre gerarchie, considerano tutto sullo stesso piano, non c’è distinzione tra Fabio Volo e Shakespeare, o tra Andrea Scanzi e Chaucer, mentre l’uomo discrimina, sa attribuire diverso valore alle cose (magari sbagliando), mentre il computer è invece a oggi meramente constativo, non costitutivo, e quindi creativo.

Ovviamente, nella capacità di immagazzinamento dei dati, il computer è infinitamente “superiore” all’uomo; ma se, un domani, integrandomi con la macchina, e non facendomi sostituire da essa, potessi immagazzinare in memoria il file di tutti i libri e di tutti i testi esistenti, e quindi non dovessi più perdere tempo a leggere; o se io caricassi in me i file relativi a tutte le altre abilità, come avviene ai protagonisti di Matrix (i quali, inserendo un file nel corpo virtuale, imparano a pilotare un elicottero, o a praticare arti marziali), poi la mia personale intelligenza umana sarebbe, non già di ripetere a pappagallo come il computer, ma di elaborare emotivamente e razionalmente (ma sempre con intelligenza emotiva) quei contenuti, anche sulla base delle mie esperienze di vita; e quindi sarei sempre uomo, anche se in un certo senso transumano, ma con tutta la capacità computazionale della macchina che si aggiunge alla mia intelligenza creativa ed emotiva di essere umano: l’unico svantaggio –sul presupposto naturalmente che non si tratti di uno strumento autoritario di controllo- sarebbe quello di non godere della soddisfazione di essere arrivato da solo, ad esempio, a un certo concetto, dato che sai a priori che l’ha già scritto ed espresso qualcun altro, il cui libro è nella tua memoria.
E allora continuiamo con gli esempi: ammettiamo che si inserisca in un computer tutto lo scibile liberale e tutto lo scibile socialista: sarà il computer stesso capace di elaborare spontaneamente il liberal-socialismo, operando una sintesi tra i concetti inseriti? L’essere umano, disponendo di tutti i dati, sarebbe in grado di fornirne una versione perfetta: allo stesso modo, potrei operare una sintesi tra Marx e Stirner, cosa che un computer attualmente non sarebbe in grado di fare, se non accostando passi: forse un domani potrebbe, sempre se gli viene chiesto, il che dimostrerebbe la sua intelligenza formale, ma non ancora la sua capacità di iniziativa, che pertiene all’intenzionalità e all’emozione. Un accademico semicolto di stampo rawlsiano, poi, chiederebbe alla macchina: “Che cosa è meglio che faccia lo Stato?”, mentre una migliore sfida sarebbe chiederle “Ma è davvero necessario che vi sia lo Stato per fare quelle cose?”, alzando il tiro della tenzone filosofico-politica. Il computer non prova stati emotivi e non seleziona, le due cose sono collegate; e infatti, se io vedo la foto di un’attrice com’è oggi, rispetto a com’era trenta anni fa, muta l’impatto della foto su di me a seconda che questa attrice mi evochi qualcosa della mia vita, o assolutamente nulla; mentre invece per il computer non fa differenza, e si limiterà a registrare la fotografia in modo del tutto burocratico e asettico.
Ma se, come sostiene Damasio, un danno alle emozioni danneggia la capacità di decisione, ciò vuol dire che l’io decisorio è emotivo, e la ragione è semmai, come detto, a disposizione quale “computer” naturale, per elaborare cognitivamente la decisione giusta sulla base dell’emozione provata: ciò che non fa la macchina, così come non “pensa” davvero, dato che “pensare” significa farlo “autonomamente”, con pensieri di propria fonte, originali, non pescati da un baule precostituito, che siano frutto della propria capacità di astrazione rispetto alle percezioni e alle emozioni provate. Allo stato, la macchina di Turing è un idiot savant, come l’autore stesso ammette, visto che sente la necessità di precisare che essa non ha pensieri di sorta su Picasso; eppure il giudizio estetico è fondamentale nella vita dell’essere umano, ma parliamo sempre della necessità che, un domani, la macchina sia in grado di formulare un giudizio estetico personale e soggettivo, non saccheggiato dalla letteratura in memoria; e si noti che giudizio estetico e giudizio di piacere nella fruizione dell’arte, o presunta tale, rappresentano due nozioni ben distinte, dato che io in un dato momento potrei preferire ascoltare Elliott Carter e in un altro i Beatles, apprezzandoli entrambi, ma con la consapevolezza che esistono piaceri faticosi, impegnativi, e altri più rilassanti, mentre il giudizio estetico tecnico, pur soggettivo, rimane impregiudicato: potrà mai la macchina avere un senso proprio del sublime kantiano?

A proposito di soggettività, si noti che in Matrix le proiezioni virtuali delle “macchine” hanno tutte personalità standard, enfatizzata in Matrix Reloaded dalla moltiplicazione in androide-massa del personaggio-programma Smith, quella specie di funzionario Fininvest, manager dal look “uniforme” fighetto e dinamico semicolto ragiunatt bocconiano anni ’80-’90-’00, che deve avere letto Smart e Dennett, dato che alla fine di Matrix Revolutions ci spiega come le sensazioni, come l’amore, non esistano e siano solo illusioni (perché lui non è in grado di provarle); laddove, nella trilogia, il proprium dell’”umano” è esattamente il sentimento, la spiritualità (oracolo) e il battersi per un ideale, mentre le macchine sono solo ingranaggi freddi di un potere che pretende di perpetuarsi senza ragione che non sia l’esercizio del potere fine a se stesso –e pure l’intelligenza artificiale non ha quell’istinto di sopravvivenza, che si pone a base delle stesse emozioni, sulla base delle quali elaborare razionalmente una qualsivoglia formula politica di legittimazione del potere.

A oggi, sia consentita la battuta, il computer dimostra di possedere una sensibilità più quando non funziona di quando funziona, quando cioè si “impalla” ribelle senza una ragione precisa; e in effetti, come dice Cartesio, nella nostra vita sono premiati più i vizi delle virtù, salvo che per il computer-che-non-funziona non esiste, nonostante la si invochi, il contrappeso della sanzione divina. La carenza di intelligenza emotiva legata alla corporeità, argomento che, direbbe Turing, è però sempre riconducibile al tema della coscienza -dato che alla coscienza riconduceva tutto ciò che la macchina, per ora, “non può”-, rende tuttora troppo semplicistico, sempliciotto, il pur potentissimo calcolatore rispetto all’uomo. Il computer non prova meraviglia, né estasi estetica, non ha il senso della trasgressione legata all’uso del corpo, come alcun altro sentire psicologico: mi vengono in mente gli esperimenti mentali sui cervelli nella vasca, che dovrebbero provare tutte le sensazioni della persona, anche quella di fare l’amore con tre donne, ma ciò è irreale in assenza del vero e proprio corpo, perché il corpo è nella mente, e la mente è nel corpo, anche per la ragione che il cervello è sì un “concentrato” di sensibilità e di mente, ma non esaurisce l’intera sensibilità, né la mente, dell’essere umano dotato di corpo, e ciò non per mistiche ragioni, ma perché il cervello mappa ben sì il corpo, ma, d’altro canto, il corpo è interamente innervato (non avete mai avuto la percezione che i nostri arti, ad esempio, talora vivano di vita propria?): sicché al massimo potrai provarne una fantasmatica parvenza, mercé però lo sforzo dell’immaginazione. Del resto, l’organo sessuale è a sua volta un autonomo terminale nervoso, e l’eccitazione, l’erezione e l’orgasmo non sono nemmeno concepibili in assenza del corpo, ad opera del solo cervello nella vasca (quelle si chiamano seghe mentali)! L’esempio dell’orgasmo è dirimente, dato che si tratta di un’esperienza di coinvolgimento totale, tanto del corpo, quanto della mente, e non concepibile come interamente ricostruita entro il solo cervello “mappato”, pur adeguatamente stimolato; non è nemmeno chiaro come, poi, dato che dovresti ricostruire il contatto tra le pelli, l’erezione, l’eiaculazione e tutto il resto, il che non è ammesso possa manifestarsi in forma esclusivamente virtuale, e comunque non si tratterebbe mai della medesima esperienza, ma solo della sua simulazione, e allora le relative computazioni potranno anche essere effettuate dal computer, ma la cosa avrebbe solo carattere conoscitivo e ovviamente di nessuna soddisfazione.
Il computer nemmeno può espandere la coscienza con l’LSD, o con il peyote come Don Juan, ma solo la sua capacità computazionale con nuovi software. Non distingue la struttura oggettiva di una composizione musicale dal suo essere bella o no; ad esempio, il computer può individuare, in un’opera di Elliott Carter, il succedersi delle modulazioni metriche, per cui mi dirà quali “tempi” seguono agli altri, e mi indicherà la complessità dell’opera, ma non saprà dirmi se l’esito estetico sia riuscito, se e quando si tratta davvero di arte; né saprà distinguere una melodia “bella”, ad esempio di Burt Bacharach, da una che non lo è pur in presenza di un’identica struttura armonica, che non basta a fare l’arte; né capirà che Zappa riesce ad assegnare una melodia gradevole anche a un brano poliritmico: quegli elementi di bellezza e gradevolezza il computer non sarà in grado di coglierli, né di “intuirli”, saprà solo stampare una successione di note, macchie nere su un foglio bianco prive di pregio –ma forse sarà in grado di riconoscere un viso “bello”, calcolando sezione aurea e proporzioni predeterminate.
Il computer non può fare autocritica, né può ridere di se stesso con autoironia; non conosce sfumature e rischia di cadere sulle polisemie, come si vede con i traduttori automatici, che in un contesto di filosofia morale ancora traducono “desert” con “deserto” e non con “merito”, e quindi nemmeno riescono a correlare il singolo termine con l’argomento che “trattano”. Il test di Turing originario, in realtà, pretende troppo poco dal calcolatore, gli consente di “vincere facile”, come una maestra che desse un bel voto allo scolaro scemo per premiarlo dell’impegno, dato che ben altre sono le prove e le sfide; l’essere un enunciato specifico non ne fa una verità più profonda, dato che in questo un enunciato generico o vago può sconfiggere quello specifico. Si consideri che, in un rapporto tra umani, il senso ultimo di una situazione può anche essere reso meglio da un enunciato generico, vago, approssimativo, impreciso, se non addirittura, a date condizioni, erroneo, o anche di significato deliberatamente falso, ma sufficientemente evocativo, anche se non chiaramente allusivo, quantomeno per un interlocutore di intelligenza e senso dell’umorismo sufficienti a cogliere quel senso sotteso, ed è proprio questo tipo di intelligenza a fare difetto all’intelligenza artificiale; oppure si potrebbe affermare il falso ostentatamente, o negare l’evidenza –il che è un punto a favore dell’uomo e contro la macchina, se la consideriamo non addestrata a cogliere quanto di vero c’è in un contenuto formalmente falso, lasciando impregiudicata la questione del senso dell’umorismo, stante la sua ipotetica propensione a prendere i messaggi alla lettera, non considerando i contesti extratestuali. Sa un computer leggere tra le righe? Sa interpretare un silenzio o un cenno mafioso del capo? Come reagirebbe la macchina di Turing al battito di ciglia di un mafioso, che corrispondesse all’ordine di distruggerla? Quell’idiot savant non farebbe una piega, e finirebbe come merita in frammenti, non essendo in grado di “capire al volo”. Ecco, si vorrebbe evitare che il transumanesimo del potere facesse di noi un simile idiot savant.

di Fabio Massimo Nicosia