La filosofia del lungotermismo: i rischi del nuovo credo dei super ricchi

Come il pensiero di un'élite accademica è diventato la dottrina dei miliardari

La filosofia del lungotermismo

La prima volta che si sente nominare la filosofia del lungotermismo sembra di essere davanti all’ennesima teoria cospirazionista o alla trama di un romanzo di fantascienza. Invece è tutto vero.

Le origini del lungotermismo: l’altruismo efficace

La filosofia del lungotermismo nasce all’Università di Oxford dagli ideatori dell’altruismo efficace, un progetto che applica razionalità e calcolo alla scelta delle cause benefiche da appoggiare.

Secondo l’altruismo efficace per salvare gli oceani dalla plastica è meglio trovare un lavoro ben pagato e donare parte del proprio stipendio ad associazioni che se ne occupano piuttosto che smettere di usarla, un principio definito “guadagnare per donare”.

Per capire il concetto di razionalità applicata all’altruismo è utile l’esempio del suo teorico William MacAskill: se in un palazzo in fiamme ci fossero un bambino e un Picasso salvare il Picasso sarebbe più efficace, perché con i soldi della sua vendita si potrebbero salvare più bambini. Un po’ freddo calcolatore ma, tutto sommato, se ne può vedere la logica di fondo: alcune azioni portano un numero maggiore di benefici rispetto ad altre. Tra gli ambiziosi progetti individuati dal calcolo dell’efficacia c’è il miglioramento del futuro a lungo termine dell’umanità.

Che critiche si possono fare? Magari la storia del Picasso suona male, e forse l’idea che tutti possano/vogliano/debbano trovare un lavoro ben retribuito un po’ classista, ma c’è di peggio no?

L’altruismo efficace in poco tempo ha costruito un movimento omonimo con sedi in tutto il mondo (Italia compresa), massicciamente finanziato da miliardari come Elon Musk, Sam Altman, Sam Bankman-Fried, Dustin Moskovitz e Cari Tuna e ha a disposizione un fondo di 46 miliardi di dollari. Ormai ha conquistato la Silicon Valley, forse perché i suoi principi forniscono ai super ricchi una giustificazione morale al loro essere quell’1% che detiene la stessa ricchezza dell’altro 99.

La filosofia del lungotermismo e il miglioramento del futuro a lungo termine

Il lungotermismo nasce come parte dei progetti degli altruisti efficaci per poi crescere e diventare filosofia a sé. Sintetizzando il suo credo si può dire che vede come dovere etico prioritario influenzare positivamente il futuro dell’umanità.

Pensare solo al presente e ignorare le generazioni future è ciò che ha portato alla crisi climatica quindi opporre alla miopia capitalista attuale uno sguardo più ampio non sembra una cattiva idea. Peccato che questo futuro sembri essere proiettato in un orizzonte temporale troppo ampio. Quanto? Migliaia di anni. Addirittura milioni. Ecco, qui è dove le cose iniziano a farsi un po’ strane, distopiche direi.

Per capire l’ossessione dei lungotermisti per il futurissimo bisogna introdurre un altro dei suoi sostenitori: Nick Bostrom, filosofo svedese che dirige un istituto di ricerca chiamato sobriamente Future of Humanity Institute che studia i pericoli per la nostra specie. Tra i suoi finanziatori (ancora) Elon Musk.

Bostrom ha coniato il concetto di “rischio esistenziale” per indicare quegli eventi che potrebbero impedire all’umanità il raggiungimento del proprio potenziale evolutivo. La missione (autoassegnata) dei lungotermisti è evitare questi rischi  È chiaro come Il Rischio per antonomasia sia l’estinzione, ma quale sarebbe il potenziale a lungo termine dell’umanità? Chi dovrebbe deciderlo?

La filosofia del lungotermismo, i rischi esistenziali e il potenziale dell’umanità

Negli studi dei lungotermisti vengono elencati i rischi esistenziali, il grado di probabilità e la possibilità di causare o meno l’estinzione totale.
Ampio spazio hanno le preoccupazioni sull’intelligenza artificiale con cui hanno un rapporto ambivalente: da una parte vedono probabile un’ IA tanto potente da poter decidere di liberarsi autonomamente dei sapiens, dall’altra credono che lo sviluppo tecnologico possa risolvere tutti i problemi futuri, crisi climatica compresa.

È proprio la crisi climatica uno dei punti più controversi del credo lungotermista. Ormai sappiamo come l’aumento delle temperature porterà disastri per tutti: innalzamento del mare, desertificazione, migrazioni forzate, perdita di biodiversità, carestie. Se dovessimo pensare al vero rischio esistenziale non potremmo che pensare a questo.

E invece, per chi ha lo sguardo puntato verso un futuro così difficile da immagine, figurarsi da progettare, non si tratta di un vero rischio esistenziale perché non porterebbe all’estinzione totale. Distruggerebbe le popolazioni più svantaggiate ma resterebbe qualcuno per traghettare l’umanità verso il futuro, verso il potenziale.

Il potenziale, per il lungotermismo, è prima di tutto numerico: dall’origine dell’Homo Sapiens ad oggi sono esistiti 120 miliardi di individui, considerando i livelli di crescita possiamo immaginare che verranno altri 80 trilioni di individui di cui dovremmo ritenerci responsabili e per i quali dovremmo fare scelte giuste. Ad esempio? La colonizzazione dell’Universo.

No, nessuno scherzo, uno dei seguaci è pur sempre Elon Musk. L’intero circolo pare avere visioni del futuro poco concrete come i timori sull’ IA che ci sterminerà come in un film di fantascienza scadente. Possibilità, questa, data come abbastanza probabile.

Se applichiamo il pragmatismo dell’altruismo efficace alle idee lungotermiste e alle visioni del futuro dei miliardari quali sono i rischi? Con tutti quei soldi a disposizione, l’attenzione mediatica crescente e i legami sempre più stretti con le istituzioni sembra si tratti ormai di un progetto politico preciso.

La filosofia del lungotermismo: critici e seguaci

Il maggior critico del lungotermismo è un ex simpatizzante, esattamente come succede nelle sette che non si osa criticare fino a quando non se ne è ben lontani. Émile P.Torres è un filosofo e uno storico, nei suoi articoli sul lungotermismo ha raccolto dettagli interessanti su alcune personalità del movimento: 

«Salvare vite nei paesi poveri potrebbe avere effetti a cascata più ridotti rispetto a salvare e migliorare vite nei paesi ricchi. Perché? I paesi più ricchi hanno molta più innovazione e i loro lavoratori sono molto più produttivi dal punto di vista economico. Mi sembra più plausibile che salvare una vita in un paese ricco sia più importante che salvare una vita in un paese povero»

Questa frase è di Nicholas Beckstead, tra gli esponenti di punta del movimento. Il già citato Nick Bostrom ha proposto l’eugenetica per incrementare i livelli di intelligenza nella fase embrionale e tecniche di ingegneria biomedica per potenziare le capacità umane. Inoltre si è detto possibilista sull’eventualità che viviamo in un mondo digitale simulato.

Sam Bankman-Fried, tra i più generosi finanziatori, è stato condannato per aver sottratto ai suoi clienti risparmi per miliardi di dollari e rischia 100 anni di carcere. Caroline Ellison, amministratrice delegata condannata a sua volta, è legata anch’essa al Centro per l’Altruismo Efficace.

Secondo William MacAskill dovremmo essere più preoccupati della poca natalità che per il sovraffollamento della Terra, dato che più persone portano più sviluppo. Da questa idea nasce l’ossessione per la natalità che Musk ha ribadito anche in Italia.

C’è poi Robin Hanson che propone di prendere una tribù di cacciatori raccoglitori, rinchiuderla in un bunker sotterraneo e istruirla su come rimettere in piedi la società nel caso una catastrofe spingesse la civiltà ad epoche preindustriali. È sorpreso dal fatto che lo stupro sia punito reato e l’adulterio no e ha proposto la “redistribuzione del sesso” per limitare la frustrazione degli uomini che ne sono privati.

La filosofia del lungotermismo è davvero pericolosa?

Da un sondaggio interno al Centro per l’Altruismo Efficace sappiamo che i membri sono uomini (71%), bianchi (76%) e di circa 30 anni (84%). Persone nate su Internet, imbevute della cultura neoliberista della libertà personale e dell’individualismo, con forti riferimenti culturali legati alla fantascienza e ai videogiochi.

Un’élite istruita nelle migliori università, estremamente privilegiata e di successo, che può permettersi di speculare su questioni teoriche come i miliardi di persone del futuro ignorando i bisogni di quella maggioranza di persone reali, presenti, esclusa dalla loro idea di futuro. Un futuro ipertecnologico e, sulla Terra o su Marte, sempre più capitalista.

Che siano loro a dover decidere il futuro (lontano solo pochi anni o migliaia poco importa) di tutti gli altri è paradossale. Tuttavia la rete che sono riusciti a intessere li ha portati nelle principali istituzioni mondiali. Si può solo immaginare cosa succederebbe se aumentassero la loro influenza fino a decidere dove allocare le risorse. 

Si smetterebbe di investire sulla crisi climatica per concentrarsi sulla colonizzazione di Marte? Si tornerebbe a parlare di eugenetica? Le premesse non sono delle migliori.

Se davvero vogliamo uscire dalla crisi che colpisce il mondo occidentale l’idea peggiore è quella di cercare di riaffermarne una presunta superiorità. Tutto il contrario di quello che sembrano fare Musk e i suoi amici che, è bene ricordarlo, sono solo una minoranza della varietà umana che abita il nostro pianeta, una minoranza non rappresentativa ma che crede di poter manovrare il futuro. Pare che il vero rischio esistenziale sia proprio il lungotermismo.

Sara Pierri

Exit mobile version