Cosa ci vuole perché un governo totalitario globale possa salire al potere indefinitamente? Qual'è in tal senso il ruolo dell'Innovazione Digitale e in particolare dell'Intelligenza Artificiale? Come sarebbero stati i governi totalitari del passato se non fossero mai stati sconfitti? I nazisti non operavano con la tecnologia del 20° secolo e ci volle una guerra mondiale per fermarli. Quanto sarebbero stati più potenti e permanenti i nazisti se avessero sconfitto gli Stati Uniti con la bomba atomica? Il controllo della tecnologia più avanzata del tempo avrebbe potuto consolidare il potere nazista e cambiare il corso della storia. Quando pensiamo ai rischi per l'esistenza umana spesso vengono in mente eventi come la guerra nucleare o gli impatti di asteroidi. Eppure c'è una minaccia che è meno nota e, sebbene non implichi l'estinzione della nostra specie, potrebbe essere comunque molto grave. Questa ipotesi viene chiamata "lo scenario del mondo in catene", dove un governo totalitario globale utilizza una nuova tecnologia per controllare tutto il pianeta bloccandolo, di fatto, in una sofferenza perpetua. Ma che probabilità c’è che tutto questo possa accadere? Ricercatori e filosofi stanno iniziando a riflettere su come potrebbe succedere e, cosa più importante, su cosa possiamo fare per evitare tale disastrosa ipotesi. Momenti di grande paura delle masse, come in occasione di una pandemia come quella che stiamo vivendo, o come nel caso degli attentati dell'"11 settembre", sono condizioni ideali per far passare misure che in altri momenti storici non sarebbe stato possibile attuare, poiché in tali condizioni si abbassa il livello critico delle persone e la paura spinge verso soluzioni estreme, che crediamo efficaci, anche se non siamo in grado di capirne il vero motivo o funzionamento. Inoltre, tale condizione, permette l'introduzion di nuovi sistemi anche tecnologici, per esempio di sorveglianza e controllo delle masse, che di fatto sopprimono le libertà individuali con tutto ciò che ne consegue. I "rischi esistenziali" sono disastrosi perché bloccano l'umanità in un unico destino, come il possibile collasso permanente della civiltà o l'estinzione della nostra specie. Queste catastrofi potrebbero verificarsi per cause naturali, come l'impatto di un asteroide o l'esplosione di un vulcano, o essere provocate dall'uomo da situazioni come la guerra nucleare o il cambiamento climatico causato dall’inquinamento. Toby Ord, ricercatore senior presso il “Future of Humanity Institute (FHI) dell'Università di Oxford, ritiene che le probabilità che una catastrofe esistenziale si verifichi in questo secolo per cause naturali sia inferiore a una su 2.000. In ogni modo Ord, riferendosi alla nostra epoca, la chiama "il precipizio", poiché il rischio di "perdere il nostro futuro" non è mai stato così alto. I ricercatori del "Center on Long-Term Risk", un istituto di ricerca senza scopo di lucro a Londra, hanno prospettato la possibilità agghiacciante di subire rischi definiti come "sofferenza su scala astronomica", cioè che dovrebbero superare di gran lunga tutta la sofferenza che è esistita finora sulla Terra. In questi possibili scenari la vita continua per miliardi di persone, ma la qualità è così bassa e le prospettive così cupe che sarebbe preferibile morire. È qui che entra in gioco lo scenario del "mondo in catene". Se un gruppo, o un governo malvagio, acquisisse improvvisamente il potere per dominare il mondo attraverso il controllo totale della tecnologia, e non fosse stato fatto nulla per provare ad ostacolarlo, ci sarebbero le condizioni per entrare in un lungo periodo di sofferenza e sottomissione abietta. Un rapporto del 2017 sui rischi esistenziali del "Global Priorities Project", in collaborazione con FHI e il Ministero degli Affari Esteri della Finlandia, ha avvertito che "un futuro sotto uno stato totalitario globale particolarmente brutale potrebbe essere probabilmente peggiore della completa estinzione". Ipotesi Sigleton e l'IA Sebbene il totalitarismo globale sia ancora un argomento di studio di nicchia, i ricercatori nel campo del rischio esistenziale stanno rivolgendo sempre più la loro attenzione alla sua causa più probabile: l’Intelligenza Artificiale. Nella sua "Ipotesi Singleton", il direttore dell'FHI di Oxford Nick Bostrom, ha spiegato come potrebbe formarsi un governo globale con l’Intelligenza Artificiale, o altre potenti tecnologie, e perché potrebbe essere impossibile rovesciarlo. Bostrom sostiene che un mondo guidato da una singola agenzia decisionale potrebbe verificarsi se quella stessa agenzia "ottenesse un vantaggio decisivo attraverso una svolta tecnologica nell’Intelligenza Artificiale o nella Nanotecnologia Molecolare". Una volta in carica, un governo o una agenzia che possedesse il controllo di tali mezzi controllerebbe i progressi della tecnologia, come le le Armi Autonome o i sitemi di sorveglianza di massa, e con questo monopolio rimarrebbe perennemente al potere. Il filosofo osserva che il trend storico delle nostre società è di convergere in organizzazioni sociali di livello sempre più alto e aggregato. Dalle bande di cacciatori preistorici, ai villaggi, alle Città Stato, alle nazioni, alle Nazioni Unite e così via verso un'omologazione persistente. Un riflesso di questi trend è la concentrazione del potere governativo in soggetti sempre più grandi, cosa che conferisce all’Ipotesi Singleton un’accezione fortemente negativa di un qualche nuovo ordine mondiale, ritenuto privativo della libertà di singoli e di gruppi più piccoli. Se il "Singleton" fosse totalitario, la vita sarebbe desolata. Infatti, anche nei paesi con i regimi più rigidi le notizie trapelano e le persone possono fuggire in altre nazioni. Un governo totalitario globale eliminerebbe anche questi piccoli semi di speranza poiché, evidentemente, non si potrebbe scappare in un altro pianeta. Ciò significherebbe che non percepiremo più nessuna forma di libertà, nessuna forma di privacy, nessuna speranza di poter scappare […]. "[…] sembra che i tipi di tecnologie che stiamo sviluppando rendano questa ipotesi molto più facile e accessibile. E sembra plausibile che questo possa diventare possibile nel giro di massimo 100 anni.” Ora immagina che tu non ti possa porre nemmeno una domanda, e che ogni singola cosa che dici possa venire segnalata e analizzata. Intelligenza Artificiale (IA) e autoritarismo Sebbene la vita sotto un governo totalitario globale sia ancora uno scenario improbabile e lontano nel futuro, l’Intelligenza Artificiale sta già consentendo l'autoritarismo in alcuni paesi del mondo. Abbiamo assistito a una sorta di resa dei conti con il passaggio da visioni molto utopiche di ciò che la tecnologia potrebbe portare, a realtà che fanno riflettere molto di più e che sono, per alcuni aspetti, già abbastanza distopiche. In passato, la sorveglianza sociale (per esempio) richiedeva centinaia di migliaia di persone; un cittadino su 100 nella Germania dell'Est era un informatore, ma ora il controllo si può attuare con la tecnologia. Negli Stati Uniti, la National Security Agency (NSA) ha raccolto centinaia di milioni di registrazioni di chiamate e messaggi di testo degli americani prima che venisse interrotta la sorveglianza domestica nel 2019. Si stima che nel Regno Unito ci siano da quattro a sei milioni di telecamere a circuito chiuso. Diciotto delle 20 città più sorvegliate al mondo si trovano in Cina, ma Londra è la terza città più sorvegliata. La differenza tra queste realtà sta in come viene utilizzata la tecnologia e nell'uso che si fa dei dati raccolti. E se la definizione di ciò che è illegale e i limiti posti dalla legislazione negli Stati Uniti e nel Regno Unito si espandessero? L'infrastruttura è già pronta e può essere applicata e sia l'IA, che l'NSA, hanno già iniziato a sperimentare; l’obiettivo sarebbe di consentire ad agenzie specializzate di raccogliere e gestire i nostri dati più velocemente che mai. Oltre a migliorare la sorveglianza degli individui, l'IA sostiene anche la crescita della disinformazione on-line, che è un altro forte strumento di controllo di massa. I Deep Fake basati sull’Intelligenza Artificiale e il micro-targeting algoritmico sui social media, che possono diffondere messaggi politico/economici inventati, stanno rendendo la propaganda più persuasiva. Ciò mina la nostra sicurezza epistemica, la capacità quindi di determinare ciò che è vero e agire di conseguenza. Negli ultimi anni, abbiamo assistito all'aumento di filtri sulle notizie e le persone sono state deviate da vari algoritmi a credere a teorie del complotto, o anche se non sono teorie del complotto, a credere solo a parti della verità. Misure preventive Il rapporto sull'uso dannoso dell’Intelligenza Artificiale, scritto da Hayden Belfield e da 25 autori di 14 istituzioni, prevede che tendenze come quelle che abbiamo descritto in questo testo amplieranno le minacce esistenti alla nostra sicurezza e ne introdurranno di nuove nei prossimi anni. Tuttavia, Belfield afferma che il suo lavoro lo rende fiducioso e che tendenze positive, come discussioni più democratiche sull’Intelligenza Artificiale e l'atteggiamento di alcune realtà politiche, lo mantengono ottimista sul fatto che possiamo evitare destini catastrofici. Dobbiamo decidere oggi quali sono gli usi accettabili e inaccettabili dell'Intelligenza Artificiale (IA) e dobbiamo stare attenti a permettere che ci controllino così tanto. Se stiamo armando la polizia con il riconoscimento facciale e i governi stanno raccogliendo tutti i nostri dati, o Elon Musk di Tesla propone l'impianto del microchip negli umani, è un brutto inizio e il futuro potrebbe essere drammatico. Se rimanete scettici sul fatto che l'IA possa permettere tale potere, considerate il mondo prima delle armi nucleari. Tre anni prima della prima reazione nucleare a catena anche gli scienziati che cercavano di ottenerla credevano che fosse improbabile il potere conferito dal possedere tale forza tecnologica. L'umanità era impreparata alla svolta nucleare ed era sull'orlo della "distruzione reciprocamente procurata" quando ci fu la corsa agli armamenti nucleari, e prima che trattati internazionali e accordi politici guidassero la produzione globale di tali armi e limitassero l'avverarsi di una catastrofe esistenziale. Oggi possiamo prepararci a gestire le potenti innovazioni tecnologiche ma solo se facciamo tesoro delle lezioni della storia e solo se, con lungimiranza, sapremo costruire un sistema che difenda l'umanità. Il mondo potrebbe non essere in grado di fermare regimi totalitari che potrebbero sorgere in futuro, ma può evitare di dare a chi controlla il mondo in cui viviamo gli strumenti per estendere il proprio potere in modo indefinito. Letture correlate:
0 Commenti
Il tuo commento verrĂ pubblicato subito dopo essere stato approvato.
Lascia una Risposta. |
|