L'Intelligenza Artificiale può alterare la nostra natura?
Compendio dei libri e link più interessanti per comprendere lo sviluppo tecnologico in corso
La condizione umana è ottima, la migliore di sempre, ma la tecnologia può renderla ancora migliore, allungare le nostre vite, farci diventare più intelligenti, rendere i nostri corpi più adatti alle nostre necessità, senza attendere i lenti processi biologici determinati dall’evoluzionismo. Questa è l’idea alla base dell’estropia; ovvero dell'opposto dell'entropia.
Il mondo intorno a noi sta sprofondando nel caos (entropia), ma le cose potrebbero migliorare nel tempo (estropia).
Molto dell’approccio a priori verso l'intelligenza artificiale si riassume in questa dicotomia. Secondo alcuni l’Intelligenza Artificiale Generica è già una realtà, mentre secondo il CEO di Nvidia Jensen Huang “non ci siamo ancora”.
La AI potrebbe diventare abbastanza potente da migliorare se stessa senza bisogno dell'uomo: macchine “intelligenti” che autonomamente costruiscono macchine più intelligenti, potrebbe realizzare una sorta di “esplosione dell'intelligenza”. Questo produrrebbe un futuro più luminoso e ottimista?
“Le nuove innovazioni scalzano quelle vecchie. Spesso si crede che le nuove tecnologie siano dannose e portino alla perdita di posti di lavoro, ma questa è una convinzione sbagliata, come ci insegna la Storia”.
La Storia dice che dobbiamo guardare alla AI come uno strumento a disposizione dell’Umanità e che ogni miglioramento dei processi che potrà portare finirà per avere ricadute positive sulla qualità della vita umana.
Ma c’è chi, lecitamente, ha un’opinione opposta, teme che le macchine sostituiranno gli uomini sul lavoro, che generi una classe sociale di soggetti inutili (questa la teoria espressa in Homo Deus di Harari, per esempio).
Uno sviluppo distopico, ma possibile, è la “deificazione” dell'intelligenza artificiale: l’accelerazione di complessità allontanerebbe la realtà dalla capacità di comprensione umana e genererebbe una rinnovata spinta alla ricerca di spiegazioni metafisiche e trascendenti, ridando impulso alla religiosità. E la AI diventerebbe il candidato ideale per intercettare questo bisogno di trascendenza e onniscienza.
La visione, altrettanto distopica, di un futuro transumanista sarebbe un futuro in cui l'umanità non si limita a modificare l'ambiente esterno, ma modifica anche se stessa. Controlla la propria evoluzione, fino al punto che il singolo individuo può intervenire sul miglioramento fisico di se stesso.
Il transumanesimo ipotizza anche lo sviluppo di capacità da “mente alveare”: modi migliori per organizzarci socialmente, per collegare le nostre menti attraverso la tecnologia o i mercati o altro, in una sorta di visione cosmica secondo cui l'umanità appartiene all'universo e può andare là fuori a esplorarlo, a terraformare i pianeti, espandendo enormemente la base di risorse disponibili. In un certo senso è quello che suggerisce “L’inizio dell’infinito” del fisico britannico David Deutsch.
La tecnologia ci permetterà di superare i limiti del nostro corpo biologico, di viaggiare in profondità nello spazio e forse di curare la morte come se fosse una malattia.
Dove ci stanno portando le nuove tecnologie?
Ingannare, o “curare”, la morte potrebbe anche significare caricare il proprio cervello in un computer, restando presenti al di là del deterioramento organico. Non c'è motivo di credere che l'intelligenza umana sia il livello più alto di intelligenza che ci possa essere nell'universo. Quindi chiedersi cosa succede quando si ottiene una superintelligenza è ben altro che intrattenersi con narrativa Sci-fi.
Il dibattito sui rischi dell'AI va tenuto vivo e sfidante, è presto per archiviare qualunque idea, dalla più ottimistica a quella più cupa e carica di timori.
Il libro “Superintelligenza” del filosofo Nick Bostrom si pone e affronta molti quesiti. Ci sono aziende che cercano di sviluppare prodotti basati sulla AI, ma limitando le cose “al di sotto dell'intelligenza umana”. Sembra un obiettivo rassicurante, probabilmente è uno degli snodi dietro il licenziamento e rapido ritorno di Sam Altman alla guida di OpenAI,
Se si costruiscono sistemi più intelligenti degli esseri umani, pensano in molti, l'era umana è finita, gli esseri umani non conteranno più. Dovremmo accordarci su cosa sia l’intelligenza, forse averne un’idea meno “muscolare” e chiederci se l’intelligenza implichi prevaricazione.
Le aziende più capitalizzate del mondo vogliono costruire il futuro, intendono scalzare o porsi al di sopra dei governi, forse temono i processi democratici, questo deve sicuramente metterci in allarme, ma l’insidia sta nelle aziende e nei loro leader, non nell’Intelligenza Artificiale, che è solo uno strumento, e come tale il “buono” o “cattivo” sta nell’intenzione di chi lo usa.
Timnit Gebru (fondatrice e direttore esecutivo del Distributed AI Research Institute, appartiene alla schiera di chi è preoccupato che sussistano rischi esistenziali per l’umanità nella AI “generale”.
È stata co-leader del team Ethical AI di Google fino al 2020, quando è stata licenziata dall'azienda, sembra a causa di un documento che aveva pubblicato per delineare i rischi della AI.
15 anni fa i ricercatori non parlavano di IA. È un obiettivo relativamente nuovo per queste aziende. Ma all'improvviso vedo strane ideologie futuristiche spuntare ovunque: Effective Altruism (corrente a cui aderisce anche Sam Bankman-Fried di FTX), Singolaritanismo, Longtermismo (che piace tanto a Elon Musk), Transumanesimo, il Beyondismo, che è una religione esplicitamente eugenetica…
Queste ideologie tendono a fissarsi sull'intelligenza piuttosto che su altri attributi umani. È un approccio freddo, che si rifà a Nick Bostrom. L'enfasi sull'intelligenza può condurre in luoghi oscuri.
Timnit Gebru pensa che l'industria dell'IA sia controllata da persone che hanno una visione molto particolare del futuro, che ideologicamente ambiscono a “lasciarsi alle spalle la biologia”.
Per me è un futuro incredibilmente disumano, un futuro che si basa esplicitamente sulla colonizzazione e sull'espansione piuttosto che sulla coesistenza e sul sapere quando qualcosa è sufficiente. In questa ideologia non esiste il concetto di sufficienza. Si tratta di un futuro esplicitamente privo di gioia e antiumano.
Ma come stabilire le misure di sicurezza adeguate, visto che è difficile, forse impossibile, sapere a priori cosa “uscirà” da una intelligenza artificiale generalizzata?
Per la Gebru starebbero nella verifica delle credenze a cui gli ideatori della AI aderiscono. Devo dire che, per quanto carico di buone intenzioni, mi pare un approccio intriso di moralismo e fallimentare.
Come la vede Huang, il CEO di Nvidia:
Il transumanista Anders Sandberg (che indossa sempre le sue disposizioni per conservare il suo corpo in caso di morte accidentale) suggerisce di perseguire la AI generalizzata con un po' più di attenzione: l'azienda che riuscirà ad auto-migliorarsi potrebbe avere un vantaggio competitivo enorme, in definitiva un potere sul mondo. OpenAI, Google DeepMind, Anthropic, Microsoft … è il fatto che queste aziende siano diventate il centro di questa ricerca a essere preoccupante.
Il manifesto tecno-ottimista
Marc Andreessen, fondatore di Andreessen Horowitz, società di venture capital, ha scritto un manifesto tecno-ottimista che afferma che la AI è la soluzione per molti dei problemi del mondo: dalla crisi di produttività, alla cura delle malattie, al cambiamento climatico. Occorre utilizzare la AI al meglio delle nostre capacità e accelerarne lo sviluppo il più rapidamente possibile, mentre sono coloro che chiedono di decelerare a mettere a repentaglio il futuro dell'Umanità.
Tutti vorrebbero prolungare la durata della vita di decenni o magari secoli, la forza di questo impulso è che non si tratta semplicemente di fare soldi, ma che il vero obiettivo è di alzare l’asticella dell’aspettativa di vita, se non proprio di superare in qualche modo i limiti della biologia.
Il cervello, in definitiva, è una macchina elettrica composta da neuroni, potremmo anche arrivare a ricrearlo. Ciò non significa che sarebbe cosciente o umano: sarebbe comunque privo del sistema nervoso somatico, che è partecipe del nostro funzionamento e comportamento.
L’AI Act europeo e il modello cinese
L’AI Act europeo è ancora in proposta del Parlamento EU avvenuta lo scorso 8 Dicembre 2023. Acclamata come la prima regolamentazione al mondo sull’intelligenza artificiale, arriva invece seconda, dopo la Cina, che ha varato la sua legge la scorsa estate, entrata in vigore il 15 Agosto 2023.
La normativa europea ha un approccio basato sul rischio e distingue i sistemi a basso rischio da quelli ad alto rischio (d’altra parte l’Europa è il continente più garantista): i primi sono quelli che non mettono a repentaglio i diritti o la sicurezza dei cittadini (come i filtri antispam) e non sono soggetti a obblighi specifici. Quelli ad alto rischio sono invece quelli che hanno un impatto rilevante sulla vita di ognuno dovranno rispettare criteri rigorosi (dispositivi medici, sistemi per l’accesso alle scuole o per la selezione del personale, sistemi utilizzati nella gestione della giustizia, nel controllo delle frontiere, identificazione biometrica, sistemi che regolano infrastrutture critiche come la fornitura di acqua, gas e energia elettrica) e saranno sottoposti a una serie di controlli sulle attività svolte e sulle misure di sicurezza adottate. La normativa prevede anche una supervisione da parte dell’uomo.
A queste due categorie di intelligenza artificiale se ne aggiunge una terza, classificata “rischio inaccettabile”: le minacce ai diritti fondamentali delle persone (manipolazione del comportamento umano, polizia predittiva o sistemi di "social scoring" da parte di governi o aziende, sistemi di riconoscimento delle emozioni utilizzati sul luogo di lavoro e alcuni sistemi di selezione sulla base del riconoscimento biometrico).
Oltre agli obblighi specifici, l’AI Act impone un obbligo generale di trasparenza su tutto il percorso, dalla programmazione all’addestramento. Inoltre l’utente deve sempre essere in grado di sapere quando interagisce con un sistema di intelligenza artificiale, ad esempio attraverso un chatbot, e i contenuti generati dall’intelligenza artificiale devono essere contrassegnati in modo da essere riconoscibili dall’uomo e dalle macchine.
Le sanzioni sono pesanti: fino a 35 milioni €, o il 7% del fatturato, per le applicazioni vietate; e 15 milioni, o il 3% del fatturato in caso di violazione degli obblighi.
A supervisionare il rispetto della legge sarà un nuovo organo, l’European AI Office, che opererà insieme alle autorità di sorveglianza delle varie nazioni dell’Unione Europea.
Alla pubblicazione dell’AI Act seguirà un periodo transitorio, da sei mesi a due anni a seconda dei casi, per l’introduzione dei vari divieti. Nel frattempo la Commissione intende riunire gli sviluppatori di intelligenza artificiale per siglare un AI Pact, un accordo volontario che impegni le imprese a iniziare fin da subito a progettare sistemi conformi alle previsioni del regolamento.
L’AI Act è una normativa corposa e molto impattante, al punto che alcuni stati, tra cui l’Italia, avevano proposto di preferire dei Codici di Condotta, nel timore che una regolamentazione ferrea potesse disincentivare lo sviluppo di questa tecnologia tanto importante per lo sviluppo industriale.
Il rischio per la regolamentazione europea è che possa tradursi in una burocratizzazione del processo, con un appesantimento delle procedure aziendali che non sempre corrispondono alla sostanza dei comportamenti.
Digital Europe, la più importante associazione che rappresenta le industrie digitali in Europa, ha calcolato che per un’impresa di cinquanta dipendenti, adeguarsi alle regole dell’AI Act potrebbe comportare un costo di oltre 300.000 €. Una spesa giustificata se investita in misure di sicurezza, sprecata se assorbita da mere formalità.
AI in Cina
Le "Misure provvisorie per la gestione dei servizi di intelligenza artificiale generativa", pubblicate dalla Cyberspace Administration of China ad agosto scorso, si occupano di intelligenza artificiale in senso lato. Interviene soltanto sull’intelligenza artificiale generativa, lasciando prive di regolamentazione le altre.
La normativa è più stringente sul tema del diritto d’autore e la proprietà intellettuale, mentre per quanto riguarda i diritti fondamentali degli individui soprassiede amabilmente.
Si concentra sul fatto che l’intelligenza artificiale non deve generare incitamento a sovvertire il potere statale, rovesciare il sistema socialista, mettere in pericolo la sicurezza e gli interessi nazionali, diffondere contenuti vietati dalla legge.
La normativa assegna a chi usa sistemi di AI la responsabilità dei contenuti generati, anche per violazioni di diritto d’autore e della privacy. I fornitori di sistemi di intelligenza artificiale, invece, sono responsabili per i metodi e i dati utilizzati in fase di addestramento e di ottimizzazione del sistema.
È inoltre previsto che tutti i sistemi AI, prima di essere immessi sul mercato, devono presentare un rapporto dettagliato sulle misure di sicurezza adottate alla Cyberspace Administration of China.
In sostanza, anche la normativa cinese si preoccupa di controllare lo sviluppo dei sistemi di intelligenza artificiale sulla base dei propri principi fondanti, così quello che è “inaccettabile” in Europa è semplice prassi che non richiede nemmeno menzione, in Cina. La declinazione cinese delle idee della Gebru, ricordano che pur se si intuiscono le buone intenzioni, è buona norma ricordare che di buone intenzioni sono lastricate le vie che portano all’Inferno.
Grazie
Gentile Alieno ma longtermisti, beyondisti, transumanisti etc., ci credono davvero?
Anche io fantastico spesso perché ho una mente che produce "detriti" e ho necessità collaterali che la vita non mi concede, però ho ben chiara la differenza con la realtà delle cose.
Anche a me piace la fantascienza e ho letto il ciclo della Fondazione di Asimov ma non lo ritengo un testo di formazione;-)
Con ciò non intendo sottovalutare l’impatto che l'uso dell'AI potrà avere ma mi preoccupa al momento più l’impatto sul mondo del lavoro e la possibile amplificazione di disuguaglianze e bias sistemici piuttosto che rischi esistenziali per l’umanità (al limite temo la possibilità che la produzione intellettuale dell’umanità trovi un succedaneo efficiente in quella delle AI future e che ciò ci privi del privilegio della creatività).
Che ne pensa Alieno gentile?