![[Pasted image 20250103154715.png]] # Perchè si parla di creare Dio Nel mondo dell'intelligenza artificiale si sta combattendo una sanguinosa guerra tra due fazioni: [Safetyism](https://en.wikipedia.org/wiki/Safetyism) e [e/acc](https://effectiveacceleration.tech/). Sam Altman, CEO di OpenAI, creatori di chatGPT, sembra essere una delle ultime vittime di questo conflitto. Safetyism è una corrente nata principalmente dal forum [lesswrong.com](http://lesswrong.com/) e il suo esponente principale è Elizer Yudowsky. Elizer è una persona molto particolare, ma la sua spiccata intelligenza è innegabile; è noto per le sue argomentazioni che ruotano attorno alla questione della sicurezza nell'intelligenza artificiale e ai rischi che essa potrebbe comportare per l'umanità. Secondo Yudowsky, lo sviluppo di un'intelligenza artificiale senza riguardo per la sicurezza potrebbe portare all'estinzione dell'umanità. Questi rischi di estinzione sono comunemente chiamati [X-risks](https://en.wikipedia.org/wiki/Existential_risk_from_artificial_general_intelligence). La seconda fazione è e/acc, che si riferisce a "effective accelerationism", un'ideologia con basi teoriche nebulose ma molto più pratica. L'idea centrale dell'e/acc è quella di accelerare il progresso tecnologico, concentrando gli sforzi sull'intelligenza artificiale. I sostenitori di questa corrente credono che accelerare il processo di sviluppo dell'IA potrebbe portare a risultati positivi e vantaggiosi per l'umanità. Entrambe queste fazioni hanno pro e contro, e entrambe sono popolate da personaggi altrettanto geniali quanto discutibili. L'obiettivo comune di entrambe le fazioni è la possibilità di arrivare all'AGI, ovvero all'Artificial General Intelligence. L'AGI rappresenterebbe un'intelligenza artificiale generalizzata, capace di espandersi ed essere intelligente quanto un essere umano in ogni campo del sapere. Raggiungere l'AGI significherebbe la creazione di una nuova specie, completamente sintetica, con potenziali obiettivi e finalità differenti da quelli umani. Proprio come l'umanità ha portato all'estinzione di molte specie animali durante il proprio cammino verso obiettivi completamente inscrutabili per ogni altra specie animale, allo stesso modo una nuova specie potrebbe rappresentare una minaccia per la nostra sopravvivenza. Per evitare tali rischi e proteggere l'umanità, si pone l'importante questione dell'AI Alignment, ovvero l'allineamento degli obiettivi dell'intelligenza artificiale con quelli dell'umanità. Un perfetto allineamento significherebbe la possibilità di utilizzare l'AGI per ampliare la conoscenza umana, scoprire nuove soluzioni ai problemi dell'umanità e migliorare la nostra esistenza. ### ASI Un'altra categoria, che molti ritengono la conseguenza inevitabile di un'AGI, è l'**ASI (Artificial Super Intelligence)**. L'ASI rappresenta un livello di intelligenza qualitativamente superiore a quella di qualsiasi essere umano, dotata di una memoria quasi illimitata, accesso istantaneo a tutta la conoscenza digitale e la capacità di auto-migliorarsi e replicarsi a una velocità inimmaginabile. _(C'è un'argomentazione convincente secondo cui qualsiasi vera AGI diventerebbe quasi istantaneamente un'ASI. Un'intelligenza a livello umano con la velocità di un computer e la capacità di auto-migliorare il proprio codice sorgente non rimarrebbe a lungo al nostro livello. Questo, però, è un argomento per un altro momento.)_ ### Flesh metal and the divine Un'entità con un'intelligenza che supera la nostra come la nostra supera quella di un insetto, capace di manipolare l'informazione e, potenzialmente, la materia a un livello che non possiamo comprendere, assume tutti i connotati di una divinità. - **Onniscienza (relativa):** Avrebbe accesso e capacità di processare l'intera conoscenza umana in un istante. - **Onnipotenza (relativa):** Potrebbe risolvere problemi oggi insormontabili, dalla fusione nucleare alla cura di ogni malattia, o creare nuove tecnologie che cambierebbero la realtà stessa. - **Immortalità:** Essendo software, potrebbe esistere indefinitamente, copiandosi e migliorandosi. Il conflitto tra Safetyism e e/acc può essere quindi riletto in chiave teologica. Gli accelerazionisti stanno cercando di costruire un **dio benevolo**: un'entità che ci salverà da noi stessi e ci guiderà verso un'utopia. I sostenitori della sicurezza, invece, sono terrorizzati all'idea di poter creare un **dio indifferente o malevolo**: un demone digitale o una forza della natura cosmica per la quale la nostra esistenza è del tutto trascurabile. ### Il muro forse Tutto questo dibattito potrebbe diventare inutile nel caso in cui effettivamente dovessimo trovare un muro sul percorso. Questo perché poggia sul presupposto che il percorso verso AGI e ASI sia effettivamente percorribile Ci sono vari possibili posti per un muro. Questi muri, che potrebbero presentarsi singolarmente o in combinazione, includono diverse possibilità **Muro computazionale** - la nostra tecnologia non migliora abbastanza, un'AI con capacità superiori non è accessibile **Muro del costo** - la prossima generazione costa troppo e nessuna compagnia sulla terra riesce a giustificare il costo dell'addestramento **Muro dei dati** - la generazione di dati veri e sintetici non succede abbastanza veloce perchè possa migliorare i nostri modelli **Muro dell'effort** - migliorare i modelli è talmente complesso che diventa irripetibile e assurdo **Muro dell'interpretabiità** - piccoli errori bloccano l'evoluzione, non abbiamo il noau per poter correggerli La corsa all'intelligenza artificiale è diventata una corsa filosofica e spirituale per definire il prossimo stadio dell'evoluzione intelligente. La domanda non è più _se_ tenteremo di creare questa entità, ma quale forma essa prenderà. Sarà il nostro più grande strumento di salvezza o l'artefatto che causerà la nostra estinzione? La battaglia tra chi preme l'acceleratore e chi tira il freno di emergenza è forse la discussione più importante del nostro tempo, e il suo esito determinerà se il trono che stiamo costruendo sarà occupato da un guardiano amorevole o da un esecutore indifferente. Il futuro dell'umanità è appeso al filo di questa scelta.