Perchè si parla di creare Dio

Perchè si parla di creare Dio

Nel mondo dell'intelligenza artificiale si sta combattendo una sanguinosa guerra tra due fazioni: Safetyism e e/acc. Sam Altman, CEO di OpenAI, creatori di chatGPT, sembra essere una delle ultime vittime di questo conflitto.

Safetyism è una corrente nata principalmente dal forum lesswrong.com e il suo esponente principale è Elizer Yudowsky. Elizer è una persona molto particolare, ma la sua spiccata intelligenza è innegabile; è noto per le sue argomentazioni che ruotano attorno alla questione della sicurezza nell'intelligenza artificiale e ai rischi che essa potrebbe comportare per l'umanità. Secondo Yudowsky, lo sviluppo di un'intelligenza artificiale senza riguardo per la sicurezza potrebbe portare all'estinzione dell'umanità. Questi rischi di estinzione sono comunemente chiamati X-risks.

La seconda fazione è e/acc, che si riferisce a "effective accelerationism", un'ideologia con basi teoriche nebulose ma molto più pratica. L'idea centrale dell'e/acc è quella di accelerare il progresso tecnologico, concentrando gli sforzi sull'intelligenza artificiale. I sostenitori di questa corrente credono che accelerare il processo di sviluppo dell'IA potrebbe portare a risultati positivi e vantaggiosi per l'umanità.

Entrambe queste fazioni hanno pro e contro, e entrambe sono popolate da personaggi altrettanto geniali quanto discutibili. L'obiettivo comune di entrambe le fazioni è la possibilità di arrivare all'AGI, ovvero all'Artificial General Intelligence. L'AGI rappresenterebbe un'intelligenza artificiale generalizzata, capace di espandersi ed essere intelligente quanto un essere umano in ogni campo del sapere.

Raggiungere l'AGI significherebbe la creazione di una nuova specie, completamente sintetica, con potenziali obiettivi e finalità differenti da quelli umani.

Proprio come l'umanità ha portato all'estinzione di molte specie animali durante il proprio cammino verso obiettivi completamente inscrutabili per ogni altra specie animale, allo stesso modo una nuova specie potrebbe rappresentare una minaccia per la nostra sopravvivenza.

Per evitare tali rischi e proteggere l'umanità, si pone l'importante questione dell'AI Alignment, ovvero l'allineamento degli obiettivi dell'intelligenza artificiale con quelli dell'umanità. Un perfetto allineamento significherebbe la possibilità di utilizzare l'AGI per ampliare la conoscenza umana, scoprire nuove soluzioni ai problemi dell'umanità e migliorare la nostra esistenza.

Un'altra categoria molto interessante di AGI è l'ASI, ovvero l'Artificial Super Intelligence. L'ASI rappresenta un livello di intelligenza artificiale superiore a quella umana, dotata di una mente con memoria quasi illimitata, accesso alla rete e la capacità di auto-replicarsi. L'ASI ha un enorme potenziale per cambiare radicalmente il mondo in cui viviamo, aprendo nuove possibilità e sfide che potrebbero superare la comprensione umana.

Ci sono argomentazioni che mi spingono a pensare che ogni AGI sia ASI ma questo é un argomento che affronteremo in futuro.