Chi mi conosce sa che da alcuni mesi mi sono appassionato al tema dell’intelligenza artificiale. È un argomento di grande attualità e oggi voglio affrontare anch’io la questione partendo da un articolo scritto dai fondatori di Open AI Sam Altman, Greg Brockman e Ilya Sutskever pubblicato il 22 maggio 2023 sul sito della società.
Cliccando questo link potete leggere l’articolo pubblicato in lingua inglese, mentre se proseguite la lettura del post troverete la traduzione in italiano. Al termine dell’articolo le mie riflessioni in merito.
Governance dell’intelligenza superiore
“È ora il momento opportuno per cominciare a pensare alla governance dell’intelligenza superiore, ossia dei futuri sistemi di intelligenza artificiale (IA) che saranno nettamente più capaci anche rispetto all’IA generale (AGI).
Sicurezza e allineamento.
Dall’attuale quadro che osserviamo, è concepibile che entro i prossimi dieci anni i sistemi di intelligenza artificiale supereranno il livello di competenza degli esperti in molti ambiti e svolgeranno un’attività produttiva paragonabile a quella delle più grandi aziende attuali.
In termini di vantaggi e svantaggi potenziali, l’intelligenza superiore sarà più potente rispetto ad altre tecnologie con cui l’umanità ha dovuto confrontarsi in passato. Possiamo avere un futuro decisamente più prospero, ma dobbiamo gestire il rischio per arrivarci. Dato il rischio esistenziale possibile, non possiamo limitarci a reagire. L’energia nucleare è un esempio storico comunemente usato di una tecnologia con questa proprietà; un altro esempio è la biologia sintetica.
Dobbiamo mitigare i rischi dell’attuale tecnologia dell’IA, ma l’intelligenza superiore richiederà un trattamento e una coordinazione speciali.
Un punto di partenza.
Ci sono molte idee che sono importanti affinché abbiamo una buona possibilità di navigare con successo in questa evoluzione; qui presentiamo le nostre prime riflessioni su tre di esse.
Innanzitutto, abbiamo bisogno di un certo grado di coordinazione tra gli sforzi di sviluppo più avanzati per garantire che lo sviluppo dell’intelligenza superiore avvenga in modo tale da garantire la sicurezza e agevolare l’integrazione di questi sistemi nella società. Ci sono molte modalità con cui ciò potrebbe essere implementato; i principali governi del mondo potrebbero creare un progetto a cui molti sforzi attuali si uniscano, oppure potremmo concordare collettivamente (con il supporto di un’organizzazione nuova come quella suggerita di seguito) che il tasso di crescita delle capacità dell’IA al confine sia limitato a un certo tasso annuo.
E, naturalmente, le singole aziende dovrebbero essere tenute a un livello estremamente elevato di responsabilità.
In secondo luogo, probabilmente alla fine avremo bisogno di qualcosa simile all’IAEA per gli sforzi relativi all’intelligenza superiore; ogni sforzo che superi una certa soglia di capacità (o risorse come la potenza di calcolo) dovrà essere sottoposto all’autorità di un organismo internazionale in grado di ispezionare i sistemi, richiedere audit, verificare la conformità agli standard di sicurezza, imporre restrizioni sui gradi di implementazione e i livelli di sicurezza, ecc.
Il monitoraggio dell’utilizzo della potenza di calcolo e dell’energia potrebbe essere un valido strumento e darci la speranza che questa idea possa effettivamente essere attuabile. Come primo passo, le aziende potrebbero accordarsi volontariamente per iniziare a implementare elementi di ciò che potrebbe un giorno essere richiesto da un tale organismo, e come secondo passo, singoli paesi potrebbero attuarlo. Sarebbe importante che un tale organismo si concentri sulla riduzione del rischio esistenziale e non su questioni che dovrebbero essere lasciate ai singoli paesi, come ad esempio definire ciò che un’intelligenza artificiale dovrebbe essere autorizzata a dire.
In terzo luogo, abbiamo bisogno della capacità tecnica di rendere sicura un’intelligenza superiore. Questa è una questione di ricerca aperta su cui noi e altri stiamo dedicando molto impegno.
Ciò che non è incluso nel campo d’azione.
Riteniamo importante consentire alle aziende e ai progetti open source di sviluppare modelli al di sotto di una soglia significativa di capacità senza la regolamentazione che descriviamo qui (inclusi meccanismi onerosi come licenze o audit).
I sistemi attuali creeranno un valore enorme nel mondo e, sebbene comportino dei rischi, il livello di tali rischi sembra proporzionato ad altre tecnologie Internet e le possibili approcci della società sembrano appropriati.
Al contrario, i sistemi di cui ci preoccupiamo avranno un potere oltre ogni altra tecnologia finora creata, e dovremmo fare attenzione a non diluire la loro importanza applicando gli stessi standard a tecnologie molto al di sotto di questa soglia.
Coinvolgimento pubblico e potenziale.
Tuttavia, la governance dei sistemi più potenti, così come le decisioni riguardanti la loro implementazione, devono essere sottoposte a un forte controllo pubblico. Crediamo che le persone di tutto il mondo dovrebbero decidere democraticamente i limiti e i parametri predefiniti per i sistemi di intelligenza artificiale. Non sappiamo ancora come progettare un meccanismo del genere, ma abbiamo intenzione di sperimentarne lo sviluppo. Continuiamo a pensare che, all’interno di questi ampi limiti, gli utenti individuali dovrebbero avere un grande controllo su come si comporta l’IA che utilizzano.
Date le sfide e le difficoltà, vale la pena considerare perché stiamo costruendo questa tecnologia in primo luogo.
Presso OpenAI, abbiamo due ragioni fondamentali. Primo, crediamo che porterà a un mondo molto migliore di quello che possiamo immaginare oggi (stiamo già vedendo esempi iniziali in settori come l’istruzione, il lavoro creativo e la produttività personale). Il mondo affronta molti problemi che avremo bisogno di aiuto maggiore per risolvere; questa tecnologia può migliorare le nostre società, e la capacità creativa di tutti nel utilizzare questi nuovi strumenti ci stupirà sicuramente. La crescita economica e l’aumento della qualità della vita saranno sorprendenti.
Secondo, riteniamo che sarebbe rischioso e difficile intuitivamente fermare la creazione di un’intelligenza superiore. Poiché i vantaggi sono così enormi, il costo per costruirla diminuisce ogni anno, il numero di attori che la costruiscono sta aumentando rapidamente ed è intrinsecamente parte del percorso tecnologico che stiamo seguendo, fermarla richiederebbe qualcosa come un regime di sorveglianza globale e persino questo non è garantito che funzioni. Quindi dobbiamo farlo nel modo giusto.”
Bene, se avete letto l’articolo in italiano, vi debbo subito dire che la traduzione è stata fatta da Chat GPT 3.5 in una manciata di secondi (con manciata intendo meno di 10 secondi).
Ho mantenuto volutamente la traduzione in italiano proposta da Chat GPT ben consapevole che in alcuni punti ci sono piccole sbavature, correggibili con un minimo sforzo, ma ho voluto lasciarle per farvi capire il livello già raggiunto da questo strumento. Sappiate che Chat GPT 4.0 sarà 20 volte superiore in termini di capacità generative per risolvere i quesiti che gli verranno proposti.
Che ve ne sembra?
Il mio pensiero attuale è che siamo di fronte ad una rivoluzione superiore a quelle che l’umanità ha vissuto in passato. Ci sono stati momenti nella storia in cui scoperte o invenzioni hanno fatto fare un balzo in avanti alle capacità tecniche dell’uomo che a loro volta hanno portato benefici in diversi ambiti: economico, sociale, sanitario, culturale. Penso all’invenzione dei caratteri di stampa, all’invenzione della pila, del motore a scoppio, della macchina fotografica, della dinamite, della bomba atomica, della plastica.
Tutte invenzioni che hanno cambiato e inciso profondamente sul nostro modo di vivere. Ma questa cosa qui, questa rivoluzione prodotta dall’intelligenza artificiale è diversa, perché va a toccare un elemento che è tipico dell’essere umano e lo contraddistingue in quanto essere vivente: l’intelligenza.
Ho chiesto a Chat GPT: Che definizione daresti all’intelligenza umana?
Questa è stata la risposta: “L’intelligenza umana può essere definita come la capacità di comprendere, apprendere, ragionare, adattarsi, risolvere problemi e applicare conoscenze in modo flessibile e creativo. È un insieme complesso di abilità cognitive, emotive e sociali che consente agli esseri umani di acquisire e utilizzare conoscenze, prendere decisioni, comunicare efficacemente, interagire con l’ambiente e perseguire obiettivi personali e collettivi. L’intelligenza umana si manifesta in una vasta gamma di attività, comprese le capacità linguistiche, il pensiero astratto, la memoria, la capacità di problem solving, l’apprendimento continuo, l’empatia e la consapevolezza di sé. È una caratteristica distintiva degli esseri umani che li differenzia da altre forme di intelligenza presenti nel regno animale.”
Quando dice “applicare conoscenze in modo flessibile e creativo” Chat GPT sta parlando di sé, perché queste cose già le può fare.
Allora, per terminare questa riflessione, la domanda provocatoria da porsi per me è questa: se l’essere creativo è proprio di un Essere Superiore, solo Dio è il Creativo per definizione e l’uomo lo è in quanto Sua immagine, che posto occuperanno le Intelligenze Artificiali di domani: il nostro o quello di un Essere Superiore?