L’intelligenza artificiale continua a far discutere, soprattutto quando a pronunciarsi sono due addetti ai lavori del calibro di Geoffrey Hinton e Demis Hassabis, entrambi nell’orbita di Google. Il “padrino della AI” e il CEO di Google DeepMind hanno posto l’attenzione su aspetti differenti in merito ai futuri sviluppi delle applicazioni della AGI, l’intelligenza artificiale generale, quella che mira dichiaratamente ad emulare il pensiero umano.
Vediamo in cosa consiste il loro pensiero e quali spunti si possono trarre quando si valuta di adottare determinati strumenti, per farlo in maniera cosciente e consapevole dei rischi che si corrono.
Geoffrey Hinton: “Nelle mani sbagliate la AI è pericolosa, serve sicurezza e controllo”
Ha fatto molto rumore nel mondo tech la decisione di Geoffrey Hinton, che ha lasciato i propri incarichi in Google per dichiarare apertamente le proprie preoccupazioni nei confronti dello sviluppo dell’intelligenza artificiale.
Geoffrey Hinton, 75 anni, soprannominato “il padrino dell’intelligenza artificiale” ha annunciato al New York Times di aver lasciato Google per ammonire pubblicamente la comunità scientifica e tecnologica sui concreti rischi che accompagnato lo sviluppo dell’intelligenza artificiale. Una posizione successivamente approfondita nel corso di un’intervista rilasciata alla BBC, dove senza mezzi termini ha definito i chatbot AI come “quite scary”, piuttosto inquietanti.
Secondo il celebre informatico londinese: “Per quanto ne sappia, attualmente i chatbot non sono molto più intelligenti di noi, ma potrebbero esserlo molto presto”, ammettendo come la volontà di dichiarare liberamente il proprio pensiero non sia stata l’unica decisione alla base delle dimissioni da Google.
Hinton ha infatti precisato come, a 75 anni, sentisse che fosse ormai arrivato il momento di ritirarsi da una scena che per diversi decenni lo ha visto schierato in prima lnea nella ricerca sulle reti neurali profonde (deep learning), ponendo di fatto le basi per lo sviluppo dei sistemi AI attuali, come il tanto chiacchierato ChatGPT.
La ricerca di Hinton si è concentrata nell’ambito di quella che in gergo viene definita l’intelligenza artificiale generale (AGI) ed in particolare quella sottobranca denominata deep learning, dove le reti neurali “profonde” sono sistemi modellati per imitare il modo in cui il cervello umano apprende dai dati ed elabora le informazioni, per restituire previsioni simili alle decisioni che prenderebbe il cervello stesso nel medesimo contesto.
Per quanto riguarda le tecnologie cognitive, Hinton ha dichiarato come: “Attualmente, ciò che stiamo osservando è che sistemi come GPT-4 sono in grado di oscurare una persona per quanto riguarda la quantità di conoscenza che sono in grado di apprendere, e la oscura di gran lunga. Per quanto riguarda il ragionamento, al momento non è molto buono, ma questi sistemi sono già in grado di formulare ragionamenti semplici”.
Secondo Hinton, la chiave è nella rapidità con cui vengono sviluppate tali applicazioni: “Tenendo conto della rapidità con cui evolvono, credo sia arrivato il momento di preoccuparci circa il loro utilizzo”. Durante la propria conversazione con Hinton, la BBC si chiede se il mondo sia pronto per la “AI storm”, la tempesta dell’intelligenza artificiale, nei confronti della quale la fase che stiamo vivendo può essere interpretata come la proverbiale quiete che la precede.
In particolare, ad Hinton è stato richiesto di precisare nel dettaglio la dichiarazione precedentemente rilasciata al New York Times, dove si riferiva al fatto che i “bad actors” avrebbero certamente utilizzato la AI per realizzare “bad things”. La questione etica circa l’impiego dell’intelligenza artificiale ben difficilmente potrebbe condizionare l’operato di chi si pone finalità fraudolente e criminali di vario genere.
Hinton ha ribadito alla BBC la propria impressione originale: “Si tratta del worst case scenario, il peggior scenario possibile, uno scenario davvero da incubo […] Pensate cosa potrebbe accadere se un bad actor come il presidente Putin scegliesse di dare ai robot l’abilità di creare i propri sotto-obiettivi, nel caso questi coincidessero con la necessità di ottenere maggior potere”.
Il problema di fondo, secondo Hinton risiede nel fatto che: “L’intelligenza che stiamo sviluppando è molto diversa dalla nostra. […] Noi siamo sistemi biologici, mentre questi sono sistemi digitali. La differenza sostanziale è nel fatto che con i sistemi digitali tu puoi avere tante copie […] che possono apprendere in maniera tra loro disgiunta, ma condividere la loro conoscenza in maniera simultanea. È come se tu avessi 10000 persone, e quando ognuna di esse impara qualcosa, tutte la apprendono automaticamente. È in questo modo che i chatbot dispongono di una conoscenza di gran lunga superiore rispetto all’uomo”.
Le dichiarazioni di Hinton hanno trovato immediato riscontro da parte di una larga rappresentanza della comunità scientifica attiva sul fronte dell’intelligenza artificiale, tra cui gli stessi firmatari, nello scorso mese di marzo, della famosa lettera aperta che richiedeva la momentanea sospensione dello sviluppo dei sistemi AI per dare luogo ai regolatori di intervenire sul fronte della sicurezza e del controllo, prima che sia troppo tardi per valutarne le conseguenze. Questioni che lo stesso Hinton ha sostanzialmente ribadito al New York Times lanciando il proprio grido d’allarme.
Intelligenza Artificiale, le parole di Matt Clifford
Ai microfoni della BBC, Matt Clifford, presidente dell’Agenzia per la Ricerca e le Invenzioni del Regno Unito, parlando a titolo personale, ha evidenziato come le parole di Hinton: “Sottolineano la velocità con cui le capacità delle AI stanno progredendo. C’è un enorme potenziale in questa tecnologia, ma è essenziale che il mondo investa con urgenza per assicurare la sicurezza e il controllo dei sistemi AI”.
Tra gli altri grandi nomi schierati con Hinton risulta anche Youshua Bengio, un’altro dei grandi padrini della AI, oltre che vincitore nel 2018 del celebre Turing Award, conferitogli per il lavoro svolto nell’ambito del deep learning insieme allo stesso Hinton e a Yann LeCun.
Secondo Bengio, a causa dell’inaspettata accelerazione dello sviluppo dei sistemi AI; “We need to take a step back”, occorre fare un deciso passo indietro, mentre la posizione di Hinton in merito sarebbe molto più morbida, in quanto, secondo quanto dichiarato alla BBC, nel breve termine i benefici dati dalla AI sarebbero comunque superiori ai rischi che potrebbero derivarne.
A differenza dei firmatari della famosa lettera capitanata da Elon Musk, Hinton ha apertamente dichiarato come: “Non penso che dovremmo interrompere la ricerca e lo sviluppo dei sistemi AI”, ponendo piuttosto l’attenzione sugli aspetti di sicurezza e controllo, intervenendo sin da subito sulla regolamentazione dei chatbot AI e, più in generale, delle applicazioni basate sulle tecnologie LLM (large language model).
Secondo Hinton, la pausa richiesta dalla comunità scientifica non sarebbe inoltre fattibile per altri aspetti: “Anche se negli Stati Uniti si fermassero, la Cina potrebbe procedere e trarre un grande vantaggio da questa situazione”.
Per le stesse ragioni, Hinton ha precisato che la sua scelta di dimettersi da Google non è dovuta alla volontà di criticare l’operato di Big G nell’ambito dello sviluppo dell’intelligenza artificiale, in quanto ciò non coincide assolutamente con le sue intenzioni. Il gigante statunitense a suo avviso è stato finora “molto responsabile” nel condurre le proprie attività: “Semplicemente, se devo pronunciarmi in merito a Google e dire anche buone cose a riguardo, posso risultare più credibile se non lavoro per Google”.
Tale precisazione è stata rilasciata nel corso della recente intervista alla BBC, dove Hinton ha direttamente e indirettamente risposto ad alcuni quesiti che sono sorti a livello globale dopo le sue prime forti affermazioni, pubblicate dal New York Times.
Google ha contribuito alla discussione attraverso un comunicato ufficiale, dove il capo della ricerca scientifica Jeff Dean ha pubblicamente dichiarato che l’intenzione di Big G: “E’ rimanere fortemente ancorati ad un approccio responsabile nei confronti dell’intelligenza artificiale. Ogni giorno impariamo dalla nostra ricerca a comprendere i grandi rischi, ma al tempo stesso ci impegniamo ad innovare con coraggio”.
Demis Hassabis: “Tra pochi anni la AI supererà l’uomo”
Tra gli interventi autorevoli riguardanti l’intelligenza artificiale non poteva non mancare quello di Demis Hassabis, co-fondatore e CEO di Google DeepMind, il celebre AI Lab, acquisito nel 2014, che recentemente è stato annesso al controllo diretto di Big G, dopo aver mantenuto per alcuni anni una sostanziale autonomia, sviluppando ad esempio sistemi AI come AlphaGo, capaci di battere i migliori giocatori al mondo a Go, o AlphaFold, in grado di risolvere il problema del protein folding.
Nel contesto di un’intervista al Future of Everything Festival, Demis Hassabis ha dichiarato al Wall Street Journal che nel giro di pochi anni la AI raggiungerà sicuramente un livello di intelligenza almeno comparabile a quella dell’uomo: “probabilmente già entro la fine di questo decennio”.
Secondo Hassabis: “Negli ultimi anni abbiamo assistito ad incredibili progressi, per cui non vedo ragioni che potrebbero far pensare ad un rallentamento. Al momento vedrei più probabile un’ulteriore accelerazione, per cui credo che un’intelligenza artificiale paragonabile a quella umana non sia distante“.
Nel contesto del proprio intervento al Future of Everything Festival, Hassabis ha risposto ad una questione fondamentale: dare una definizione di AGI, intelligenza artificiale generale. Il celebre ricercatore a capo di Google DeepMind ha affermato che: “Si tratta di capacità cognitive di livello simile a quelle umane”, precisando inoltre che al momento non vi sia alcuna definizione condivisa, un test o benchmark di riferimento per definire se un sistema AI sia o meno una AGI.
La comunità scientifica non si è ancora mossa ufficialmente in questa direzione. Secondo Hassabis, il dibattito si ferma ad una fase precedente, ossia stabilire o meno se una AGI sia effettivamente possibile. Su questo tema, i pareri sono contrastanti.
Se figure come il già citato Hassabis o il CEO di OpenAI, Sam Altman, spingono con fermezza nella direzione della AGI anche per via degli interessi che li vedono coinvolti in prima persona, altri influencer, come Roger Penrose, storico collaboratore di Stephen Hawking, ritengono che una AGI, almeno in quei termini, sia ancora molto distante dal raggiungere l’obiettivo prefissato, se questo coincide con il pensare e agire liberamente come l’uomo. Per alcuni serviranno decenni, per altri questo risultato potrebbe addirittura non essere mai raggiunto.
Lo stesso Hassabis, suggerisce un atteggiamento prudente circa gli scenari futuri dell’intelligenza artificiale generale, soprattutto ai fini di scoraggiare inutili speculazioni a riguardo: “Lo sviluppo di tecnologie AGI deve essere portato avanti, ma in modo cauto, seguendo i criteri del metodo scientifico. È molto importante agire in contesti controllati, per comprendere in maniera scrupolosa come agisce il sistema sottostante”. Con questa affermazione Hassabis ha indirettamente risposto ad uno dei fondamentali dubbi di Hinton, relativo al controllo dei sistemi AI, almeno a livello tecnologico.
Rimane ampiamente aperta la questione riguardante la sicurezza, un aspetto su cui dovranno pronunciarsi i governi e i loro enti regolatori. Il precedente creato dal Garante italiano con ChatGPT apre una partita che richiederà un grande sforzo a livello internazionale. La posta in gioco è davvero troppo alta per rischiare, ancora una volta, di andare nella direzione di un far west deregolamentato, in cui la tecnologia potrebbe fare l’interesse di pochi big tech a discapito di una collettività che potrebbe venire letteralmente travolta dagli impatti dei sistemi AI.
Regolamentare le applicazioni dell’intelligenza artificiale generale non equivale a porre barriere nei confronti dello sviluppo tecnologico, né alla libera iniziativa imprenditoriale, ma accertarsi che le tecnologie stesse vengano adoperate in maniera coerente con gli interessi della collettività, nella direzione di portare benefici resilienti.