Il ‘padrino’ dell’intelligenza artificiale lascia Google e avverte del pericolo imminente

Il ‘padrino’ dell’intelligenza artificiale lascia Google e avverte del pericolo imminente

New York.- Jeffrey Hinton È stato un pioniere nel campo dell’intelligenza artificiale. Nel 2012, Hinton l’ha inventato con due studenti laureati dell’Università di Toronto È una tecnologia che è diventata il fondamento intellettuale dei sistemi di intelligenza artificiale (AI) che le principali aziende tecnologiche di oggi considerano la chiave del loro futuro.

Lunedì, invece, Hinton si è unito al crescente coro di voci critiche che accusano i giganti della tecnologia di una corsa sull’orlo del baratro.con la sua forte spinta allo sviluppo di prodotti di consumo basati sull’IA generativa, la tecnologia alla base di popolari chatbot come ChatGPT.

Jeffrey Hinton ha deciso di lasciare Google per poter parlare liberamente dei pericoli dell’intelligenza artificialeCinguettio

Hinton Dice che ha lasciato Google —poiché ha lavorato per più di un decennio per diventare una delle voci più rispettate nella sua professione— Essere in grado di parlare liberamente dei pericoli dell’IA. “C’è una parte di me che rimpiange il lavoro della mia vita”, ammette Hinton.

Hinton ha detto durante una lunga intervista nella sala da pranzo della sua casa a Toronto, a pochi isolati da dove lui e i suoi studenti hanno fatto l’importante scoperta.

La trasformazione di Hinton da pioniere dell’intelligenza artificiale a profeta della fine del mondo è un evento straordinario per l’industria tecnologica, che sta affrontando il suo punto di svolta più significativo da decenni. I leader del settore ritengono che i nuovi sistemi di intelligenza artificiale potrebbero essere cruciali quanto l’avvento dei browser Web nei primi anni ’90, determinando un effetto a catena di enormi progressi in tutto, dallo sviluppo di farmaci alla tecnologia e all’istruzione.

ma anche all’interno del settore Molti sono erosi dalla paura del rilascio di una bestia pericolosa. In effetti, l’intelligenza artificiale è già in fase di creazione strumento di disinformazione. E presto potrebbe mettere a repentaglio molti posti di lavoro.. E i più preoccupati sottolineano che se continuiamo su questa strada, potrebbe rappresentare un pericolo per l’umanità.

Non vedo un modo per impedire ad attori malintenzionati di usarlo per fare del maleHinton Note.

A marzo, quando è iniziato IA aperta Da san francisco nuova edizione di chiacchierataPiù di 1.000 dirigenti e ricercatori del settore tecnologico, tra cui Elon Musk, hanno firmato una lettera aperta chiedendo che lo sviluppo di nuovi sistemi venga interrotto per sei mesi, “A causa dei profondi pericoli che le tecnologie di intelligenza artificiale rappresentano per l’umanità”.

READ  WhatsApp: come sapere chi l'ha programmato

Diversi giorni dopo, 19 leader attuali ed ex dell’Association for the Advancement of Artificial Intelligence, un’associazione accademica internazionale di 40 anni, Ha pubblicato la sua lettera aperta di avvertimento sui pericoli dell’intelligenza artificiale. Tra i due siti Eric Horvitzcapo scienziato di Microsoft, che ha inoculato la tecnologia sviluppata da OpenAI in molti dei suoi prodotti e servizi, incluso il motore di ricerca Bing.

ChatGPT, è un bot creato da OpenAI che interagisce con gli umani e scrive storie; Usa l’intelligenza artificiale, come le piattaforme che generano immagini, ma con funzioni testuali. Risponde a domande, racconta barzellette e può anche creare storie interattiveShutterstock – Shutterstock

Hinton, che viene spesso chiamato “Il padrino dell’intelligenza artificiale”Non ha firmato nessuna di queste lettere perché non voleva criticare pubblicamente Google e altre società prima di lasciare il suo lavoro. Il mese scorso ha informato Google della sua partenza e ha parlato giovedì scorso al telefono con Sundar Pichai, CEO di Alphabet, la società madre di Google. Hinton ha preferito non rivelare i dettagli della sua conversazione con il manager.

Capo scienziato di Google Jeff DeanAttraverso la dichiarazione “Restiamo impegnati Un approccio responsabile all’intelligenza artificialeE continuiamo a studiare per capire i rischi che si presentano senza rinunciare alla nostra audacia innovativa”.

Hinton, un espatriato britannico che ora ha 75 anni, è un accademico a vita, con una carriera guidata dalle sue convinzioni personali sullo sviluppo e l’uso dell’intelligenza artificiale. Nel 1972, come studente post-laurea presso l’Università di Edimburgo, Hinton ha adottato il concetto di “rete neurale”, un sistema matematico che apprende abilità analizzando i dati. Pochi ricercatori hanno accettato la sua idea, ma Hinton ne ha fatto il lavoro della sua vita.

Negli anni ’80, Hinton ha studiato informatica alla Carnegie Mellon University, ma ha lasciato il suo posto ed è andato in Canada perché Non era disposto a ricevere denaro dal PentagonoA quel tempo, la maggior parte della ricerca sull’intelligenza artificiale negli Stati Uniti era finanziata dal Dipartimento della Difesa. Hinton si oppone fermamente all’uso dell’IA sul campo di battaglia: come lo chiama lui Soldati robot.

READ  WhatsApp: questo gioco del 2022 include una delle funzioni più attese da tutti i suoi utenti

Nel 2012, Hinton e due dei suoi studenti a Toronto, Ilya Sutskiver e Alex Krichevsky, hanno costruito una rete neurale in grado di analizzare migliaia di immagini e imparare a riconoscere oggetti comuni, come fiori, cani e automobili.

Google ha pagato 44 milioni di dollari per acquistare l’azienda fondata da Hinton e dai suoi studenti, e il sistema che hanno costruito ha portato alla scoperta di tecnologie sempre più potenti, compresi i nuovi chatbot. Sutskever è diventato il capo scienziato di OpenAI. Nel 2018, Hinton e gli altri suoi collaboratori hanno ricevuto il Premio Turing, “Premio Nobel per l’informatica”per il suo lavoro sulle reti neurali.

Più o meno nello stesso periodo, Google, OpenAI e altre società hanno iniziato a costruire reti neurali in grado di apprendere elaborando grandi quantità di testo digitale. A Hinton sembrava essere un potente meccanismo per le macchine per comprendere e generare il linguaggio, ma era inferiore al modo in cui gli umani gestiscono il linguaggio.

Ma l’anno scorso Quando Google e OpenAI hanno creato sistemi che utilizzavano grandi quantità di dati, le loro menti sono cambiate. Ha continuato a credere che i sistemi fossero in qualche modo inferiori al cervello umano, ma ha riconosciuto che in altri modi erano superiori all’intelligenza umana. “Forse quello che sta succedendo in quei sistemi è molto meglio di quello che sta succedendo nel cervello.”

Man mano che i sistemi migliorano, diventano più pericolosi. “Ricorda solo com’era solo cinque anni fa e com’è adesso”, dice Hinton. “Se prendi quel lasso di tempo e proietti questa accelerazione in avanti, è spaventoso.”

Fino allo scorso anno, Google ha agito come il “custode appropriato” di quella tecnologia, facendo attenzione a non rilasciare nulla che potesse causare danni, afferma Hinton. Ma ora che Microsoft ha potenziato il suo motore di ricerca Bing con un chatbot, in aperta sfida al core business di Google, Google è in competizione per implementare lo stesso tipo di tecnologia. I giganti della tecnologia sono in una corsa che potrebbe essere impossibile fermare, avverte Hinton.

READ  Quali cellulari sono rimasti senza WhatsApp dal 1 marzo

La sua preoccupazione immediata è quella Internet è pieno di immagini, video e testi falsi e la persona media “non può più dire cosa è vero”.

Diventa anche ansioso nel tempo L’intelligenza artificiale sta rivoluzionando il mercato del lavoro. Oggi i bot come ChatGPT spesso integrano il lavoro umano, ma alla fine potrebbero sostituire il personale amministrativo e coloro che svolgono compiti di ufficio di routine. “Ti toglie il lavoro pesante, ma può finire per toglierti tutto”, dice Hinton.

Hinton è preoccupato che le versioni future di questa tecnologia diventeranno un problema Una minaccia per l’umanità, poiché spesso apprendono comportamenti inaspettati dalla grande quantità di dati che analizzano. E questo è un vero problema, afferma Hinton, poiché le aziende e gli utenti consentono ai sistemi di intelligenza artificiale non solo di creare il proprio codice informatico, ma di eseguirlo da soli. Hinton teme che un giorno Armi veramente autonome, quei robot assassini, diventano realtà.

“Pochi pensavano che queste cose potessero diventare più intelligenti delle persone”, afferma Hinton. “La maggior parte di noi, me compreso, pensava che fosse ancora molto lontano. Pensavo che mancassero altri 30 o 50 anni. Ovviamente non lo penso più”.

Molti altri esperti, inclusi molti dei suoi studenti e colleghi, affermano che la minaccia è ipotetica, ma Hinton ritiene che la corsa tra Google e Microsoft e altri diventerà una corsa globale che non si fermerà fino a quando non ci sarà una sorta di regolamentazione globale.

Sfortunatamente, potrebbe essere impossibile, dice Hinton A differenza delle armi nucleari, non c’è modo di sapere se aziende o paesi stanno sviluppando segretamente questa tecnologia. La migliore speranza è che i migliori scienziati del mondo collaborino su diversi modi per controllare la tecnologia. “Non penso che dovrebbero andare oltre fino a quando non capiranno se possono controllarlo”, dice.

In precedenza, quando gli è stato chiesto come avrebbe potuto sviluppare una tecnologia potenzialmente pericolosa, la risposta di Hinton è stata parafrasare Robert Oppenheimer, che ha guidato il progetto per costruire la bomba atomica negli Stati Uniti: “Quando trovi qualcosa di tecnicamente irresistibile, vai avanti e fallo.” “.

Oggi non dice più la stessa cosa.

di Kid Metz

Tradotto da Jaime Arambide

New York Times

Ulteriori informazioni su The Trust Project

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back To Top