La sicurezza “è passata in secondo piano”
Associated Press, Associated Press & 17 maggio 2024 / 14:37 | Storia: 488044
Foto: stampa canadese
FILE – Il logo OpenAI viene mostrato su un telefono cellulare con un'immagine sullo schermo di un computer generata dal modello testo-immagine Dall-E di ChatGPT, venerdì 8 dicembre 2023, a Boston. Un ex leader di OpenAI che si è dimesso dalla società all'inizio di questa settimana ha dichiarato venerdì che la sicurezza dei prodotti è “passata in secondo piano rispetto ai prodotti brillanti” presso l'influente società di intelligenza artificiale. (Foto AP/Michael Dwyer, file)
Un ex leader di OpenAI che si è dimesso dalla società all'inizio di questa settimana ha dichiarato venerdì che la sicurezza è “passata in secondo piano rispetto ai prodotti brillanti” presso l'influente società di intelligenza artificiale.
Jan Lek, che gestiva il team “Super Alignment” di OpenAI insieme a uno dei cofondatori dell'azienda che si è dimesso questa settimana, ha scritto in una serie di post sulla piattaforma di social media in questo modo. Il posto migliore per condurre ricerche sull'intelligenza artificiale.
“Tuttavia, sono stato in disaccordo con la leadership di OpenAI sulle priorità fondamentali dell'azienda per un po' di tempo, finché non abbiamo finalmente raggiunto un punto di rottura”, ha scritto Leike, il cui ultimo giorno è stato giovedì.
Lake, un ricercatore di intelligenza artificiale di formazione, ha affermato di ritenere che ci dovrebbe essere una maggiore attenzione alla preparazione per la prossima generazione di modelli di intelligenza artificiale, compresi aspetti come la sicurezza e l’analisi degli impatti sociali di queste tecnologie. Ha affermato che costruire “macchine più intelligenti degli esseri umani è un'impresa intrinsecamente pericolosa” e che l'azienda “ha un'enorme responsabilità a nome di tutta l'umanità”.
“OpenAI deve diventare un'azienda AGI attenta alla sicurezza”, ha scritto Leike, utilizzando la versione breve di Intelligenza generale artificialeuna visione futura di macchine che hanno un'intelligenza ampia quanto quella umana o almeno possono fare molte cose come gli umani.
Sam Altman, CEO di Open AI, ha scritto in risposta ai post di Leike che “apprezza profondamente” il contributo di Leike all'azienda ed è stato “molto triste vederlo andarsene”.
Lake ha “ragione, abbiamo molto da fare e ci impegniamo a farlo”, ha detto Altman, promettendo di scrivere un articolo più lungo sull'argomento nei prossimi giorni.
Le dimissioni di Leike sono arrivate dopo che Ilya Sutskever, co-fondatore e capo scienziato di OpenAI, lo ha detto martedì Stava lasciando l'azienda Dopo quasi un decennio. Sutskever è stato uno dei quattro membri del consiglio che hanno votato a favore della risoluzione lo scorso autunno Spingi fuori Altman – Solo velocemente Restituirlo. È stato Sutskever a dire ad Altman lo scorso novembre che sarebbe stato licenziato, ma in seguito ha detto di essersi pentito.
Sutskever ha detto che sta lavorando a un nuovo progetto che per lui è significativo, senza fornire ulteriori dettagli. Verrà sostituito da Jacob Paczucki Come capo scienziato. Altman ha definito Paczucki “una delle più grandi menti della nostra generazione” e si è detto “molto fiducioso che ci porterà a compiere progressi rapidi e sicuri verso la nostra missione di garantire che tutti traggano beneficio dall'intelligenza artificiale generale”.
Lunedì OpenAI ha mostrato l'ultimo aggiornamento del suo modello di intelligenza artificiale, che può imitare i ritmi umani nelle sue risposte verbali e può persino provare a rilevare gli stati d'animo delle persone.
“Creatore. Piantagrane. Amante dell’alcol hardcore. Evangelista del web. Praticante di cultura pop estrema. Studioso zombi devoto. Introverso accanito.”