Ultimo aggiornamento: 29 gennaio 2024 alle 16:36 IST
OpenAI deve affrontare problemi di privacy nel paese dal 2023
Lunedì l’autorità italiana per la protezione dei dati ha dichiarato di aver informato OpenAI che la sua applicazione di intelligenza artificiale ChatGPT violava le norme sulla protezione dei dati.
Milano: lunedì l'autorità italiana per la protezione dei dati ha dichiarato di aver informato OpenAI che la sua applicazione di intelligenza artificiale ChatGPT viola le norme sulla protezione dei dati.
L'organismo di regolamentazione ha affermato in una nota che, dopo l'indagine iniziata lo scorso anno, ritiene che vi siano elementi che indicano possibili violazioni.
Ha aggiunto che OpenAI ha 30 giorni per presentare le sue argomentazioni di difesa.
L'autorità italiana per i dati personali ha bandito brevemente ChatGPT l'anno scorso per presunta violazione delle norme sulla privacy dell'UE.
Nell'aprile dello scorso anno, l'agenzia italiana ha accusato OpenAI di non aver verificato l'età degli utenti di ChatGPT e ha criticato “l'assenza di qualsiasi base giuridica” che giustifichi la diffusa raccolta e archiviazione di dati personali.
In un comunicato, l'Agenzia per la Privacy ha delineato una serie di richieste “concrete” che dovranno essere soddisfatte al più presto. L'Italia è stato il primo paese dell'Europa occidentale a muoversi contro OpenAI, ma il rapido sviluppo della tecnologia ha attirato l'attenzione di legislatori e regolatori in diversi paesi.
Molti esperti affermano che sono necessarie nuove norme che regolano l’intelligenza artificiale a causa del suo potenziale impatto sulla sicurezza nazionale, sull’occupazione e sull’istruzione.
“Sottilmente affascinante drogato di bacon. Pioniere della birra esasperatamente umile. Introverso. Lettore malvagio. Creatore amico degli hipster.”