OpenAI è sotto indagine da parte della Federal Trade Commission (FTC) degli Stati Uniti per il suo chatbot di intelligenza artificiale ChatGPT (QUI cos’è e come funziona). Secondo l’autorità di regolamentazione americana, la start-up sostenuta da Microsoft potrebbe aver violato le leggi sulla protezione dei consumatori in relazione ai dati personali. L’agenzia vuole verificare se si siano verificate pratiche sleali da provocare “danni alla reputazione dei consumatori”. OpenAI ha ricevuto una lettera dalla FTC nella quale viene chiesto quali misure sono adottate per affrontare l’eventuale questione di “generare dichiarazioni false, fuorvianti e denigratorie su individui reali”.
La società ha detto di collaborare con la FTC, precisando però per bocca dell’amministratore delegato Sam Altman, che l’ultima versione del chatbot, GPT-4, è stata costruita dopo anni di ricerca sulla sicurezza ed è stata “progettata per il mondo e non per i privati”. Il CEO, però ha sottolineato che è “molto deludente vedere la richiesta della FTC iniziare con una fuga di notizie e ciò non aiuta a creare fiducia”. Poi ha aggiunto: “è molto importante per noi che la nostra tecnologia sia sicura e pro-consumatore, e siamo fiduciosi di seguire la legge”.
OpenAI: non solo la FTC, chatGPT nel mirino dei regolatori
Il lancio di ChatGPT è avvenuto a novembre 2022, innescando una vera e propria corsa da parte delle più grandi aziende tecnologiche per estrarre al cilindro un prodotto simile che rivoluzionasse la propria attività. Tutto questo però ha sollevato preoccupazioni da parte dei Paesi e delle rispettive autorità di regolamentazione, in primis in merito alla sicurezza e alla protezione dei dati personali.
Il prodotto di OpenAI è stato bloccato in Italia a marzo per la violazione del regime di privacy noto come GDPR dell’Unione Europea emanato nel 2018. Ciò ha portato la società americana a installare alcune funzionalità come la verifica dell’età e la possibilità di bloccare l’utilizzo delle informazioni degli utenti per addestrare il modello di IA, il che ha permesso al chatbot di tornare online.
Contestualmente negli Stati Uniti si sta discutendo di fare una legislazione completa a garanzia di alcuni aspetti molto delicati che riguardano le informazioni personali e che potrebbero essere minacciati dalle applicazioni di intelligenza artificiale. I regolatori di tutto il mondo stanno comunque provando a ragionare su due questioni chiave riguardo i modelli: i dati inseriti e il loro contenuto.
La FTC davanti alla Camera degli Stati Uniti
La FTC ha preso posizione, intensificando il giro di vite nel settore tecnologico, dopo la recente batosta presa in giudizio nella diatriba contro Microsoft per l’acquisizione da 75 miliardi di dollari di Activision Blizzard. Lina Khan, presidente dell’authority, si è presentata ieri davanti al comitato giudiziario della Camera per rispondere alle domande dei parlamentari, sebbene abbia rifiutato di commentare l’indagine nei confronti di OpenAI.
Tuttavia, ha suonato l’allarme su quello che definisce un “enorme tesoro di dati senza controllo” che riguardano ChatGPT e altri servizi di intelligenza artificiale. “Abbiamo sentito parlare di segnalazioni in cui le informazioni sensibili delle persone vengono visualizzate in risposta a una richiesta di qualcun altro. Abbiamo sentito parlare di calunnie, dichiarazioni diffamatorie, cose palesemente false che stanno emergendo. Questo è il tipo di frode e inganno di cui siamo preoccupati”, ha dichiarato.