Microsoft e OpenAI hanno fatto causa per 3 miliardi di dollari per violazione della privacy con ChatGPT
Microsoft e OpenAI sono state citate in giudizio da sedici persone che affermano che le società hanno utilizzato dati personali senza autorizzazione per addestrare i loro modelli di intelligenza artificiale (AI).
La causa di 157 pagine (tramite The Register ) è stata intentata dalle persone attraverso lo studio legale Clarkson presso il tribunale federale di San Francisco, in California, il 28 giugno. La causa sostiene che Microsoft e OpenAI abbiano utilizzato i dati per addestrare ChatGPT senza consenso, preavviso adeguato o pagamento per tali dati.
Nonostante i protocolli stabiliti per l’acquisto e l’uso delle informazioni personali, gli imputati hanno adottato un approccio diverso: il furto. Hanno sistematicamente raschiato 300 miliardi di parole da Internet, “libri, articoli, siti Web e post, comprese le informazioni personali ottenute senza consenso”. OpenAI lo ha fatto in segreto e senza registrarsi come broker di dati come era richiesto dalla legge applicabile.
La causa parla inoltre della privacy delle persone in quanto rileva che i dati utilizzati da OpenAI contenevano informazioni sulle convinzioni delle persone, le abitudini di lettura, gli hobby, i dati sulle transazioni e sulla posizione, i registri delle chat e altro ancora.
Mentre le risme di informazioni personali che gli imputati raccolgono sugli utenti possono essere utilizzate per fornire risposte personalizzate e mirate, possono anche essere utilizzate per scopi estremamente nefasti, come il monitoraggio, la sorveglianza e il crimine. Ad esempio, se ChatGPT ha accesso alla cronologia di navigazione, alle query di ricerca e alla geolocalizzazione di un utente e combina queste informazioni con ciò che l’imputato OpenAI ha segretamente raschiato da Internet, gli imputati potrebbero creare un profilo dettagliato dei modelli di comportamento degli utenti, incluso ma non limitato dove vanno, cosa fanno, con chi interagiscono e quali sono i loro interessi e le loro abitudini. Questo livello di sorveglianza e monitoraggio solleva questioni etiche e legali vitali sulla privacy, il consenso e l’uso dei dati personali. È fondamentale che gli utenti siano consapevoli di come i loro dati vengono raccolti e utilizzati,
Non solo, ma la causa ha anche preso di mira l’approccio di OpenAI per nascondere le informazioni personali identificabili (PII). All’inizio di quest’anno, The Register ha pubblicato un rapporto che fa luce sul piano di OpenAI per prevenire la fuga di PII durante l’utilizzo di ChatGPT. Secondo il rapporto, OpenAI aveva appena inserito un filtro dei contenuti che avrebbe impedito all’intelligenza artificiale di sputare informazioni private come numeri di telefono e informazioni sulla carta di credito.
Per quanto riguarda le informazioni di identificazione personale, i Convenuti non riescono a filtrarle a sufficienza dai modelli di formazione, mettendo milioni di persone a rischio che tali informazioni vengano divulgate tempestivamente o in altro modo a estranei in tutto il mondo.
Infine, la causa sostiene anche che Microsoft e OpenAI abbiano violato l’Electronic Privacy Communications Act ottenendo e utilizzando illegalmente informazioni riservate. Inoltre, i querelanti hanno anche affermato che Microsoft aveva violato il Computer Fraud and Abuse Act intercettando la comunicazione tra servizi di terze parti/integrazioni ChatGPT.
La causa in generale è piena di citazioni di ricercatori, accademici, giornalisti e altri che in passato hanno sollevato allarmi riguardo all’uso delle reti neurali e dell’intelligenza artificiale. Tuttavia, il deposito è chiaro su come l’uso delle informazioni e le istanze di danno che ha causato valgano 3 miliardi di dollari di danni.
Questa non è la prima volta che Microsoft viene criticata per aver abusato di dati o per averli utilizzati senza il giusto consenso. Il mese scorso, Twitter ha inviato un avviso a Microsoft sostenendo che la società aveva utilizzato i dati di Twitter senza consenso . OpenAI, d’altra parte, ha avuto la sua giusta dose di problemi. A marzo, la società ha segnalato una violazione che ha fatto trapelare informazioni di pagamento parziali degli utenti di ChatGPT. All’inizio di questo mese, i dati degli account di oltre 100.000 utenti ChatGPT sono stati trapelati e venduti sul dark web .
Lascia un commento