Si è svolto il previsto incontro, in video conferenza, tra Garante Privacy e OpenAI. Ha preso parte in apertura anche Sam Altman, Ceo di OpenAI, erano presenti, oltre al Collegio del Garante (Pasquale Stanzione, Ginevra Cerrina Feroni, Agostino Ghiglia, Guido Scorza), Che Chang, Deputy General Counsel della società statunitense, Anna Makanju, responsabile Public Policy e Ashley Pantuliano, Associate General Counsel.
OpenAI, pur ribadendo di essere convinta di rispettare le norme in tema di protezione dei dati personali, ha tuttavia confermato la volontà di collaborare con l’Autorità italiana con l’obiettivo di arrivare ad una positiva soluzione delle criticità rilevate dal Garante riguardo a ChatGpt. L’Autorità da parte sua ha sottolineato come non vi sia alcuna intenzione di porre un freno allo sviluppo dell’AI e dell’innovazione tecnologica ed ha ribadito l’importanza del rispetto delle norme poste a tutela dei dai personali dei cittadini italiani ed europei. OpenAI si è impegnata a rafforzare la trasparenza nell’uso dei dati personali degli interessati, i meccanismi esistenti per l’esercizio dei diritti e le garanzie per i minori e ad inviare al Garante entro oggi un documento che indichi le misure che rispondano alle richieste dell’Autorità. Il Garante si riserva di valutare le misure proposte dalla società, anche riguardo al provvedimento adottato nei confronti di OpenAI.
La società americana intanto, ha pubblicato una lettera aperta sul suo blog in cui spiega che si “impegna a mantenere l’intelligenza artificiale sicura e vantaggiosa” e, visto che questi strumenti “comportano rischi reali” lavora per garantire che “la sicurezza sia integrata nel nostro sistema a tutti i livelli”.Open AI illustra in che modo realizza e rende sicure le sue piattaforme di intelligenza artificiale e precisa: “Non utilizziamo i dati per vendere i nostri servizi, pubblicità o profilare le persone. Li usiamo invece per rendere i nostri modelli più utili. ChatGpt, ad esempio, migliora con le conversazioni che, di volta in volta, intrattiene con gli utenti”. La lettera aperta della società americana dal titolo “Il nostro approccio alla sicurezza dell’AI” pubblicata sul suo blog dettaglia in che modo viene protetta la privacy degli utenti, anche minori, e come riduce il rischio di risposte errate, le cosiddette ‘allucinazioni’. Per azzerare il potenziale dei modelli di generare contenuti che danneggiano i bambini, quando un utente carica materiale pedopornografico negli strumenti di creazione o lettura di immagini, il sistema di Open AI lo blocca e lo segnala al National Center for Missing and Exploited Children. “Prima di rilasciare qualsiasi nuovo sistema, conduciamo test rigorosi, coinvolgiamo esperti esterni, lavoriamo per migliorare il comportamento del modello e costruiamo ampi sistemi di sicurezza e monitoraggio. Ad esempio, dopo aver terminato lo sviluppo del nostro ultimo modello, Gpt-4 (già integrato nella ricerca sperimentale di Microsoft Bing, ndr), abbiamo trascorso più di 6 mesi per renderlo più sicuro e allineato, prima di rilasciarlo pubblicamente. Riteniamo che i potenti sistemi di AI debbano essere soggetti a rigorose valutazioni. La regolamentazione è necessaria per garantire che tali pratiche siano adottate e ci impegniamo attivamente con i governi sulla forma migliore che tale regolamentazione potrebbe assumere”.
Fonte Ansa.it