(ANSA-AFP) – NEW YORK, 20 DIC – OpenAI si affida ad un team e
a linee guida per valutare i “rischi catastrofici”
dell’intelligenza artificiale nei modelli attualmente in fase di
sviluppo. L’annuncio arriva un mese dopo che il consiglio di
amministrazione della società ha licenziato il Ceo Sam Altman,
per poi assumerlo nuovamente dopo che dipendenti e investitori
si sono ribellati.
“Crediamo che lo studio scientifico sui rischi catastrofici
derivanti dall’intelligenza artificiale sia ben al di sotto di
dove debba essere”, ha spiegato OpenAI per cui le linee guida
aiutano “a colmare questa lacuna”. Secondo i media statunitensi,
i membri del Cda della società avevano criticato Altman per aver
favorito lo sviluppo accelerato di OpenAI.
Il team di monitoraggio e valutazione si concentrerà sui
modelli in fase di sviluppo e assegnerà un livello di rischio,
da “basso” a “critico”, in quattro categorie principali. Possono
essere utilizzati solo i modelli con un punteggio di rischio
pari o inferiore a “medio”. La prima categoria riguarda la
sicurezza informatica e la capacità del modello di effettuare
attacchi informatici su larga scala. Il secondo misura la
propensione del software a contribuire alla creazione di una
miscela chimica, di un virus o di un’arma nucleare. La terza
categoria riguarda il potere persuasivo del modello, ovvero la
misura in cui può influenzare il comportamento umano. L’ultima
categoria di rischio riguarda la potenziale autonomia del
modello, in particolare se può sfuggire al controllo dei
programmatori che lo hanno creato.
Una volta identificati i rischi, verranno sottoposti al
Safety Advisory Group di OpenAI, l’organismo che formulerà
raccomandazioni ad Altman o a una persona da lui nominata. Il
responsabile di OpenAI deciderà quindi eventuali modifiche da
apportare a un modello per ridurre i rischi associati. Il
consiglio di amministrazione sarà informato e potrà annullare
una decisione. (ANSA-AFP).
Riproduzione riservata © Copyright ANSA
Fonte Ansa.it