(ANSA) – ROMA, 31 MAG – Nessun documento legale redatto
dall’intelligenza artificiale. È l’aut aut messo da un giudice
federale del Texas dopo i casi dell’uso dell’IA in tribunale.
L’ultimo è accaduto pochi giorni fa quando un avvocato a New
York per costruire una causa si è affidato a ChatGpt che ha
fornito sei casi precedenti, tutti risultati completamente
inesistenti.
Brantley Starr, giudice federale del Texas – come spiega il
sito specializzato techCrunch – sta adottando misure per
garantire proprio che non si verifichino in aula casi del
genere. Ha aggiunto un requisito secondo cui qualsiasi avvocato
che compare nella sua corte deve attestare che “nessuna parte
della causa è stata redatta dall’intelligenza artificiale
generativa” o, se lo è, che è stata controllata “da un essere
umano”. Tutti gli avvocati che compaiono davanti alla Corte
devono quindi mettere agli atti un certificato appositamente
redatto e dichiarare che qualsiasi eventuale contenuto prodotto
dall’IA sia stato controllato accuratamente da una persona in
carne ed ossa utilizzando i database legali tradizionali o fonti
stampa.
Gli errori dell’Intelligenza artificiale sono chiamati in
termine tecnico allucinazioni: in pratica i chatbot forniscono
risposte che suonano convincenti ma in realtà sono completamente
inventate o sbagliate. Un problema importante che ha sta aprendo
una riflessione sull’addestramento dei modelli di IA. (ANSA).
Fonte Ansa.it