Come riconoscere un testo generato da un’intelligenza artificiale

Reso pubblico a novembre del 2022Chat GPT è l’ultimo modello di Generative Pre-trained Transformer di OpenAI che utilizza avanzati algoritmi di apprendimento automatico per generare risposte simili a quelle umane all’input dell’utente. Si può usare per inventare barzellette, scrivere storie per bambini, creare e-mail e in tanti altri modi.

Realizzato per raggiungere il grande pubblico, non è un caso che a dicembre 2022 ci sia stato il boom di Chat GPT, con milioni di accessi giornalieri e costanti problemi di utilizzo del modello a causa dell’eccessivo traffico in entrata sui server di OpenAI.

Grazie alla sua potenza e facilità d’utilizzo, Chat GPT sta spopolando sul web e molti, vista anche la possibilità di accedervi gratuitamente, ne stanno scoprendo le potenzialità

La magia e il pericolo di questi potenti modelli linguistici basati sull’intelligenza artificiale risiede nell’illusione della correttezza. Le frasi e in generale, i risultati che producono sembrano apparentemente sicuri e plausibilmente corretti: usano i giusti tipi di parole nell’ordine corretto

In realtà, il funzionamento di questi modelli si basa sulla previsione della parola successiva più probabile all’interno di una frase. Non hanno la più pallida idea se qualcosa sia corretto o falso e presentano con sicurezza informazioni come vere anche quando non lo sono.

La falla nei sistemi di intelligenza artificiale generativa

Shutterstock

In un mondo online già polarizzato, questi strumenti di elaborazione del linguaggio naturale (o Natural Language Processing) potrebbero distorcere ulteriormente le informazioni che consumiamo se non vengono usati per fini leciti. Esistono diversi strumenti che permettono di distinguere il testo scritto dall’uomo da quello generato dall’IA. Tali soluzioni aiuterebbero anche a contrastare potenziali usi impropri della tecnologia.

Nuovi tool saranno cruciali, ad esempio, per far rispettare i divieti su testo e codice generati dall’IA, come quello di recente annunciato da Stack Overflow, un sito Web per programmatori. Infatti, Chat GPT può restituire con sicurezza risposte a problemi di software, ma non è infallibile. Sbagliare il codice può portare a software difettoso, che è costoso e caotico da riparare.

E sebbene i moderatori dell’azienda stiano “esaminando migliaia di rapporti inviati dai membri della comunità tramite una serie di strumenti tra cui euristica e modelli di rilevamento”, il divieto è quasi impossibile da applicare.

Come riconoscere il testo scritto dall’IA

persona che corregge un testo

Shutterstock

Esistono vari modi in cui i ricercatori hanno cercato di riconoscere il testo generato dall’IA. Un metodo comune consiste nell’utilizzare il software per analizzare diverse caratteristiche del testo. La fluidità della lettura, la frequenza con cui compaiono determinate parole o la presenza di schemi nella punteggiatura o nella lunghezza della frase.

Poiché i modelli linguistici di grandi dimensioni funzionano prevedendo la parola successiva in una frase, è più probabile che utilizzino parole comuni come “the“, “it” o “is” invece di parole rare. 

Eppure, uno studio di qualche anno fa ha dimostrato che i partecipanti umani tendevano a pensare che un testo “pulito” avesse un aspetto migliore e contenesse meno errori, e quindi che doveva essere stato scritto da una persona.

Un errore di battitura nel testo è un ottimo indicatore del fatto che sia stato scritto da un essere umano

In realtà, il testo scritto dall’uomo può contenere di errori di battitura ed è incredibilmente variabile, incorporando stili e slang diversi, mentre i modelli linguistici fanno molto raramente errori di battitura. Sono molto più bravi a generare testi perfetti.

Gli stessi modelli linguistici di grandi dimensioni possono essere utilizzati per individuare il testo scritto dall’IA. Uno dei modi più efficaci è riaddestrare il modello su alcuni testi scritti da esseri umani e altri creati da macchine, affinché impari a distinguere tra i due.

Più potente è il modello, più aumentano le difficoltà

intelligenza artificiale all'opera

Shutterstock

Ma questi strumenti non hanno alcuna possibilità contro l’ultima generazione di modelli di IA, poiché sono costruiti su GPT-2 o altri precedenti. Inoltre, funzionano meglio quando è disponibile molto testo e sono meno efficienti in casi d’uso concreti, come i chatbot o gli assistenti di posta elettronica, che si basano su conversazioni più brevi e forniscono meno dati da analizzare.

Poi, l’utilizzo di modelli di linguaggio di grandi dimensioni per il rilevamento richiede computer potenti e l’accesso al modello di IA stesso, che le aziende tecnologiche non permettono.

Quindi, più grande e potente è il modello, più difficile è costruire modelli di IA per rilevare quale testo è scritto da un essere umano e quale no. Ciò che preoccupa ora è che Chat GPT ha risultati davvero impressionanti e i modelli di rilevamento non riescono a tenere il passo.

La risposta: allenare l’occhio umano

occhio

Shutterstock

In definitiva, non esiste una ricetta esatta per riconoscere un testo generato dall’IA. Abbiamo bisogno di correzioni tecniche migliorate e di una maggiore trasparenza. Soprattutto, dobbiamo imparare a individuare “le spie” delle frasi scritte dall’IA

I ricercatori di Harvard e IBM hanno sviluppato uno strumento, il Giant Language Model Test Room (GLTR), che supporta gli esseri umani evidenziando passaggi che potrebbero essere stati generati da un software. 

Al contempo, i ricercatori della Cornell University hanno scoperto che le persone hanno trovato credibili gli articoli di notizie false generati da GPT-2 circa il 66% delle volte. Un altro studio ha rilevato che gli esseri umani non addestrati sono stati in grado di individuare correttamente il testo generato da GPT-3 solo casualmente.

La buona notizia è che le persone possono essere allenate con molti testi generati dall’IA e migliorare gradualmente la capacità nell’individuare il testo scritto dall’IA

GPT-3, il predecessore di Chat GPT, esiste solo dal 2020. E anche se Chat GPT è una demo, è solo una questione di tempo prima che modelli altrettanto potenti vengano sviluppati e implementati in prodotti come chatbot nel servizio clienti.

E questo è il nocciolo del problema: la velocità di sviluppo in questo settore rende rapidamente obsoleto ogni tentativo di individuare il testo scritto dall’IA.

Per saperne di più: Intelligenza Artificiale, cos’è e cosa può fare per noi

A cura di Cultur-e Costruisci il tuo futuro con la connessione Fastweb

Fonte Fastweb.it

Calendario Notizie

Dicembre 2024
L M M G V S D
 1
2345678
9101112131415
16171819202122
23242526272829
3031