Bing AI, Microsoft limita le chat con il motore di ricerca

(ANSA) – MILANO, 20 FEB – Microsoft ha limitato il numero di
chat che gli utenti possono intrattenere con il nuovo Bing
Search, il suo motore di ricerca basato su ChatGpt. I tester del
servizio, che sfrutta il famoso chatbot AI che risponde, con
linguaggio naturale, ai quesiti posti, hanno l’opportunità di
ottenere solo cinque risposte alla volta da Bing, per un massimo
di 50 al giorno. Fino a tale decisione, ognuno poteva passare
ore a chiedere ciò che voleva alla piattaforma di prova. Una
possibilità che, per ammissione della stessa Microsoft, alla
lunga poteva portare l’algoritmo a sviare i discorsi,
approcciando in maniera poco equilibrata le discussioni con gli
esseri umani. Ad esempio, il giornalista Kevin Roose del New
York Times afferma di aver provato per diversi giorni Bing AI,
arrivandolo a definire un “adolescente lunatico e
maniaco-depressivo”. Nel corso del suo test, Bing AI aveva
cercato di convincere il giornalista a lasciare la moglie, per
via di un matrimonio che, secondo l’intelligenza artificiale,
era infelice. Microsoft ha spiegato che il progetto, essendo
ancora in una fase primordiale, deve imparare a gestire le
lunghe conversazioni, idealmente quelle superiori alle quindici
domande. Per la società, lunghe sessioni di chat tendono a “confondere il modello di chat sottostante nel nuovo Bing”. A
seguito dei vari rapporti che di recente raccontano lo strano
comportamento di Bing, il colosso americano ha spiegato la
decisione di porre un limite al suo utilizzo che, raccontano
dall’azienda, spesso “non è necessariamente utile o in linea con
il motivo per cui è stato progettato”. Man mano che le persone
continueranno a chattare con l’IA, questa raffinerà tono e
contesto degli argomenti, anche i più difficoltosi. Allora
Microsoft potrà eliminare il blocco attuale ed espandere
ulteriormente il servizio. (ANSA).
   

Fonte Ansa.it

Calendario Notizie

Novembre 2024
L M M G V S D
 123
45678910
11121314151617
18192021222324
252627282930