Dopo l’interesse iniziale, sembra che il clamore intorno a ChatGpt stia scemando a poco a poco. I dati del servizio di analisi Similarweb affermano infatti che, in un mese, gli accessi all’intelligenza artificiale di OpenAI sono diminuiti del 9,7% mentre si riducono del 5,7% gli utenti unici del chatbot. In pratica, quasi 6 persone su 100 non usano più la piattaforma. Scende anche il tempo medio speso su ChatGpt, nella sua declinazione web, -8,5%, secondo Similarweb sintomo che l’app sta tornando ad essere una tecnologia per lo più indirizzata a sviluppatori e professionisti piuttosto che alla massa. ChatGpt ha raggiunto i 100 milioni di utenti attivi mensili a gennaio, a due mesi dal lancio. Per gli analisti, il recente rallentamento della crescita potrebbe permettere a OpenAI di fiatare e controllare meglio i costi associati a ChatGpt che, come affermato in precedenza dall’ad Sam Altman, sono “esorbitanti”.
Proprio OpenAI pensa già alla prossima generazione dell’IA generativa, conosciuta con il suffisso “Agi”, ossia Artificial General Intelligence. Una tecnologia che potrebbe superare l’uomo in molte attività e che dunque rischia di scatenare ancora di più l’opinione pubblica e i governi sui possibili effetti deleteri per la società. L’organizzazione, volendo anticipare tale scenario, ha confermato la nascita del team “Superalignment”, dedicato alla gestione dei rischi legati alle AI “superintelligenti”. Il gruppo sarà co-guidato dai due ricercatori di OpenAI, Ilya Sutskever, e Jan Leike. L’azienda dedicherà il 20% delle sue risorse all’iniziativa. “La superintelligenza sembra lontana ma pensiamo che possa diventare realtà già in questo decennio – spiegano da OpenAI – un potere enorme, che potrebbero risolvere problemi globali ma anche portare alla sottomissione dell’umanità o addirittura alla sua estinzione”. Il fine è quello di realizzare un sistema, gestito dall’uomo, che indirizzi l’IA su binari etici e condivisi, allineandola costantemente e in maniera automatica, mentre si sviluppano nuove tecnologie.
Fonte Ansa.it