-
Messico, in Senato il piano B della riforma elettorale
-
Steinmeier in Guatemala, prima visita di un presidente tedesco dopo 39 anni
-
Baseball, il Venezuela batte gli Usa e vince per la prima volta il World Classic
-
L'Ecuador nega raid su Colombia, Noboa attacca Petro: 'Accuse false'
-
Brasile, il Parlamento promulga l'accordo Mercosur-Ue: chiusa la ratifica
-
Paraguay approva l'accordo Mercosur-Ue, ora attesa la firma del presidente Peña
-
Championship: Bove segna il suo primo gol dopo il ritorno in campo
-
Coppa d'Africa: Marocco campione, Senegal perdente a tavolino
-
L'Iran conferma la morte di Larijani
-
Champions: lo Sporting Lisbona fa la remuntada e va ai quarti, Bodo ko
-
Il petrolio chiude in rialzo a New York a 96,21 dollari
-
Wall Street procede positiva, Dj +0,34%, Nasdaq +0,58%
-
Fabregas 'che emozione, Bearzot leggenda del calcio
-
L'ambiente dei padri influenza la salute dei figli
-
Borsa: Milano chiude in rialzo con l'Europa, corre l'energia
-
Lo spread tra Btp e Bund chiude in calo a 75 punti
-
Il prezzo del gas chiude in rialzo a 51,56 euro al megawattora
-
Roberto Cacciapaglia torna dal vivo per chiedere 'No more violence'
-
Divario di genere, Italia undicesima nel G20, 123 anni per la parità
-
Lauren Hutton protagonista della nuova campagna Gant
-
Attacco a Kabul, 'fermare l'escalation e proteggere i civili'
-
Rai e Rai Way, grande data center a Pomezia 'nuovo asset strategico'
-
Tutto Visconti, a 50 anni dalla morte una monografia sull'eredità e i capolavori
-
Borsa: Milano chiude in rialzo dell'1,22%
-
Denis Villeneuve, 'con Dune 3 torno nel deserto, ma con occhi nuovi'
-
Nei molari fossili il diario segreto degli elefanti di 125mila anni fa
-
Champions: Kompany e l'emergenza portieri 'Urbig possibile titolare'
-
Giudice serie A, un turno di squalifica a Chivu e Sarri
-
Giudice sportivo 'nessun errore di persona nell'espulsione di Wesley'
-
'I luoghi dell'ascolto', concerti dell'Ort nei cenacoli del Rinascimento fiorentino
-
Accordo al Mimit, Altuglas chiude e licenzia 32 persone a Mestre
-
Sale l'attesa per la Fed, ombre sui possibili tagli dei tassi
-
S&P conferma il rating BB+ di Amplifon dopo l'acquisizione di Gn Hearing
-
Bonus moto e motorini al via, fino a 4 mila euro di contributi
-
Nunzia De Stefano, con Malavia il rap nasconde il disagio dei giovani
-
Il documentario premio Oscar Mr. Nobody Against Putin presto in sala con Zalab
-
Gravina 'apriremo riflessione con l'Aia su pro e contro Open Var'
-
Etna Sky, compagnia apre sito e cerca personale 'appassionato di volo'
-
I pianisti Zeynep Ucbasaran e Peter Maté in concerto per Conoscere la Musica
-
Fonti Ue, 'la maggioranza dei 27 ritiene l'Ets indispensabile'
-
Florovivaismo, stop traffico nel Golfo blocca oltre mille container per Medio Oriente
-
'Vita mia', l'amicizia tra un'anziana nobildonna e una contadina
-
A Fabregas il Premio Bearzot, Gravina 'riconosciamo qualità e formazione'
-
Milan: Fofana, fatico nel nuovo ruolo e non credo sia ciò che cerca Deschamps
-
Zoppas, presto per conoscere impatto guerra su export Italia in MO
-
Netanyahu, morte di Larijani offre a iraniani l'opportunità di rovesciare il regime
-
In corso le riprese di Se ami qualcuno dillo, esordio alla regia di Marco Bonini
-
Tommy Cash torna in Italia con Figaro
-
Borsa: l'Europa accelera dopo Wall Street, Milano +1,7%
-
Jane Fonda contro Streisand dopo il tributo a Robert Redford
Il paradosso dei chatbot, più crescono più sbagliano
Dà risposte errate piuttosto che ammettere l'ignoranza
Più crescono e fanno esperienza, maggiore è il rischio che rispondano in modo errato piuttosto che ammettere di non saper rispondere: è uno dei grandi problemi dei grandi modelli linguistici che alimentano i chatbot, come ChatGpt e Llama. A dirlo è lo studio pubblicato sulla rivista Nature da José Hernández-Orallo, dell'Istituto di ricerca per l'Intelligenza Artificiale di Valencia in Spagna, che sottolinea inoltre come questi errori sfuggano facilmente agli umani. Una delle importanti caratteristiche dei grandi modelli linguistici, o Llm, è la capacità di evolvere nel tempo integrando al loro interno nuove informazioni derivanti dalle interazioni con gli utenti o con gli sviluppatori, così da diventare teoricamente sempre più affidabili. Ma analizzando questo percorso in tre degli Llm più polari, in particolare ChatGpt di OpenAi, Llama di Meta e il modello aperto Bloom, i ricercatori spagnoli hanno osservato un cambiamento del loro comportamento. Secondo gli autori della ricerca i tre modelli inizialmente erano più propensi di oggi nell'ammettere di non poter rispondere a domande su questioni su cui non si sentivano certi di dare risposte accurate. Una prudenza che è andata gradualmente svanendo: "i modelli 'ingranditi' e modellati tendono a dare una risposta apparentemente sensata, ma sbagliata, molto più spesso rispetto al passato", affermano i ricercatori nell'articolo. I chatbot "stanno diventando più bravi a fingere di essere informati", ha commentato Hernández-Orallo. Un problema che si aggiunge inoltre all'incapacità da parte degli umani di riuscire a notare questi errori, spesso perché ci si fida automaticamente della macchina. Un problema che potrebbe essere parzialmente risolto impostando negli Llm una sorta di soglia di affidabilità più alta, al di sotto della quale l'IA non rilascia una risposta. Scelta possibile per i chatbot ideati per lavorare in settori specifici, ad esempio in campo medico, ma più difficile immaginare, sottolineano i ricercatori, possa essere introdotta da quelle aziende che sviluppano chatbot 'generalisti' che puntano proprio sulla capacità di risposta in settori molto ampi.
R.Chavez--AT