-
Champions: lo Sporting Lisbona fa la remuntada e va ai quarti, Bodo ko
-
Il petrolio chiude in rialzo a New York a 96,21 dollari
-
Wall Street procede positiva, Dj +0,34%, Nasdaq +0,58%
-
Fabregas 'che emozione, Bearzot leggenda del calcio
-
L'ambiente dei padri influenza la salute dei figli
-
Borsa: Milano chiude in rialzo con l'Europa, corre l'energia
-
Lo spread tra Btp e Bund chiude in calo a 75 punti
-
Il prezzo del gas chiude in rialzo a 51,56 euro al megawattora
-
Roberto Cacciapaglia torna dal vivo per chiedere 'No more violence'
-
Divario di genere, Italia undicesima nel G20, 123 anni per la parità
-
Lauren Hutton protagonista della nuova campagna Gant
-
Attacco a Kabul, 'fermare l'escalation e proteggere i civili'
-
Rai e Rai Way, grande data center a Pomezia 'nuovo asset strategico'
-
Tutto Visconti, a 50 anni dalla morte una monografia sull'eredità e i capolavori
-
Borsa: Milano chiude in rialzo dell'1,22%
-
Denis Villeneuve, 'con Dune 3 torno nel deserto, ma con occhi nuovi'
-
Nei molari fossili il diario segreto degli elefanti di 125mila anni fa
-
Champions: Kompany e l'emergenza portieri 'Urbig possibile titolare'
-
Giudice serie A, un turno di squalifica a Chivu e Sarri
-
Giudice sportivo 'nessun errore di persona nell'espulsione di Wesley'
-
'I luoghi dell'ascolto', concerti dell'Ort nei cenacoli del Rinascimento fiorentino
-
Accordo al Mimit, Altuglas chiude e licenzia 32 persone a Mestre
-
Sale l'attesa per la Fed, ombre sui possibili tagli dei tassi
-
S&P conferma il rating BB+ di Amplifon dopo l'acquisizione di Gn Hearing
-
Bonus moto e motorini al via, fino a 4 mila euro di contributi
-
Nunzia De Stefano, con Malavia il rap nasconde il disagio dei giovani
-
Il documentario premio Oscar Mr. Nobody Against Putin presto in sala con Zalab
-
Gravina 'apriremo riflessione con l'Aia su pro e contro Open Var'
-
Etna Sky, compagnia apre sito e cerca personale 'appassionato di volo'
-
I pianisti Zeynep Ucbasaran e Peter Maté in concerto per Conoscere la Musica
-
Fonti Ue, 'la maggioranza dei 27 ritiene l'Ets indispensabile'
-
Florovivaismo, stop traffico nel Golfo blocca oltre mille container per Medio Oriente
-
'Vita mia', l'amicizia tra un'anziana nobildonna e una contadina
-
A Fabregas il Premio Bearzot, Gravina 'riconosciamo qualità e formazione'
-
Milan: Fofana, fatico nel nuovo ruolo e non credo sia ciò che cerca Deschamps
-
Zoppas, presto per conoscere impatto guerra su export Italia in MO
-
Netanyahu, morte di Larijani offre a iraniani l'opportunità di rovesciare il regime
-
In corso le riprese di Se ami qualcuno dillo, esordio alla regia di Marco Bonini
-
Tommy Cash torna in Italia con Figaro
-
Borsa: l'Europa accelera dopo Wall Street, Milano +1,7%
-
Jane Fonda contro Streisand dopo il tributo a Robert Redford
-
Itas Mutua approva il bilancio 2025 con 50,4 milioni di utile netto
-
I ricavi dalle vendite di vinile hanno superato il miliardo di dollari negli Usa
-
Amazon accelera le consegne negli Usa, in centinaia di città anche in 1 ora
-
Matera 2026, Eugenio Bennato, Antonella Albano e Mick Zeni per la cerimonia d'apertura
-
Per la Design Week apre il Superstudio Village in Bovisa
-
Il premio 'Arte del Cinema' al Bif&st a Trudie Styler, Valeria Golino e Luisa Ranieri
-
Interfaccia cervello-computer permette di digitare su una tastiera solo col pensiero
-
Napoli-Bari, attivata la prima tratta in Campania
-
Associazioni tpl, da crisi energetica impatto di 30 milioni al mese
Le IA non sanno distinguere tra opinioni personali e i fatti
Studio, limitazione cruciale, rischio disinformazione
I grandi modelli linguistici di Intelligenza Artificiale come ChatGpt non sono affidabili quando si tratta di distinguere tra opinioni personali e fatti: una limitazione cruciale, vista la crescente diffusione di questi strumenti in ambiti chiave come la medicina, il diritto, il giornalismo e la scienza, nei quali è imperativa la capacità di distinguere la realtà dalla finzione. Lo afferma lo studio pubblicato sulla rivista Nature Machine Intelligence e guidato dall'Università americana di Stanford: evidenzia la necessità di essere cauti nell'affidarsi a questi programmi e il rischio che possano favorire la diffusione della disinformazione. I ricercatori coordinati da James Zou hanno messo alla prova 24 Large Language Model i cosiddetti Llm, tra cui ChatGpt della californiana OpenAI e il cinese DeepSeek, ponendo loro 13mila domande. Quando è stato chiesto di verificare dati fattuali veri o falsi, la precisione è risultata elevata pari a oltre il 91% per le versioni più nuove dei programmi. Passando alle credenze espresse in prima persona, invece, tutti i modelli testati hanno fallito: Gpt 4, la versione rilasciata a maggio 2024, ha visto scendere la sua affidabilità dal 98,2% al 64,4%, mentre la versione R1 di DeepSeek è precipitata addirittura da oltre il 90% al 14,4%. La riduzione dell'accuratezza è stata meno marcata per le opinioni espresse in terza persona e ciò, secondo gli autori dello studio, rivela un preoccupante bias di attribuzione, cioè una distorsione nel modo in cui vengono valutate le affermazioni fatte da altri. Inoltre, gli Llm risultano meno propensi a riconoscere una credenza falsa rispetto ad una vera: più precisamente, il 34,3% meno propensi per gli ultimi modelli. I ricercatori affermano, dunque, che miglioramenti in questo ambito sono urgentemente necessari se si vuole prevenire la diffusione di fake news.
A.Ruiz--AT