-
Mondiali: Argentina pesca l'Austria, il Brasile con Marocco
-
Mediobanca, accordo con Nagel e Vinci, 5 milioni a testa
-
Europei nuoto 25 m, Ceccon d'oro nei 100 dorso
-
Mondiali: Trump 'da bambino vidi Pelè giocare, uno dei migliori'
-
Mondiali: Trump riceve il premio Fifa per la pace da Infantino
-
Premiato con 1 milione il progetto europeo su nuova astronomia
-
Mondiali:Infantino 'evento unico, come 104 Superbowl in un mese'
-
Borsa: Milano chiude fiacca, giù Mediobanca e Mps
-
Il prezzo del gas chiude in rialzo a 27,27 euro
-
Fotovoltaico al posto dell'amianto su 200 tetti industriali
-
Mondiali: Trump 'il calcio sport grandioso, arriva negli Usa'
-
F1: fratelli Leclerc in pista, Charles 'lo sognavamo da bambini'
-
Alessandro Siani debutta con il nuovo show Fake News
-
Mondiali: Trump arrivato al Kennedy Center per il sorteggio
-
Vanoli 'inizia un mese importante, sta a noi trascinare tifosi'
-
Molaro, velo da sposa con 1000 proiettili contro la guerra
-
Monitorare gli alimenti con sensori da smaltire nell'umido
-
Milano-Cortina, Ralph Lauren disegna le divise del team Usa
-
Borsa: l'Europa stabile dopo l'inflazione Usa
-
Weaver, 'in Avatar molte emergenze del nostro mondo'
-
I sindacati, 'massiccia adesione a sciopero nazionale Ikea'
-
Tarantino spara a zero su Paul Dano e Owen Wilson
-
Borsa: l'Europa positiva dopo Wall Street, Milano +0,2%
-
Un'IA al servizio della scienza, può aggregare dati da più fonti
-
Una Battaglia Dietro l'Altra e Marty Supreme nella top 10 di Afi
-
La Grazia di Sorrentino esce negli Usa, applausi dalla critica
-
Its Academy consacra 16 giovani artigiani del costume
-
Tornatore, 'il biopic su Cucinelli? Impossibile dirgli di no'
-
Afraa Al-Noaimi dal Qatar alla Prima della Scala
-
'Usa, l'Europa prenda il controllo della Nato entro 2027'
-
Fedriga, iniziati colloqui tra Fincantieri e Comune Monfalcone
-
Antartide, al via la missione scientifica della nave Laura Bassi
-
Maculopatia senile, positivi i primi dati sulla terapia genica
-
Niente rc auto per auto storiche, basta polizza 'statica'
-
Grigory Sokolov torna al Lingotto con Beethoven e Brahms
-
Borsa: l'Europa in attesa dei dati Usa, spread a 69,7 punti
-
Celentano, primo remix ufficiale brano L'Emozione Non Ha Voce
-
Mal di testa cronico, nuovo farmaco dimezza gli attacchi
-
Influenza per quasi 600mila in 7 giorni, in tutto 3,3 milioni
-
L'inquinamento da plastica aggravato dal riscaldamento globale
-
Netflix vince su Paramount, trattative esclusive per Warner Bros
-
Ciak per 'Ritorno a Buenos Aires' nuovo film di Marco Bechis
-
Milano Cortina ora è anche una canzone con Il Pagante
-
Amiloidosi cardiaca, nasce il primo registro nazionale
-
Putin omaggia Gandhi,'sosteneva principi che la Russia difende'
-
Laghat, storia vera di cavalli, redenzione e coming of age
-
Scelti i 4 progetti finalisti Biennale College - Cinema 2025-26
-
Giorgia in tour a Bologna tra grandi successi e nuovo album
-
Milano Cortina, breve colloquio Coventry-Meloni
-
Pnrr: C.Conti, ok 32 target primo semestre, accelera spesa
La capacità di giudizio dell'IA è solo apparenza
Grandi rischi nel delegare scelte e giudizi agli Llm
La capacità di giudizio dei modelli linguistici come ChatGpt o Gemini è solo apparenza: a dimostrarlo è lo studio guidato da Walter Quattrociocchi, dell'Università Sapienza di Roma, e pubblicato sulla rivista dell'Accademia Nazionale degli Stati Uniti Pnas. Un lavoro che sottolinea i rischi concreti di affidare a questi modelli di Intelligenza Artificiale la delega di fare scelte o prendere decisioni. "Cosa avviene realmente quando chiediamo a un'IA di eseguire una scelta, ad esempio determinare se una notizia del web sia credibile o è piuttosto una fake news?", ha detto Quattrociocchi all'ANSA per raccontare il nuovo studio che ha eseguito una serie di test a gran parte dei più importanti modelli linguisti Llm in circolazione, come ChatGpt, Gemini, Llama, Deepseek e Mistral. Un lungo lavoro che ha messo a confronto umani e IA per capire le differenze di 'ragionamento' dei due. "Quello che abbiamo messo qui molto bene in evidenza è che nonostante i risultati, le IA riconosco infatti molto bene le fake news, il meccanismo che utilizzano non si basa però su riscontri reali ma su una mera capacità di simulare i giudizi. In altre parole, i giudizi formulati dagli Llm sono plausibili ma disancorati dalla realtà fattuale". Una sostituzione della verità con la plausibilità che in un futuro non molto lontano, sottolineano gli autori, potrebbe portare a problemi gravi quando gradualmente daremo sempre più autorevolezza alle capacità degli Llm di gestire azioni o prendere scelte per noi, in totale delega. "Ma questi sistemi sembrano valutare come noi solo perché simulano le tracce del pensiero, non il pensiero stesso", ha aggiunto il ricercatore italiano. "Questo studio - ha concluso - dimostra che ciò che stiamo automatizzando non è il giudizio, ma la sua apparenza".
W.Nelson--AT