-
Sci: austriaco Kriechmayr vince superG Beaver, Paris quarto
-
Sci:maltempo a Beaver Creek, tante interruzioni e gara a rischio
-
Mondiali: Inghilterra con la Croazia, ecco i 12 gironi
-
Il cda di Mps rinnova la piena fiducia a Lovaglio
-
Mondiali: se qualificata l'Italia nel girone B con Canada
-
Esa, rivisto a 22,3 miliardi il contributo degli Stati membri
-
Mondiali: Argentina pesca l'Austria, il Brasile con Marocco
-
Mediobanca, accordo con Nagel e Vinci, 5 milioni a testa
-
Europei nuoto 25 m, Ceccon d'oro nei 100 dorso
-
Mondiali: Trump 'da bambino vidi Pelè giocare, uno dei migliori'
-
Mondiali: Trump riceve il premio Fifa per la pace da Infantino
-
Premiato con 1 milione il progetto europeo su nuova astronomia
-
Mondiali:Infantino 'evento unico, come 104 Superbowl in un mese'
-
Borsa: Milano chiude fiacca, giù Mediobanca e Mps
-
Il prezzo del gas chiude in rialzo a 27,27 euro
-
Fotovoltaico al posto dell'amianto su 200 tetti industriali
-
Mondiali: Trump 'il calcio sport grandioso, arriva negli Usa'
-
F1: fratelli Leclerc in pista, Charles 'lo sognavamo da bambini'
-
Alessandro Siani debutta con il nuovo show Fake News
-
Mondiali: Trump arrivato al Kennedy Center per il sorteggio
-
Vanoli 'inizia un mese importante, sta a noi trascinare tifosi'
-
Molaro, velo da sposa con 1000 proiettili contro la guerra
-
Monitorare gli alimenti con sensori da smaltire nell'umido
-
Milano-Cortina, Ralph Lauren disegna le divise del team Usa
-
Borsa: l'Europa stabile dopo l'inflazione Usa
-
Weaver, 'in Avatar molte emergenze del nostro mondo'
-
I sindacati, 'massiccia adesione a sciopero nazionale Ikea'
-
Tarantino spara a zero su Paul Dano e Owen Wilson
-
Borsa: l'Europa positiva dopo Wall Street, Milano +0,2%
-
Un'IA al servizio della scienza, può aggregare dati da più fonti
-
Una Battaglia Dietro l'Altra e Marty Supreme nella top 10 di Afi
-
La Grazia di Sorrentino esce negli Usa, applausi dalla critica
-
Its Academy consacra 16 giovani artigiani del costume
-
Tornatore, 'il biopic su Cucinelli? Impossibile dirgli di no'
-
Afraa Al-Noaimi dal Qatar alla Prima della Scala
-
'Usa, l'Europa prenda il controllo della Nato entro 2027'
-
Fedriga, iniziati colloqui tra Fincantieri e Comune Monfalcone
-
Antartide, al via la missione scientifica della nave Laura Bassi
-
Maculopatia senile, positivi i primi dati sulla terapia genica
-
Niente rc auto per auto storiche, basta polizza 'statica'
-
Grigory Sokolov torna al Lingotto con Beethoven e Brahms
-
Borsa: l'Europa in attesa dei dati Usa, spread a 69,7 punti
-
Celentano, primo remix ufficiale brano L'Emozione Non Ha Voce
-
Mal di testa cronico, nuovo farmaco dimezza gli attacchi
-
Influenza per quasi 600mila in 7 giorni, in tutto 3,3 milioni
-
L'inquinamento da plastica aggravato dal riscaldamento globale
-
Netflix vince su Paramount, trattative esclusive per Warner Bros
-
Ciak per 'Ritorno a Buenos Aires' nuovo film di Marco Bechis
-
Milano Cortina ora è anche una canzone con Il Pagante
-
Amiloidosi cardiaca, nasce il primo registro nazionale
Scienziati sollecitano i Paesi Onu, 'limiti a usi pericolosi IA'
'Agire entro 2026 o difficile controllo umano significativo'
Oltre 200 personalità di spicco tra cui premi Nobel e ricercatori che lavorano presso giganti dell'Intelligenza artificiale come Anthropic, Google, Microsoft e OpenAI, hanno firmato il documento 'Global Call for AI Red Lines' rivolto ai Paesi presenti all'Assemblea Generale delle Nazioni Unite in cui invitano a stabilire rapidamente, entro il 2026, 'linee rosse' da non oltrepassare per l'IA e gli usi pericolosi. "L'Intelligenza artificiale ha un immenso potenziale per migliorare il benessere umano, ma la sua attuale traiettoria presenta pericoli senza precedenti - si legge nel documento che tra i firmati vede Geoffrey Hinton e Yoshua Bengio, considerati tra i padri dell'IA -. I governi devono agire con decisione prima che si chiuda la finestra per un intervento significativo". Secondo gli autori della lettera, le 'linee rosse' per l'IA sarebbero divieti concordati a livello internazionale su usi considerati troppo rischiosi tra cui l'affidamento all'intelligenza artificiale del comando di arsenali nucleari o di qualsiasi tipo di sistema d'arma autonomo letale. Oppure l'uso dell'IA per la sorveglianza di massa, gli attacchi informatici e i deepfake. I firmatari del messaggio hanno esortato i governi a stabilire limiti all'IA entro la fine del prossimo anno dato il ritmo a cui avanza la tecnologia. "L'Intelligenza artificiale potrebbe presto superare di gran lunga le capacità umane e aumentare rischi come pandemie ingegnerizzate, disinformazione diffusa, manipolazione su larga scala di individui, compresi i bambini, problemi di sicurezza nazionale e internazionale, disoccupazione di massa e sistematiche violazioni dei diritti umani", si legge nella lettera. "Se non si interviene, molti esperti compresi quelli in prima linea nello sviluppo, avvertono che diventerà sempre più difficile esercitare un controllo umano significativo nei prossimi anni".
E.Flores--AT