- A Milano K-way e gli altri marchi che danno nome alle cose
- Meloni, se riesco andrò in Usa per insediamento Trump
- Gli incendi della California visti dallo spazio
- Revolut, in forte aumento in Italia i clienti del trading
- Meloni,non sono favorevole a rimpasti,Piantedosi ottimo ministro
- Bankitalia, accelera la crescita delle rimesse degli immigrati
- Meloni, Trump non abbandonerà l'Ucraina, sarebbe un errore
- Rutte, 'prolungare la battaglia di Kiev, deve prevalere'
- Meloni, stima e rispetto per Belloni,suo percorso non finirà qui
- Al via mostra Dolce & Gabbana al Grand Palais di Parigi
- Locatelli, togliere parola 'minorato' da Costituzione
- Sciopero nei trasporti, domani primo venerdì nero dell'anno
- Meloni, alle prossime elezione vorrei arrivare con il premierato
- Giorgio Armani, a Los Angeles una devastazione sconvolgente
- Meloni su SpaceX, 'non uso il pubblico per fare favori'
- Borsa: l'Europa gira in rialzo, si guarda a banche centrali
- Meloni su SpaceX, non uso il pubblico per fare favori
- Tennis: Bolelli-Vavassori in semifinale ad Adelaide
- Inammissibile ricorso dei 104 cittadini contro ponte Stretto
- L'ex presidente uruguaiano Mujica colpito di nuovo da un tumore
- Tumore seno, al Gemelli progetto multidisciplinare 'Breast Club'
- Meloni, sul caso Sala triangolazione con Usa e Iran
- ++ Istat, nel 2023 produttività in caduta,-2,5% per il lavoro ++
- Il Papa, 'sempre più concreta la minaccia di guerra mondiale'
- Al via la conferenza stampa di Meloni, in platea anche Nordio
- Mosca, 'se Trump vorrà riprendere contatti Putin ci sarà'
- Record in Antartide, raggiunto il ghiaccio più antico
- Australian Open: Sinner, 'sensazioni diverse rispetto al 2024'
- A rischio 200mila posti a Wall Street con l'uso dell'Ia
- Cremlino, 'seguiamo da vicino parole Trump su Groenlandia'
- Il pianista Lucas Debargue in concerto al Comunale di Modena
- Il Riff omaggia Bertolucci, Golino ospite d'eccezione
- Inps, Dsu precompilata per Isee direttamente da app
- Giappone: 6 funghi per 2,150 euro alla prima asta dell'anno
- Directa Sim, nel 2024 clienti +33,8%, ordini +17,5%
- Calcio: rifinitura pre -derby, il Torino apre il Filadelfia
- L'Amerigo Vespucci indicata tra le chiese giubilari per il 2025
- Ocse:inflazione novembre stabile al 4,5%,Italia sale a 1,2%
- I venti calano a Los Angeles ma resta l'allerta rossa
- Bce, spread Italia in calo grazie a fiducia verso manovra
- Bce, calo inflazione proseguirà, rischi per la crescita
- Amplifon cresce in Italia, acquisite MagicSon e Sonar
- Bigliettini per controllare voto Asti, bagarre giudiziaria
- Imprese a rischio 'ndrine, controllo giudiziario per 20
- Nba: i Cavaliers si aggiudicano il super-match con Oklahoma
- Gme, prezzo gas in Italia in ribasso a 47,79 euro al MWh
- Borsa: Milano in calo con le banche, bene Prysmian e Pirelli
- A Los Angeles in fumo case di Billy Crystal e Paris Hilton
- Siria: Ong, 'scontri tra forze filo-turche e curde, 37 morti'
- Console d'Italia a Los Angeles, 'nessun italiano ferito'
Il paradosso dei chatbot, più crescono più sbagliano
Dà risposte errate piuttosto che ammettere l'ignoranza
Più crescono e fanno esperienza, maggiore è il rischio che rispondano in modo errato piuttosto che ammettere di non saper rispondere: è uno dei grandi problemi dei grandi modelli linguistici che alimentano i chatbot, come ChatGpt e Llama. A dirlo è lo studio pubblicato sulla rivista Nature da José Hernández-Orallo, dell'Istituto di ricerca per l'Intelligenza Artificiale di Valencia in Spagna, che sottolinea inoltre come questi errori sfuggano facilmente agli umani. Una delle importanti caratteristiche dei grandi modelli linguistici, o Llm, è la capacità di evolvere nel tempo integrando al loro interno nuove informazioni derivanti dalle interazioni con gli utenti o con gli sviluppatori, così da diventare teoricamente sempre più affidabili. Ma analizzando questo percorso in tre degli Llm più polari, in particolare ChatGpt di OpenAi, Llama di Meta e il modello aperto Bloom, i ricercatori spagnoli hanno osservato un cambiamento del loro comportamento. Secondo gli autori della ricerca i tre modelli inizialmente erano più propensi di oggi nell'ammettere di non poter rispondere a domande su questioni su cui non si sentivano certi di dare risposte accurate. Una prudenza che è andata gradualmente svanendo: "i modelli 'ingranditi' e modellati tendono a dare una risposta apparentemente sensata, ma sbagliata, molto più spesso rispetto al passato", affermano i ricercatori nell'articolo. I chatbot "stanno diventando più bravi a fingere di essere informati", ha commentato Hernández-Orallo. Un problema che si aggiunge inoltre all'incapacità da parte degli umani di riuscire a notare questi errori, spesso perché ci si fida automaticamente della macchina. Un problema che potrebbe essere parzialmente risolto impostando negli Llm una sorta di soglia di affidabilità più alta, al di sotto della quale l'IA non rilascia una risposta. Scelta possibile per i chatbot ideati per lavorare in settori specifici, ad esempio in campo medico, ma più difficile immaginare, sottolineano i ricercatori, possa essere introdotta da quelle aziende che sviluppano chatbot 'generalisti' che puntano proprio sulla capacità di risposta in settori molto ampi.
O.Norris--AMWN