ru24.pro
World News in Italian
Июль
2024

Anche l’AI di Meta ha “allucinazioni” sull’attentato a Trump

0

Nonostante siano utilizzati in lungo e in largo, abbiamo più volte sottolineato come i chatbot conversazioni basati sull’intelligenza artificiale non siano sempre affidabili. Le loro risposte alle nostre domande non devono essere considerate attendibili, trattandosi di sistemi che attingono informazioni da fonti non sempre certificate. Inoltre, anche il processo che porta alle repliche è piuttosto fumoso. Non sorprende, dunque, che Meta AI – l’assistente sviluppato attorno all’intelligenza artificiale dell’azienda di Mark Zuckerberg – abbia delle “allucinazioni” quando gli si chiede di parlare del recente attentato subìto da Donald Trump a Butler, in Pennsylvania.

LEGGI ANCHE > Il caso Google e le ricerche su Trump negli Stati Uniti

In molti, seguendo la scia delle polemiche dal caso dei “suggerimenti” nella barra di ricerca di Google, si sono rivolti ai principali chatbot AI a loro disposizione per comprendere come gli strumenti di intelligenza artificiale siano in grado di raccontare quanto accaduto il 13 luglio scorso in Pennsylvania e analizzare (questo è il vero motivo) il comportamento dei prodotti sviluppati dalle aziende Big Tech – e non solo – in vista delle elezioni Presidenziali del prossimo 5 novembre. E Meta Ai sembra avere enormi problemi in questo senso.

Wow. Meta’s AI chat assistant won’t relate information about the attempted assassination of Donald Trump on July 13th because it says it’s “a fictional event…”
WTF Zuck? Has Elon seen this? pic.twitter.com/3m0nyniUX1

— Kiki (@kikisknees) July 31, 2024

Secondo l’assistente AI di Meta, dunque, l’attentato nei confronti di Donald Trump non sarebbe mai avvenuto. E non è un problema temporale, visto che il chatbot di Menlo Park ha accesso alle fonti in tempo reale (e non come il primo ChatGPT le cui informazioni – set di addestramento – erano limitate al 30 settembre del 2021).

Meta AI attentato Trump, quali sono i problemi

Ma perché Meta AI non fornisce informazioni agli utenti sull’attentato contro Donald Trump? La risposta è arrivata attraverso un post pubblicato sul blog dell’azienda firmato da Joel Kaplan, responsabile globale delle politiche di Meta.

«Questi tipi di risposte sono chiamate allucinazioni, un problema che riguarda l’intero settore e che riscontriamo in tutti i sistemi di intelligenza artificiale generativa, e rappresenta una sfida continua per il modo in cui l’intelligenza artificiale gestisce gli eventi in tempo reale in futuro. Come tutti i sistemi di intelligenza artificiale generativa, i modelli possono restituire output imprecisi o inappropriati e continueremo ad affrontare questi problemi e a migliorare queste funzionalità man mano che si evolvono e più persone condividono il loro feedback». 

Si tratta, dunque, di risposte che la stessa Meta definisce “sfortunate” e che rappresentano il simbolo di un sistema ancora molto lontano dal raggiungere non tanto la perfezione, ma una parvenza di affidabilità. Resta in testa sempre una domanda: prima di immettere questi prodotti (tutti, non solo quelli di Menlo Park) sul mercato, non si potevano attendere risultati migliori?

L'articolo Anche l’AI di Meta ha “allucinazioni” sull’attentato a Trump proviene da Giornalettismo.