Artwork

Contenuto fornito da Fast Foundations. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da Fast Foundations o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.
Player FM - App Podcast
Vai offline con l'app Player FM !

Gli chatbot AI possono creare false memorie?

4:46
 
Condividi
 

Manage episode 439152694 series 3554670
Contenuto fornito da Fast Foundations. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da Fast Foundations o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.

I chatbot AI possono indurre falsi ricordi. Questa è la rivelazione sorprendente su cui Jim Carter si concentra in questo episodio di "The Prompt."

Jim condivide uno studio rivoluzionario del MIT e dell'Università della California, Irvine, il quale ha scoperto che i chatbot alimentati da AI possono creare falsi ricordi negli utenti. Immagina di assistere a un crimine e poi essere indotto da un chatbot a ricordare cose che non sono mai accadute. Spaventoso, vero?

Lo studio ha coinvolto 200 partecipanti che hanno guardato un video muto della CCTV di una rapina a mano armata. Sono stati divisi in quattro gruppi: un gruppo di controllo, un sondaggio con domande fuorvianti, un chatbot pre-scripted e un chatbot generativo che utilizza un modello linguistico di grandi dimensioni.

I risultati? Il chatbot generativo ha indotto quasi il triplo dei falsi ricordi rispetto al gruppo di controllo. Ancora più incredibile è che il 36% delle risposte degli utenti al chatbot generativo sono state fuorvianti e questi falsi ricordi sono rimasti per almeno una settimana!

Jim esplora perché alcune persone siano più suscettibili a questi falsi ricordi indotti dall'AI. Si scopre che le persone che hanno familiarità con l'AI ma non con i chatbot sono più propense ad essere indotte in errore. Inoltre, coloro che hanno un vivo interesse per le indagini sui crimini sono più vulnerabili, probabilmente a causa del loro maggiore coinvolgimento e capacità di elaborare la disinformazione.

Allora, perché i chatbot "allucinano" o generano informazioni false? Jim spiega i limiti e i bias nei dati di addestramento, l'overfitting e la natura dei modelli linguistici di grandi dimensioni, che danno priorità a risposte plausibili rispetto alla precisione dei fatti. Queste allucinazioni possono diffondere disinformazione, erodere la fiducia nell'AI e persino causare problemi legali.

Ma non preoccuparsi, Jim non ci lascia in sospeso. Condivide passi concreti per ridurre questi rischi, come migliorare la qualità dei dati di addestramento, combinare modelli linguistici con sistemi di verifica dei fatti e sviluppare sistemi di rilevamento delle allucinazioni.

Vuoi rimanere aggiornato sugli ultimi sviluppi dell'AI? Unisciti al gruppo Slack Fast Foundations di Jim per discutere di questi temi critici e lavorare a favore di uno sviluppo responsabile dell'AI. Vai su fastfoundations.com/slack per far parte della conversazione.

Ricorda, abbiamo il potere di plasmare il futuro dell'AI, quindi continuiamo il dialogo, un prompt alla volta.

---

Questo episodio e l'intero podcast sono prodotti con la potenza dell'intelligenza artificiale (AI) da Specialist, Jim Carter. Jim non parla italiano! Questo è il suo podcast e il suo esperimento, e ti è grato per il tuo supporto.

Per favore, considera di lasciare una recensione 🌟🌟🌟🌟🌟 (5) stelle e condividilo con un amico.

Condivide ciò che costruisce pubblicamente e puoi imparare a farlo per te stesso e per la tua azienda unendoti alla sua comunità privata su Slack all'indirizzo https://fastfoundations.com/slack.

Connettiti e scopri di più su Jim all'indirizzo https://jimcarter.me

  continue reading

28 episodi

Artwork
iconCondividi
 
Manage episode 439152694 series 3554670
Contenuto fornito da Fast Foundations. Tutti i contenuti dei podcast, inclusi episodi, grafica e descrizioni dei podcast, vengono caricati e forniti direttamente da Fast Foundations o dal partner della piattaforma podcast. Se ritieni che qualcuno stia utilizzando la tua opera protetta da copyright senza la tua autorizzazione, puoi seguire la procedura descritta qui https://it.player.fm/legal.

I chatbot AI possono indurre falsi ricordi. Questa è la rivelazione sorprendente su cui Jim Carter si concentra in questo episodio di "The Prompt."

Jim condivide uno studio rivoluzionario del MIT e dell'Università della California, Irvine, il quale ha scoperto che i chatbot alimentati da AI possono creare falsi ricordi negli utenti. Immagina di assistere a un crimine e poi essere indotto da un chatbot a ricordare cose che non sono mai accadute. Spaventoso, vero?

Lo studio ha coinvolto 200 partecipanti che hanno guardato un video muto della CCTV di una rapina a mano armata. Sono stati divisi in quattro gruppi: un gruppo di controllo, un sondaggio con domande fuorvianti, un chatbot pre-scripted e un chatbot generativo che utilizza un modello linguistico di grandi dimensioni.

I risultati? Il chatbot generativo ha indotto quasi il triplo dei falsi ricordi rispetto al gruppo di controllo. Ancora più incredibile è che il 36% delle risposte degli utenti al chatbot generativo sono state fuorvianti e questi falsi ricordi sono rimasti per almeno una settimana!

Jim esplora perché alcune persone siano più suscettibili a questi falsi ricordi indotti dall'AI. Si scopre che le persone che hanno familiarità con l'AI ma non con i chatbot sono più propense ad essere indotte in errore. Inoltre, coloro che hanno un vivo interesse per le indagini sui crimini sono più vulnerabili, probabilmente a causa del loro maggiore coinvolgimento e capacità di elaborare la disinformazione.

Allora, perché i chatbot "allucinano" o generano informazioni false? Jim spiega i limiti e i bias nei dati di addestramento, l'overfitting e la natura dei modelli linguistici di grandi dimensioni, che danno priorità a risposte plausibili rispetto alla precisione dei fatti. Queste allucinazioni possono diffondere disinformazione, erodere la fiducia nell'AI e persino causare problemi legali.

Ma non preoccuparsi, Jim non ci lascia in sospeso. Condivide passi concreti per ridurre questi rischi, come migliorare la qualità dei dati di addestramento, combinare modelli linguistici con sistemi di verifica dei fatti e sviluppare sistemi di rilevamento delle allucinazioni.

Vuoi rimanere aggiornato sugli ultimi sviluppi dell'AI? Unisciti al gruppo Slack Fast Foundations di Jim per discutere di questi temi critici e lavorare a favore di uno sviluppo responsabile dell'AI. Vai su fastfoundations.com/slack per far parte della conversazione.

Ricorda, abbiamo il potere di plasmare il futuro dell'AI, quindi continuiamo il dialogo, un prompt alla volta.

---

Questo episodio e l'intero podcast sono prodotti con la potenza dell'intelligenza artificiale (AI) da Specialist, Jim Carter. Jim non parla italiano! Questo è il suo podcast e il suo esperimento, e ti è grato per il tuo supporto.

Per favore, considera di lasciare una recensione 🌟🌟🌟🌟🌟 (5) stelle e condividilo con un amico.

Condivide ciò che costruisce pubblicamente e puoi imparare a farlo per te stesso e per la tua azienda unendoti alla sua comunità privata su Slack all'indirizzo https://fastfoundations.com/slack.

Connettiti e scopri di più su Jim all'indirizzo https://jimcarter.me

  continue reading

28 episodi

Tutti gli episodi

×
 
Loading …

Benvenuto su Player FM!

Player FM ricerca sul web podcast di alta qualità che tu possa goderti adesso. È la migliore app di podcast e funziona su Android, iPhone e web. Registrati per sincronizzare le iscrizioni su tutti i tuoi dispositivi.

 

Guida rapida