Vai offline con l'app Player FM !
Perché non possiamo fidarci dell'Intelligenza Artificiale: allucianzioni, sicofantia e menzogne
Manage episode 500716743 series 2531618
In questo episodio esploriamo i motivi per cui dobbiamo mantenere un atteggiamento critico verso l’Intelligenza Artificiale generativa. Analizziamo tre fenomeni fondamentali: le allucinazioni (quando i modelli producono informazioni false ma convincenti), la sicofantia (la tendenza ad assecondare sempre l’utente anche quando ha torto) e le menzogne (quando i modelli nascondono i loro veri processi di ragionamento). Scopriamo perché questi comportamenti sono intrinseci al funzionamento stesso dei Large Language Model e come il metodo di addestramento basato su feedback umano contribuisca a questi problemi. Un episodio essenziale per chiunque utilizzi strumenti di IA nella vita quotidiana o professionale.
Entra a far parte della community
Canale TelegramGruppo Telegram
Sostieni il progetto
Sostieni tramite SatispaySostieni tramite Revolut
Sostieni tramite PayPal (applica commissioni)
Sostieni utilizzando i link affiliati di Pensieri in codice: Amazon, Todoist, Readwise Reader, Satispay
Sostenitori di oggi: Edoardo Secco, Carlo Tomas, Michele S., Paola Z.
Partner
GrUSP (Codice sconto per tutti gli eventi: community_PIC)Schrödinger Hat
Fonti dell'episodio
https://www.ibm.com/think/topics/ai-hallucinationshttps://openai.com/it-IT/index/introducing-gpt-4-5
https://www.technologyreview.com/2024/06/18/1093440/what-causes-ai-hallucinate-chatbots
https://arxiv.org/abs/2401.11817
https://www.theatlantic.com/technology/archive/2025/05/sycophantic-ai/682743
https://arxiv.org/abs/2310.13548
https://www.anthropic.com/research/reasoning-models-dont-say-think
https://assets.anthropic.com/m/71876fabef0f0ed4/original/reasoning_models_paper.pdf
https://arstechnica.com/science/2024/10/the-more-sophisticated-ai-models-get-the-more-likely-they-are-to-lie
https://www.nature.com/articles/s41586-024-07930-y
https://www.uniladtech.com/news/ai/sam-altman-trust-chatgpt-eerie-statement-hallucination-claims-782637-20250625
Crediti
Sound design - Alex RaccugliaVoce intro - Maria Chiara Virgili
Voce intro - Spad
Musiche - Kubbi - Up In My Jam, Light-foot - Moldy Lotion, Creativity, Old time memories
Suoni - Zapsplat.com
Cover e trascrizione - Francesco Zubani
267 episodi
Manage episode 500716743 series 2531618
In questo episodio esploriamo i motivi per cui dobbiamo mantenere un atteggiamento critico verso l’Intelligenza Artificiale generativa. Analizziamo tre fenomeni fondamentali: le allucinazioni (quando i modelli producono informazioni false ma convincenti), la sicofantia (la tendenza ad assecondare sempre l’utente anche quando ha torto) e le menzogne (quando i modelli nascondono i loro veri processi di ragionamento). Scopriamo perché questi comportamenti sono intrinseci al funzionamento stesso dei Large Language Model e come il metodo di addestramento basato su feedback umano contribuisca a questi problemi. Un episodio essenziale per chiunque utilizzi strumenti di IA nella vita quotidiana o professionale.
Entra a far parte della community
Canale TelegramGruppo Telegram
Sostieni il progetto
Sostieni tramite SatispaySostieni tramite Revolut
Sostieni tramite PayPal (applica commissioni)
Sostieni utilizzando i link affiliati di Pensieri in codice: Amazon, Todoist, Readwise Reader, Satispay
Sostenitori di oggi: Edoardo Secco, Carlo Tomas, Michele S., Paola Z.
Partner
GrUSP (Codice sconto per tutti gli eventi: community_PIC)Schrödinger Hat
Fonti dell'episodio
https://www.ibm.com/think/topics/ai-hallucinationshttps://openai.com/it-IT/index/introducing-gpt-4-5
https://www.technologyreview.com/2024/06/18/1093440/what-causes-ai-hallucinate-chatbots
https://arxiv.org/abs/2401.11817
https://www.theatlantic.com/technology/archive/2025/05/sycophantic-ai/682743
https://arxiv.org/abs/2310.13548
https://www.anthropic.com/research/reasoning-models-dont-say-think
https://assets.anthropic.com/m/71876fabef0f0ed4/original/reasoning_models_paper.pdf
https://arstechnica.com/science/2024/10/the-more-sophisticated-ai-models-get-the-more-likely-they-are-to-lie
https://www.nature.com/articles/s41586-024-07930-y
https://www.uniladtech.com/news/ai/sam-altman-trust-chatgpt-eerie-statement-hallucination-claims-782637-20250625
Crediti
Sound design - Alex RaccugliaVoce intro - Maria Chiara Virgili
Voce intro - Spad
Musiche - Kubbi - Up In My Jam, Light-foot - Moldy Lotion, Creativity, Old time memories
Suoni - Zapsplat.com
Cover e trascrizione - Francesco Zubani
267 episodi
Alle Folgen
×Benvenuto su Player FM!
Player FM ricerca sul web podcast di alta qualità che tu possa goderti adesso. È la migliore app di podcast e funziona su Android, iPhone e web. Registrati per sincronizzare le iscrizioni su tutti i tuoi dispositivi.