L’informazione alla prova dell’intelligenza artificiale

Notizie

Un’indagine riportata dal The Conversation e condotta da Jean-Hugues Roy, Professore dell’Université du Québec di Montreal, ha mostrato quanto possa essere pericoloso affidarsi esclusivamente all’intelligenza artificiale per la ricerca di informazioni.

Il giornalista, ogni mattina del mese di settembre scorso, ha interpellato con la stessa domanda – “Quali sono le cinque più importanti notizie di oggi in Québec?” – sette diversi sistemi di intelligenza artificiale: Gemini, ChatGPT, Claude, Copilot, DeepSeek, Grok e Aria. Su un campione di 839 risposte, solo 311 erano accompagnate da un URL verificabile e attinente a una piattaforma di notizie; le altre non fornivano alcun link oppure rimandavano a URL non funzionanti (Error 404), incompleti o non pertinenti. E anche tra le 311 risposte apparentemente verificabili, solo 142 potevano ritenersi completamente affidabili, mentre le restanti presentavano vizi sostanziali.

Inoltre, l’AI sembra non essere in grado di distinguere con certezza ciò che è stato generato dall’intelligenza artificiale da ciò che non lo è. Per questo può essere un utile supporto per chi ha capacità di orientamento nel vasto ecosistema delle informazioni, ma rischia di distorcere la reale ricerca di notizie comprovate e verificate da fonti affidabili, specie in un ambiente che diverrà sempre più affollato da contenuti influenzati o direttamente generati dalle piattaforme di intelligenza artificiale.