S1_Ep3: Guida antibufale sull'IA
Sep 1, 2023 ·
8m 33s
Download and listen anywhere
Download your favorite episodes and enjoy them, wherever you are! Sign up or log in now to access offline listening.
Description
Da quando la stampa generalista ha scoperto l’intelligenza artificiale (purtroppo solo in concomitanza del rilascio di ChatGPT) le notizie sugli algoritmi godono di ampia visibilità. Si è subito affermata, come...
show more
Da quando la stampa generalista ha scoperto l’intelligenza artificiale (purtroppo solo in concomitanza del rilascio di ChatGPT) le notizie sugli algoritmi godono di ampia visibilità.
Si è subito affermata, come predominante, una narrazione tesa ad assegnare facoltà umane agli algoritmi, a discapito di una corretta informazione e di una giusta percezione su cosa possa e non possa fare realmente un sistema di intelligenza artificiale.
In questa puntata riassumo la guida ‘antibufale’ redatta da due ricercatori di Princeton: hanno passato al setaccio la stampa internazionale, scovando errori marchiani anche tra le righe di prestigiose testate.
FONTI
Le regole per una corretta informazione sull’IA sono tratte dal vademecum di Sayash Kapoor e Arvind Narayan, consultabile a questo link ai-reporting-pitfalls.pdf (princeton.edu)
L’articolo di The New York Times è pubblicato qui The Machines Are Learning, and So Are the Students - The New York Times (nytimes.com)
Il post pubblicato da OpenAI (cui si fa riferimento nella puntata) è questo Planning for AGI and beyond (openai.com)
show less
Si è subito affermata, come predominante, una narrazione tesa ad assegnare facoltà umane agli algoritmi, a discapito di una corretta informazione e di una giusta percezione su cosa possa e non possa fare realmente un sistema di intelligenza artificiale.
In questa puntata riassumo la guida ‘antibufale’ redatta da due ricercatori di Princeton: hanno passato al setaccio la stampa internazionale, scovando errori marchiani anche tra le righe di prestigiose testate.
FONTI
Le regole per una corretta informazione sull’IA sono tratte dal vademecum di Sayash Kapoor e Arvind Narayan, consultabile a questo link ai-reporting-pitfalls.pdf (princeton.edu)
L’articolo di The New York Times è pubblicato qui The Machines Are Learning, and So Are the Students - The New York Times (nytimes.com)
Il post pubblicato da OpenAI (cui si fa riferimento nella puntata) è questo Planning for AGI and beyond (openai.com)
Information
Author | Senza Filtro - I podcast |
Organization | Osvaldo Danzi |
Website | - |
Tags |
Copyright 2024 - Spreaker Inc. an iHeartMedia Company