Rischio collasso per le Intelligenze Artificiali generative (IA), come ChatGpt: a soffocarle potrebbero essere gli stessi contenuti che generano, capaci di inquinare in modo grave la base di dati usata per addestrarle. A sollevare il problema di un pericoloso effetto a spirale, dove le IA vanno a imparare nuove informazioni usando i contenuti prodotte da loro stesse in un circolo vizioso, è lo studio guidato da Ilia Shumailov, dell’Università di Oxford e pubblicato sulla rivista Nature.
Leggi su: ANSA