Lifestyle
Troppi dati, IA rischia il collasso
Se il filosofo Ludwig Feuerbach sosteneva che “siamo ciò che mangiamo”, potremmo dire che l’IA è ciò che impara. È quindi cruciale che l’IA venga addestrata su contenuti umani di qualità, per evitare che il suo sviluppo diventi controproducente e la renda meno utile ed efficace nel tempo.
In questa fase del suo sviluppo l’intelligenza artificiale (IA) è caratterizzata da due paradossi fondamentali. Il primo riguarda l’enorme richiesta di risorse che erode riserve energetiche e idriche, oltre a contribuire alle emissioni di CO2. Anche se proprio l’IA potrebbe rappresentare una chiave per affrontare la stessa crisi climatica. Il secondo paradosso, forse più grave, è legato alla possibilità che l’IA possa presto collassare sotto il peso dei dati su cui è stata addestrata, soprattutto se continua a utilizzare modelli precedenti.
Il collasso del modello
Uno studio recente pubblicato su Nature ha evidenziato un fenomeno chiamato “Collasso del modello“. Questo effetto si verifica quando le AI, addestrate su enormi moli di dati spesso derivati da modelli precedenti, iniziano a generare contenuti sempre più di bassa qualità. Questo perché i nuovi modelli AI tendono a essere alimentati da dati preconfezionati, spesso creati da altri modelli AI, avviando un “processo degenerativo“.
Quali sono le conseguenze della possibile degenerazione
L’uso indiscriminato dei contenuti generati dall’IA porta a “difetti irreversibili” nei modelli stessi. Gli errori appresi dai modelli precedenti vengono assimilati rapidamente dai successivi, causando risposte sempre più inaccurate. Quando le AI erano addestrate su contenuti generati dall’uomo, la qualità dei dati garantiva una certa efficacia. Ora, però, i contenuti di scarsa qualità generati dalle AI stesse peggiorano progressivamente la qualità delle risposte.
Quali sono le possibili soluzioni
Per evitare che questo processo degenerativo comprometta ulteriormente l’efficacia delle AI, una soluzione potrebbe essere contrassegnare tutti i contenuti generati dall’IA. Questo permetterebbe di escludere tali contenuti dai dati di training futuri. Tuttavia, questo richiederebbe uno sforzo significativo e l’adozione di uno standard comune tra tutte le aziende di intelligenza artificiale.