Speciale Festival di Sanremo 2025
Attacco hacker o caos digitale? Sanremo alle prese con i deepfake musicali
Gli audio delle canzoni del Festival spuntano sui social. Nessun attacco hacker, ma contenuti creati dall’intelligenza artificiale. Ecco come DcP combatte questa minaccia.
Il Festival di Sanremo 2025 si trova di fronte a una sfida digitale senza precedenti: i deepfake musicali creati dall’intelligenza artificiale. Gli audio che hanno iniziato a circolare sui social non sono brani trafugati dagli archivi Rai, ma ricostruzioni artificiali realizzate con l’ausilio dell’IA, partendo dai testi ufficiali delle canzoni. Un fenomeno che ha tratto in inganno migliaia di utenti e messo in allerta gli addetti ai lavori.
DcP in azione: oltre 100 video rimossi
Per fronteggiare questa minaccia, DcP (Digital Content Protection) ha potenziato le attività di monitoraggio sulle principali piattaforme di streaming audio e video. Il sistema prevede l’individuazione automatizzata dei brani sospetti, che vengono poi verificati manualmente. Se confermati come contenuti non ufficiali, ne viene richiesta la rimozione immediata.
I risultati di questa operazione sono già significativi. “Solo negli ultimi giorni il nostro intervento ha portato alla rimozione di oltre 100 video, 9 solo oggi”, ha dichiarato Luca Vespignani, Managing Director di DcP. “Sono stati chiusi anche 6 o 7 canali YouTube responsabili della distribuzione illecita di tali contenuti. Quest’anno stiamo intervenendo in modo più strutturato, perché l’IA è praticamente esplosa”.
Una minaccia globale per la musica
Sanremo è solo la punta dell’iceberg. Ogni giorno circa 10.000 brani generati dall’intelligenza artificiale vengono caricati sulle piattaforme di streaming, rappresentando il 10% della musica pubblicata quotidianamente. La protezione dei contenuti diventa quindi cruciale, soprattutto in contesti di grande visibilità come il Festival. “Sanremo rappresenta un patrimonio musicale che merita di essere tutelato”, ha sottolineato Vespignani. “Senza un adeguato controllo, l’IA rischia di diventare un’arma per la pirateria”.
Deepfake musicali: il rischio per gli artisti
Il meccanismo alla base di questi contenuti è relativamente semplice: una volta diffusi i testi, è possibile crearne una versione musicale fake con la voce dell’artista simulata dall’intelligenza artificiale e una melodia compatibile con il suo repertorio. “Il risultato è un vero e proprio deepfake – spiega Vespignani – che può sembrare, ad esempio, una nuova canzone di Giorgia, mentre di originale ha solo il testo”.
La tecnologia avanza, e con essa i rischi per l’autenticità artistica. Sanremo ha vinto questa battaglia, ma la guerra contro le falsificazioni digitali è solo all’inizio.