La Cina rafforza la governance end-to-end dei contenuti generati dall'IA

(Quotidiano del Popolo Online)martedì 01 aprile 2025
La Cina rafforza la governance end-to-end dei contenuti generati dall'IA
Una mostra di opere d'arte generate dall'intelligenza artificiale si tiene a Jinan, nella provincia dello Shandong, nella Cina orientale. (Quotidiano del Popolo Online/Xu Zhou)

Pianificando un prossimo viaggio, Li ha istintivamente aperto una nota applicazione di IA per chiedere consigli. Sebbene l'app avesse prontamente generato le sue solite raccomandazioni, una nuova dicitura ha attirato la sua attenzione: "Questa risposta generata dall'IA è solo a scopo informativo. Si prega di verificare attentamente le informazioni."

Il rapido progresso dell'IA generativa e delle tecnologie di sintesi profonda negli ultimi anni ha alimentato l'espansione economica, diversificato i contenuti digitali e migliorato la vita quotidiana. Tuttavia, queste innovazioni hanno allo stesso tempo facilitato la proliferazione di disinformazione e perturbato gli ecosistemi digitali.

In risposta, la Cina ha recentemente emanato le "Disposizioni per l'identificazione dei contenuti sintetici generati dall'IA", che entreranno in vigore il 1° settembre 2025.

Un portavoce della Cyberspace Administration of China ha chiarito che le misure mirano a standardizzare l'etichettatura dei contenuti sintetici generati dall'IA. Meccanismi obbligatori di disclosure consentono agli utenti di distinguere contenuti autentici da quelli sintetici, chiarendo al contempo le responsabilità dei fornitori durante i processi di creazione e diffusione dei contenuti. Il quadro normativo punta a ottimizzare i protocolli di sicurezza attraverso soluzioni efficienti e a promuovere uno sviluppo sostenibile dell'industria dell'IA.

Tian, utente di una piattaforma di knowledge-sharing, si è imbattuto in una recensione cinematografica con la dicitura: "Questo dramma presenta una struttura narrativa avvincente con sviluppo multidimensionale dei personaggi. Attraverso uno storytelling episodico, stimola riflessioni critiche su questioni sociali contemporanee..." Il post mostrava un'etichetta in testa con la scritta "Contenuto sospettato di essere generato da IA" e aveva ottenuto una visibilità algoritmica drasticamente ridotta nei feed di raccomandazione.

Un portavoce della piattaforma ha chiarito che le linee guida comunitarie esistenti impongono la dichiarazione esplicita dei contenuti creati con l'assistenza dell'IA. I post non conformi attivano protocolli automatici di rilevamento, che portano a etichettatura obbligatoria, riduzione della visibilità nei sistemi di ranking, meccanismi di compressione del contenuto o potenziale sospensione dell'account.

Tali protocolli di governance acquisiranno una base giuridica rafforzata con le "Disposizioni per l'identificazione dei contenuti sintetici generati dall'IA", che richiedono ai servizi di distribuzione di contenuti online di verificare la presenza di marcatori identificativi incorporati nei metadati dei file. Al rilevamento di identificatori espliciti o firme tecniche di sintesi IA, le piattaforme devono classificare automaticamente il contenuto come potenzialmente generato dall'intelligenza artificiale, applicare avvisi ben visibili accanto ai contenuti e rilasciare notifiche pubbliche con dichiarazioni standardizzate.

Jin Bo, vice direttore del Terzo Istituto di Ricerca del Ministero della Sicurezza Pubblica, ha sottolineato l'ampliamento del quadro di responsabilità previsto dai nuovi regolamenti. Le disposizioni chiave definiscono ora esplicitamente gli obblighi per le piattaforme di distribuzione di applicazioni e per i fornitori di servizi ausiliari, stabilendo una governance completa dell'ecosistema che copre l'intero processo di creazione, modifica e diffusione dei contenuti.

Un'innovazione fondamentale nelle misure di identificazione dei contenuti generati dall'IA risiede nella distinzione codificata tra sistemi di etichettatura espliciti e impliciti. Le normative impongono che i metadati associati ai contenuti sintetizzati dall'IA includano marcatori di identificazione impliciti, i quali codificano sistematicamente attributi essenziali come: categoria di classificazione del contenuto, identificazione del fornitore di servizi (nome/codice univoco) e numero di serie del contenuto.

Zhang Zhen, ingegnere senior presso il National Computer Network Emergency Response Technical Team/Coordination Center of China, ha spiegato: "Come protocollo supplementare, lo standard tecnico di cybersicurezza per l'identificazione dei contenuti generati dall'AI specifica i campi di metadati richiesti per le etichette implicite. Questi campi sono progettati per registrare informazioni cruciali riducendo al minimo l'impatto sul trattamento e sulla trasmissione dei metadati, garantendo che i contenuti generati dall'IA rimangano tracciabili lungo tutto il loro ciclo di vita."

Queste normative non solo migliorano la trasparenza e la sicurezza nell'uso dell'intelligenza artificiale, ma creano anche un ambiente favorevole all'innovazione e allo sviluppo responsabile dell'IA.

(Web editor: Feng Yuxin, Renato Lu)

Foto