Famiglia

I servizi di piattaforma devono offrire controlli parentali?

YouTube e simili devono implementare entro la fine del 2026 la protezione dei giovani e un sistema per segnalare i contenuti nocivi per la gioventù.

La Legge sulla protezione dei minori nei settori dei film e dei videogiochi, entrata in vigore il 1° gennaio 2025, ha lo scopo di proteggere i bambini e gli adolescenti dai contenuti mediatici «che possono mettere a rischio il loro sviluppo fisico, mentale, psichico, morale o sociale». In particolare, disciplina anche le misure relative ai «servizi di piattaforma» come YouTube.

I fornitori di servizi di piattaforma devono, da un lato, introdurre un sistema di classificazione e controllo dell'età e, dall'altro, mettere a disposizione un sistema di segnalazione dei contenuti inadatti. Tuttavia, queste disposizioni non sono ancora in vigore, poiché il Consiglio federale intende concedere ai fornitori due anni di tempo per elaborare un proprio regolamento sulla protezione dei minori. (Vedi anche: «7 risposte sulla legge per la protezione dei minori»)

Servizi di piattaforma a lungo non regolamentati

Secondo la nuova legge sulla protezione dei minori nei settori dei film e dei videogiochi, per servizio di piattaforma si intende «servizio o parte separabile di un servizio il cui scopo principale consiste nel mettere a disposizione del pubblico una piattaforma digitale sulla quale gli utenti possono caricare autonomamente film o videogiochi e fruirne e i cui contenuti, generati dagli utenti, sono organizzati dal fornitore del servizio di piattaforma, il quale però non si assume alcuna responsabilità editoriale per i medesimi;». Fino all'entrata in vigore della legge sulla protezione dei minori nei media, non esistevano norme giuridiche per questi fornitori, che non disponevano nemmeno di un sistema di autoregolamentazione.

La regolamentazione sulla tutela dei minori si applica ora anche ai servizi di piattaforma

I servizi di piattaforma devono verificare l'età dei propri utenti prima del loro primo utilizzo del servizio, qualora rendano accessibili contenuti «non adatti ai minori». I contenuti «che raffigurano violenza eccessiva o atti sessuali espliciti» sono considerati non adatti ai minori.

Attenzione: le disposizioni di legge e di ordinanza corrispondenti non sono ancora in vigore, ma i fornitori dovranno aver implementato il controllo dell'età entro la data di entrata in vigore, prevista per l'inizio del 2027.

Gli utenti devono poter segnalare i contenuti inadatti

I fornitori di servizi di piattaforma devono introdurre un sistema per la segnalazione di contenuti non adatti ai minori. Questo deve consentire agli utenti di segnalare «in modo semplice e rapido» i contenuti problematici. Il fornitore deve trattare le segnalazioni entro sette giorni.

Attenzione: le disposizioni di legge e di ordinanza corrispondenti non sono ancora in vigore, ma i fornitori dovranno aver implementato il controllo dell'età entro la data di entrata in vigore, prevista per l'inizio del 2027.