Famille
Les services de plateforme doivent-elles proposer des contrôles parentaux ?
YouTube et autres services de plateformes similaires doivent mettre en place d'ici fin 2026 des mesures de protection des mineurs ainsi qu'un système de signalement des contenus préjudiciables aux mineurs.
La loi sur la protection des mineurs dans les médias, entrée en vigueur le 1er janvier 2025, vise à protéger les enfants et les adolescents contre les contenus médiatiques « susceptibles de porter préjudice à leur développement physique, mental, psychique, moral ou social ». Elle réglemente notamment les mesures à prendre par les « services de plateforme » tels que YouTube.
Les fournisseuses de services de plateformes doivent d'une part introduire un système de classification et de contrôle de l'âge et d'autre part mettre en place un système de signalement des contenus inappropriés. Toutefois, ces dispositions ne sont pas encore en vigueur, le Conseil fédéral souhaitant accorder aux fournisseurs un délai de deux ans pour élaborer leur propre réglementation en matière de protection des mineurs. (Cf. aussi : « 7 réponses sur la protection des mineurs dans les médias »)
Les services de plateforme longtemps non réglementés
Selon la nouvelle loi sur la protection des mineurs dans les médias, un service de plateforme est défini comme « tout service ou partie dissociable d’un service dont l’objet principal est de mettre à la disposition du public une plateforme électronique sur laquelle et de laquelle les consommateurs peuvent télécharger des films ou des jeux vidéo et dont le prestataire détermine l’organisation des contenus sans assumer de responsabilité rédactionnelle quant à ces contenus, qui sont générés par les utilisateurs ». Jusqu'à l'entrée en vigueur de la loi sur la protection des mineurs dans les médias, il n'existait aucune réglementation légale pour ces fournisseuses, qui ne disposaient pas non plus d'un système d'autorégulation.
Les réglementations relatives à la protection des mineurs s'appliquent désormais également aux services de plateforme
Les services de plateforme doivent vérifier l'âge de leurs utilisateurs avant leur première utilisation du service s'ils rendent accessibles des contenus « non adaptés aux mineurs ». Les contenus « représentant des actes de violence excessive ou des actes sexuels explicites » sont considérés comme inappropriés pour les mineurs.
Attention : Les dispositions légales et réglementaires correspondantes ne sont pas encore en vigueur, mais les fournisseurs devront avoir mis en place le contrôle de l'âge d'ici leur entrée en vigueur, prévue début 2027.
Les utilisateurs doivent pouvoir signaler les contenus inappropriés
Les fournisseuses de services de plateformes doivent mettre en place un système de signalement des contenus inappropriés pour les mineurs. Ce système doit permettre aux utilisateurs de signaler « facilement et rapidement » les contenus problématiques. La fournisseuse doit traiter les signalements dans un délai de sept jours.
Attention : Les dispositions légales et réglementaires correspondantes ne sont pas encore en vigueur, mais les fournisseuses devront avoir mis en place le système de signalement d'ici à son entrée en vigueur, prévue début 2027.