La Suisse veut enfin encadrer les plateformes en ligne.

Source : Sora
Le Conseil fédéral lance la consultation d’une loi visant à réguler les grandes plateformes comme Google, Meta, TikTok ou X. Objectifs : transparence, responsabilité et protection renforcée des utilisateurs.
Une future loi pour réguler les géants du web
Le Conseil fédéral a ouvert la consultation concernant sa nouvelle loi destinée à encadrer les plateformes de communication en ligne et les moteurs de recherche. Cette réglementation ciblera les grands prestataires tels que Google, Meta (Facebook, Instagram), X (ex-Twitter) ou TikTok. Les parties prenantes ont jusqu’au 16 février 2026 pour donner leur avis.
Renforcer les droits des utilisateurs
La loi vise à rééquilibrer le rapport entre utilisateurs et plateformes numériques. Les acteurs concernés devraient être tenus de :
- mettre en place des procédures de signalement des contenus illicites,
- fournir des explications en cas de suppression de contenus ou de blocage de comptes,
- rendre la publicité plus transparente,
- publier le fonctionnement de leurs systèmes de recommandation,
- tenir un registre public des publicités diffusées,
- donner accès à leurs données à la recherche et aux autorités.
Les entreprises étrangères opérant en Suisse devraient également désigner un représentant légal dans le pays.
Un périmètre ciblé : les plateformes les plus influentes
Le texte ne concerne que les « très grandes plateformes » : celles utilisées chaque mois par au moins 10% de la population résidente suisse, soit environ 900’000 personnes. Selon le Conseil fédéral, ce sont ces services qui ont le plus d’impact sur la formation de l’opinion publique.
Des critiques sur une portée jugée trop limitée
L’ONG AlgorithmWatch CH salue une étape importante, mais estime que le projet ne va pas assez loin. Elle regrette que les plus petites plateformes soient exclues, alors qu’une communauté réduite peut malgré tout exercer une forte influence, notamment si des personnalités publiques y sont actives.
Autre lacune pointée : le texte ignore totalement les services d’intelligence artificielle, comme les chatbots ou les IA génératives (ex. ChatGPT). Or ces outils façonnent déjà l’accès à l’information et contribuent à la formation de l’opinion. Pour l’ONG, cette absence crée un futur « vide juridique ».
Vers une responsabilisation accrue des plateformes ?
Pour Angela Müller, directrice d’AlgorithmWatch CH, il s’agit d’un tournant : « Le projet prévoit des mesures importantes pour faire des réseaux sociaux un lieu de dialogue constructif. Il faut maintenant garantir que les entreprises soient réellement tenues responsables lorsque leurs modèles nuisent aux individus ou à la société. »