
Près de la moitié des Suisses ont tourné le dos aux médias traditionnels. C'est ce que révèle le nouvel annuaire «Qualité des médias» de l'Université de Zurich: 46% d'entre eux sont désormais considérés comme personnes «privées d'informations», c'est-à-dire qu'elles ne consomment pratiquement pas d'actualités et, le cas échéant, uniquement via les réseaux sociaux.(1) Un niveau historique.

Michael Straumann
Cette évolution n'est pas nouvelle. Depuis bien des années, la confiance dans les médias traditionnels ne cesse de diminuer. Cela ouvre des perspectives pour les nouveaux médias émergents qui voient là une niche à exploiter. Pour les anciens médias - et a fortiori pour la «classe politique» qui les utilise comme tribune privilégiée -, cette tendance est en revanche alarmante. L'autorité interprétative du complexe politico-médiatique s'érode en Suisse, bien que lentement.
Au lieu de se demander de manière autocritique pourquoi la confiance s'effrite depuis des années, les anciens médias et les responsables politiques de notre pays préfèrent rejeter la responsabilité sur d'autres. Tantôt ce sont les Russes ou les Chinois, tantôt les réseaux sociaux non réglementés avec leurs algorithmes opaques. Le mot d'ordre est alors: désinformation, mésinformation.
Les fausses nouvelles sont toujours diffusées par «les autres»
En juin 2024, la Confédération a publié un rapport intitulé «Activités d'influence et désinformation»,(2) qui met en garde contre les dangers des fausses informations présumées. Et récemment, Albert Rösti, conseiller fédéral UDC et chef du Département fédéral de l'environnement, des transports, de l'énergie et de la communication (DETEC), a déclaré lors d'une intervention au Musée des transports de Lucerne que «la désinformation est un crime».(3)
Si tel est vraiment le cas, Alain Berset, ancien chef du Département fédéral de la santé publique, devrait logiquement être poursuivi pénalement pour ses fausses déclarations pendant la période du coronavirus, notamment pour son intervention dans l'émission de télévision «Arena» du 5 novembre 2021, où il a affirmé à tort que le certificat Covid prouvait «que l'on n'était pas contagieux».(4) Mais cela n'arrivera pas. Au contraire: Berset est devenu Secrétaire général du Conseil de l'Europe(5) et a même récemment reçu un doctorat honorifique de l'Université de Fribourg.(6)
« Les fausses nouvelles sont toujours diffusées par «les autres». Le fondateur de Telegram, Pavel Durov, l'a clairement formulé:(7) des termes tels que «mésinformation» et «désinformation» servent de «mots codés pour la censure» afin d'éliminer les voix indésirables. C'est dans cette optique qu'il faut également considérer la récente initiative du Conseil fédéral visant à introduire une nouvelle loi pour réglementer les médias sociaux et les moteurs de recherche.
Chronique d'une loi annoncée
Selon le Conseil fédéral, le projet de «Loi fédérale sur les plateformes de communication et les moteurs de recherche»(8) vise à «renforcer les droits des utilisateurs dans l'espace numérique et à obliger les très grandes plateformes à faire preuve de plus d'équité et de transparence». Elle s'inspire du Digital Services Act(9) de l'UE. Depuis août 2023, celui-ci oblige les plateformes Internet à lutter non seulement contre les contenus illégaux, mais aussi contre la «désinformation» et les «discours haineux» - des termes très larges, laissant une grande marge de manœuvre pour supprimer les opinions politiquement indésirables.
La Suisse s'engage désormais dans une voie similaire, bien que sous une forme atténuée. Le schéma est bien connu: on s'inspire de l'étranger, avec un décalage dans le temps et une version édulcorée, mais en suivant essentiellement le même modèle. Le débat a été lancé par Jon Pult, conseiller national PS du canton des Grisons. Il a déposé une initiative parlementaire en novembre 2021,(10) au plus fort de la pandémie de coronavirus. A l'époque déjà, la revendication était la suivante: les «discours haineux» et la «désinformation» devaient être combattus de manière systématique.
En décembre 2022, une «déclaration commune sur la réglementation des plateformes»(11) a été publiée, rédigée par AlgorithmWatch, la Société numérique et la Fondation Mercator Suisse. Ce document plaidait en faveur de l'adoption d'éléments centraux du Digital Services Act et mettait l'accent sur la lutte contre les discours de haine et la désinformation. Cependant, cette initiative s'est heurtée à la résistance de plusieurs organisations participantes. Le Parti pirate et le Chaos Computer Club ont mis en garde dans une déclaration séparée(12) contre le fait que l'Etat ne devait pas devenir l'autorité de vérité, sinon cela ouvrirait la voie à la censure.
En février 2023, la motion parlementaire de Jon Pult a été rejetée par la commission compétente,(13) notamment en raison de la pression publique exercée par des organisations telles que le Chaos Computer Club, le Parti pirate et l'Internet Society.
En janvier 2025, la Commission fédérale des médias (COFEM) s'est exprimée.(14) Cette commission fédérale extraparlementaire, dont plusieurs membres ont des liens étroits avec l'influente fondation Mercator (dont Angela Müller d' AlgorithmWatch(15)), s'est directement inspirée de la déclaration commune de 2022 et a demandé à la Confédération de faire avancer rapidement la réglementation.
Malgré cette pression, le Conseil fédéral a mis un temps inhabituellement long à présenter son avant-projet.(16) La situation internationale a probablement également joué un rôle: le président américain Donald Trump a qualifié les mesures prises à l'encontre de plateformes telles que X ou Meta de discrimination à l'égard des entreprises américaines. Le Conseil fédéral n'a peut-être pas voulu déranger le statu quo. Fin octobre, la décision a finalement été prise: le gouvernement suisse a présenté son projet et ouvert la procédure de consultation.
A l'avenir, les autorités pourraient bloquer des plateformes même sans décision judiciaire
La loi ne s'appliquerait qu'aux plateformes utilisées au moins une fois par mois par au moins 10% de la population. Cela concernerait YouTube, WhatsApp, LinkedIn, Instagram, Facebook, Snapchat, Pinterest, TikTok et divers services de messagerie. Parmi les moteurs de recherche, Google serait particulièrement concerné.
L'article 4 du projet prévoit une procédure de signalement. La plupart des grandes plateformes disposent déjà de fonctions correspondantes; cet instrument n'est donc pas fondamentalement nouveau. Sur X, il est déjà possible de signaler des contenus, avec même différentes catégories de signalement selon le lieu défini.
Sur le fond, la procédure de signalement vise les infractions au droit pénal suisse: représentations de la violence, diffamation, calomnie, insultes, menaces, appels au meurtre, harcèlement sexuel, appels publics au crime ou à la violence, ainsi que les propos discriminatoires ou incitant à la haine au sens de l'article 261 du CP. Un cas récent montre à quel point les infractions liées aux discours haineux sont désormais interprétées: un artisan de Berne doit purger une peine de dix jours de prison(17) pour avoir osé dire qu'il existait des différences biologiques entre les hommes et les femmes.
Le projet devient controversé lorsqu'il introduit des critères très larges. L'article 20, paragraphe 2, lettre c, parle de «conséquences négatives sur la formation de l'opinion publique». Qu'est-ce que cela signifie concrètement ? Des slogans politiques ? Des messages polémiques ? Des opinions déplaisantes pour l'Etat ? Des formulations telles que «conséquences négatives pour les processus électoraux et référendaires», «pour la sécurité publique» ou «pour la santé publique» restent tout aussi vagues. La marge d'interprétation est considérable, tout comme le risque d'abus.
Le règlement extrajudiciaire des litiges prévu est encore plus délicat. Alors qu'aujourd'hui, la police, le ministère public et les tribunaux sont compétents, un simple clic sur le bouton de signalement pourrait suffire à l'avenir pour qu'une contribution disparaisse sans examen judiciaire. Une procédure de recours est certes prévue, mais les voies de recours ordinaires seraient ainsi de facto supprimées. Les infractions ne feraient plus l'objet d'un examen juridique, mais seraient simplement supprimées.
En matière de sanctions également, le projet s'inspire étroitement du Digital Services Act de l'UE. L'Office fédéral de la communication (OFCOM) devrait pouvoir infliger des amendes élevées sans décision préalable d'un tribunal. Les entreprises ne pourraient saisir le Tribunal administratif fédéral qu'a posteriori. Les sanctions sont lourdes: jusqu'à 6% du chiffre d'affaires annuel mondial, des amendes supplémentaires pouvant atteindre 1% (ce qui peut dépasser le bénéfice annuel total) et jusqu'à 10% en cas de violation de l'obligation d'information. Même le refus d'accorder l'accès aux données à certaines organisations de la société civile peut être sanctionné.
Les pouvoirs de l'OFCOM vont le plus loin en matière de blocage des réseaux. L'autorité peut imposer des mesures administratives sans décision judiciaire. L'article 32, paragraphe 2, est particulièrement controversé: l'OFCOM peut ordonner aux fournisseurs de services de télécommunication de restreindre l'accès à une plateforme si les mesures sont inefficaces ou s'il y a «des raisons de croire» qu'elles pourraient l'être.
Concrètement, cela signifie que l'OFCOM pourrait faire bloquer des plateformes telles que X, Telegram, Facebook ou YouTube pour les utilisateurs suisses. Techniquement, ces blocages pourraient être contournés par VPN, mais ils resteraient des blocages de réseau, un instrument que l'on connaît surtout dans les Etats autoritaires. A cela s'ajoute le fait que ce n'est pas un tribunal qui décide, mais une autorité fédérale. L'OFCOM pourrait décider de son propre chef qu'une plateforme ne respecte pas les exigences et ordonner son blocage. Les fournisseurs d'accès Internet suisses tels que Swisscom seraient alors tenus de mettre en œuvre cette décision. L'article 33 limite certes ces blocages à 30 jours, mais ils peuvent être prolongés, ce qui peut conduire dans les faits à des blocages à plus long terme.
Risque de durcissement
Le travail mené depuis des années par les organisations étroitement liées à la Fondation Mercator porte ses fruits: le Conseil fédéral a repris les éléments centraux de leurs revendications. Le projet ne va pas aussi loin que certains d'entre eux le souhaitaient, mais un point saute aux yeux: il manque des dispositions visant à lutter contre la «désinformation».
Reste à savoir si cela restera ainsi. Lors du processus de consultation, le PS, les Verts et le PLR devraient faire pression pour un durcissement. Dans un communiqué de presse, les Verts ont déjà critiqué le fait que(18) le projet ne contienne aucune mesure contre les «campagnes de désinformation». Il est donc fort possible que le projet finisse par ressembler moins à un «Digital Services Act Light» et se rapproche nettement plus de l'original.
Le simple fait que la loi autorise une autorité fédérale à bloquer des plateformes entières en cas d'urgence montre l'étendue des pouvoirs qui seraient conférés et le caractère autoritaire de certains éléments du projet de loi. Il n'est donc pas exagéré de parler d'une loi de censure. Une chose est claire: cette loi restreindrait encore davantage l'espace de débat public, qui ne cesse de se réduire en Suisse depuis des années. La procédure de consultation se poursuivra jusqu'au 16 février 2026. Il reste à voir jusqu'où les responsables politiques iront finalement.
Michael Straumann, né en 1998, étudie les sciences politiques et la philosophie à l'Université de Zurich et travaille comme stagiaire rédactionnel pour le magazine «Schweizer Monat». Il est l'éditeur de «StrauMedia».
(1) ) JB_2025_Gesamtpublikation_final.pdf
(2) ) news.admin.ch
(4) ) schweizermonat.ch
(6) ) swissinfo.ch
(7) )
(8) ) news.admin.ch
(9) ) apollo-news.net
(10) ) parlament.ch
(11) ) digitale-gesellschaft.ch
(12) ) piratenpartei.ch
(13) ) parlament.ch
(14) ) emek.admin.ch
(15) ) algorithmwatch.ch
Source: straumedia.ch
(Traduction « Point de vue Suisse»)