Étude de cas : Le gouvernement devrait-il réguler les réseaux sociaux?

Leçon connexe
Leçon C : Discussion constructive
Téléchargements
Document complet: PDF, Google Doc,
Contexte: PDF, Google Doc,
En accord: PDF, Google Doc,
En désaccord: PDF, Google Doc,
Énoncé de discussion
Le gouvernement devrait réglementer le contenu publié sur les plateformes de réseaux sociaux.
Cet exercice a été mis à jour le 10/01/2025.
Contexte
On considère aujourd’hui les réseaux sociaux comme un nouvel espace public, dans lequel nous pouvons librement partager nos opinions. Au Canada, la Charte des droits et libertés garantit à tous.tes le droit d’exprimer ses pensées, ses croyances et ses opinions en public.
La liberté d’expression n’est pas pour autant absolue et il existe des limites à ce qui peut être dit publiquement. Ces limites assurent que les autres droits garantis par la Charte puissent être respectés, et que la liberté d’expression d’une personne n’empiète pas sur celle d’une autre. La liberté d’expression ne peut donc pas servir à justifier des propos haineux, racistes ou sexistes par exemple.
En vertu de la Charte, le gouvernement peut adopter des lois pour limiter la liberté d’expression, tant que ces limites sont raisonnables et justifiées dans une société libre et démocratique (p. ex. : interdire et sanctionner les discours incitant à la haine).
Sur les réseaux sociaux, la question de la liberté d’expression se complique. Bien qu’on conçoive les réseaux sociaux comme des espaces publics, les entreprises qui les possèdent sont des entités privées qui ne sont pas assujetties à la Charte. Elles possèdent leurs propres politiques quant au contenu pouvant être publié sur leurs plateformes.
Selon les plateformes, la liberté d’expression se retrouve plus ou moins restreinte. Depuis le rachat de Twitter par Elon Musk par exemple, les règles de modération sur la plateforme ont été largement assouplies. Meta lui a tout récemment emboîté le pas et a également annoncé la fin de son programme de vérification des faits. Sur TikTok, certains contenus, comme la désinformation médicale, sont interdits. Dans tous les cas, la modération* qui s’opère sur ces plateformes n’est pas parfaite et du contenu préjudiciable** se retrouve en ligne : désinformation, contenu incitant à la violence, menaces et insultes, discours haineux, etc. À l’inverse, du contenu est parfois retiré ou des utilisateur.rice.s banni.e.s sans que les politiques de la plateforme ne soient réellement enfreintes.
En février 2024, le gouvernement fédéral a présenté un projet de loi visant à modérer le contenu en ligne au Canada (le projet de loi C-63***). Entre autres choses, cette loi obligerait les plateformes de réseaux sociaux à agir de manière responsable et à rendre certains contenus inaccessibles.
Pour certaines personnes, il est inconcevable que le gouvernement s’immisce dans la régulation du discours sur les plateformes en ligne. Elles craignent des débordements et une restriction abusive de la liberté d’expression par le gouvernement. Pour d’autres, il est impératif que des mesures additionnelles soient mises en place pour limiter le contenu préjudiciable diffusé en ligne et protéger les utilisateur.rice.s.
Pour en savoir plus
- Lumni | La liberté d’expression et ses limites
- Le Temps | Censure sur les réseaux sociaux : quel pouvoir donne-t-on à ces plateformes?
- Radio-Canada | Une loi sur les contenus préjudiciables en ligne
Le savais-tu?
* Faire de la modération sur les réseaux sociaux signifie passer à travers le contenu publié afin de repérer les publications ou les commentaires qui ne sont pas conformes aux politiques de la plateforme. Le contenu qui n’est pas conforme est supprimé et les utilisateur.rice.s qui ne respectent pas les conditions d’utilisation peuvent être banni.e.s. Le travail de modération est accompli en grande partie par des algorithmes. ** L’expression « contenu préjudiciable » peut englober toute publication causant du tort. Il peut faire référence au discours haineux, au contenu incitant à la violence et à l’automutilation, aux menaces ou à la désinformation, par exemple. *** Le projet de loi C-63 a été proposé par le gouvernement libéral. Il reste encore plusieurs étapes à parcourir avant que le projet puisse être adopté et qu’il devienne une loi. Pour un résumé du projet de loi : Radio-Canada | Que contient le projet de loi contre les méfaits en ligne? |
En accord
Voici quelques-unes des raisons pour lesquelles certaines personnes pourraient appuyer le fait qu’une loi soit adoptée pour modérer le contenu publié sur les réseaux sociaux.
Protéger les enfants
Un des objectifs visé du projet de loi C-63 est de protéger les enfants des préjudices en ligne et d’éviter qu’iels ne soient exposé.e.s à du contenu pouvant leur nuire. Les mesures prises par la plupart des plateformes de réseaux sociaux s’avèrent souvent insuffisantes; une réglementation émanant du gouvernement obligerait les entreprises de réseaux sociaux à agir de manière plus responsable.
Créer des espaces sécuritaires
De nombreuses personnes passent autant (ou plus) de temps à socialiser en ligne que hors ligne et accordent de l’importance au fait de former des communautés virtuelles sur les réseaux sociaux. L’intimidation, la haine ou les menaces en ligne visant une personne peuvent avoir de graves répercussions dans la vie réelle. En veillant à ce que les plateformes de médias sociaux soient exemptes de tout discours blessant ou préjudiciable, on peut s’assurer qu’elles demeurent des espaces où les utilisateur.rice.s se sentent en sécurité et auxquels iels peuvent continuer de participer.
Un projet permis par la Charte
La Charte canadienne des droits et libertés permet déjà au gouvernement d’adopter des lois pour limiter la liberté d’expression lorsque cela est nécessaire pour le bon fonctionnement d’une société libre et démocratique (p. ex. : pour s’assurer que tous.tes puissent s’exprimer sans crainte). Un loi pour forcer les plateformes de réseaux sociaux à modérer et interdire certains contenus préjudiciables s’inscrit dans cette prérogative, au même titre qu’une loi qui criminalise les discours haineux par exemple.
Une réglementation différente pour un environnement différent
Le contenu diffusé sur les réseaux sociaux peut atteindre un très grand nombre de personnes, partout dans le monde et ce, en une fraction de seconde. Il est donc logique que des règles distinctes encadrent les discours en ligne et hors ligne. Des restrictions au discours sur les réseaux sociaux pourraient contribuer à ralentir la diffusion de contenus susceptibles de causer de graves préjudices comme la désinformation médicale par exemple.
Un avantage pour les entreprises de réseaux sociaux
Pour générer du profit, les plateformes de réseaux sociaux doivent attirer des utilisateur.rice.s et des investisseur.euse.s. Il faut donc qu’elles soient dignes de confiance et sécuritaires au yeux du public. En démontrant leur engagement à protéger leurs utilisateur.rice.s en suivant des lignes directrices gouvernementales, les entreprises acquièrent une meilleure réputation.
Pour en savoir plus
En désaccord
Voici quelques-unes des raisons pour lesquelles certaines personnes pourraient s’opposer à une réglementation par le gouvernement du contenu sur les réseaux sociaux.
Un risque de censure
Plusieurs craignent que l’intervention du gouvernement dans la réglementation du contenu en ligne ne mène à des débordements et ultimement à une censure de certaines opinions dans l’espace numérique. Si les plateformes de réseaux sociaux constituent le nouvel espace public, alors tous.tes les Canadien.ne.s devraient avoir le droit fondamental de participer à cet espace public.
La situation pourrait empirer
Limiter ce qui est dit sur les réseaux sociaux pourrait pousser les discussions controversées vers des endroits plus difficiles d’accès sur le Web, là où elles seraient plus difficiles à surveiller et où les autres utilisateur.rice.s ne les remettraient pas en question. Limiter les types de discours admissibles sur les réseaux sociaux pourrait en réalité accroître le contenu préjudiciable en ligne.
Un problème de définition
Les règles encadrant le contenu sur les réseaux sociaux sont souvent trop vagues, et il n’est pas toujours évident de déterminer si une publication enfreint ou non la norme. Si les décisions concernant les types de discours autorisés sont trop subjectives, cela peut porter atteinte à la liberté d’expression.
Un problème pratique
Même en parvenant à définir clairement ce qui constitue du contenu préjudiciable, il est quasi impossible de le modérer correctement. Il y a bien trop de contenu à traiter pour qu’un humain puisse le faire et l’intelligence artificielle n’est pas encore suffisamment performante pour repérer des contenus qui violent une politique, mais de manière indirecte ou subtile. L’utilisation de l’intelligence artificielle pose aussi le risque qu’un contenu soit accidentellement interdit, ce qui porterait atteinte à la liberté d’expression.
Un libre marché des idées
Les réseaux sociaux offrent un espace où nous pouvons nous exprimer et échanger nos croyances et nos points de vue avec un large public. Si quelqu’un dit quelque chose qui est socialement inacceptable, il appartient aux autres utilisateur.rice.s – et non au gouvernement – d’expliquer pourquoi cette opinion est erronée et de fournir des contre-arguments. En ce sens, les idées sur les réseaux sociaux s’autorégulent : les opinions et les idées les plus sensées l’emportent.
Pour en savoir plus
- Brut | Pourquoi limiter la liberté d’expression est dangereux selon Anastasia Colosimo
- La Presse | Excès de messages censurés, liberté d’expression limitée