Passer à la version normale du sitePasser à la version large du siteTaille d'écran
  • Facebook
  • Twitter
  • RSS
  • Connectez-vous
    Idées

    La responsabilité des plateformes en ligne, un enjeu peu présent au Québec

    14 octobre 2017 | Antoine Guilmain, Karl Delwaide et Antoine Aylwin - Avocats, Fasken Martineau | Justice
    L’enjeu du contenu illicite en ligne semble relativement peu présent au Québec.
    Photo: iStock L’enjeu du contenu illicite en ligne semble relativement peu présent au Québec.

    L'Union européenne s’est récemment prononcée sur le rôle que devraient jouer les plateformes pour lutter contre le contenu illicite en ligne. Cette préoccupation n’est pas nouvelle au Québec, le législateur ayant posé des balises dès le début du XXIe siècle. Cette longueur d’avance semble aujourd’hui s’être transformée en train de retard.

     

    Les plateformes en ligne font partie de notre quotidien. Elles désignent tout à la fois les réseaux sociaux, les moteurs de recherche, les sites de partage de contenu et d’évaluation, les blogues, etc. Or une tendance semble à l’oeuvre, celle de la diffusion croissante des contenus illicites en ligne incitant à la haine et à la violence, voire au terrorisme.

     

    Bien que la notion de « contenu illicite » soit large et qu’elle varie selon chaque juridiction, il existe des situations qui sont illicites partout dans le monde. On pense instinctivement aux multiples formes de cyberharcèlement, très répandues chez les mineurs, que sont les flaming (brefs messages d’insultes), harrassment (salve de propos violents), denigration (atteinte à la réputation en ligne), masquerade (usurpation d’identité), happy slapping (vidéo-lynchage) ou encore outing (atteinte à l’intimité). La liste est longue et ne fait malheureusement que s’étirer. Dans ce contexte, le Vieux Continent lance un message à tous se résumant à ceci : ce qui est illégal hors ligne est également illégal en ligne.

     

    L’Union européenne prend les devants

     

    Depuis plusieurs années, l’Union européenne est préoccupée par les contenus illicites en ligne, et en ce sens plusieurs textes contraignants et non contraignants ont été adoptés pour endiguer ce phénomène (directives, codes de conduite, etc.). Or l’intervention publique ne se suffisant pas à elle seule, encore faut-il que les plateformes en ligne prennent au sérieux le problème et fassent partie intégrante de la démarche. C’est cette ambition qui est à l’origine de la communication de la Commission européenne du 28 septembre dernier, intitulée « Tackling Illegal Content Online : Towards an Enhanced Responsability of Online Platforms ».

     

    Dans ce texte, la Commission invite les plateformes en ligne à redoubler d’efforts dans la prévention, la détection et la suppression proactives des contenus illicites. Plus concrètement, les plateformes se voient recommander plusieurs mesures, telles que :

     

    mettre en place des mécanismes afin de permettre aux utilisateurs de signaler des contenus illicites et investir dans des technologies de détection automatique ;

     

    coopérer plus étroitement avec les autorités publiques chargées de faire respecter la loi ;

     

    travailler avec des « signaleurs de confiance », c’est-à-dire des entités spécialisées dans le domaine du repérage, de la détection et de l’identification du contenu illicite ;

     

    supprimer aussi vite que possible les contenus illicites (l’instauration de délais précis de suppression est d’ailleurs évaluée par la Commission) ;

     

    faire preuve de plus de transparence en publiant des politiques et statistiques en matière de gestion de contenu ;

     

    prendre des mesures contre la récidive, notamment en utilisant et en développant des outils automatiques empêchant la réapparition d’un contenu précédemment supprimé.

     

    Ces recommandations sont pour le moment non contraignantes, mais la Commission se réserve le droit de resserrer le cadre réglementaire si les plateformes en ligne ne sont pas suffisamment proactives dans les prochains mois. Cette évaluation devrait avoir lieu d’ici mai 2018.

     

    Le Québec se fait damer le pion

     

    Pendant ce temps, rien de nouveau à l’Ouest. Plus exactement, l’enjeu du contenu illicite en ligne semble relativement peu présent au Québec, alors qu’il existe bel et bien comme partout ailleurs. Cela n’a pas toujours été ainsi. En effet, au début des années 2000, le législateur québécois faisait preuve d’avant-gardisme en créant un régime spécifique de responsabilité pour les plateformes en ligne.

     

    Aussi, au surplus du Code civil du Québec, la Loi concernant le cadre juridique des technologies de l’information énonce certaines obligations et limites en matière de responsabilité du « prestataire de services agissant à titre d’intermédiaire ». On y indique notamment qu’il n’existe pas d’obligation de surveillance active du contenu et que les plateformes en ligne sont en principe non responsables des activités menées par leurs utilisateurs. Cela ne veut toutefois pas dire que les plateformes sont automatiquement exonérées de toute responsabilité.

     

    Une plateforme peut effectivement voir sa responsabilité engagée si elle a une connaissance effective ou potentielle d’une activité illicite et qu’elle n’agit pas promptement pour empêcher la poursuite de cette activité. En d’autres mots, pas d’obligation proactive de se tenir informé, mais si on est au courant, on doit agir rapidement.

     

    Un tel régime vise à renforcer la confiance des internautes : sans jouer un rôle actif de « police de l’Internet », les plateformes doivent tout de même intervenir lorsqu’elles ont connaissance de contenu illicite. Or certains considèrent que les plateformes devraient également se comporter de manière « prudente et diligente » en conformité avec les principes de droit commun en matière de responsabilité civile.

     

    Une telle obligation est large et n’offre aucune indication claire sur la manière de s’y conformer. Les plateformes en ligne devraient-elles systématiquement donner la possibilité aux utilisateurs de signaler du contenu illicite, publier des politiques claires en matière de gestion de contenu ou encore mettre en place des technologies de détection automatique pour certains mots (suicide, pornographie, etc.) ? Il nous semble que toutes ces mesures devraient varier selon le contenu généré, le public visé, les objectifs et le degré de sophistication de la plateforme, les antécédents en matière de contenu illicite, etc.

     

    Au bout du compte, pour le moment, cette situation évoque une fable bien connue où l’Union européenne regarderait le Québec par-dessus l’épaule en se disant : « Rien ne sert de courir ; il faut partir à point. » Heureusement, la ligne d’arrivée étant encore loin, il reste encore du temps pour emboîter le pas à notre voisin européen en précisant la responsabilité des plateformes par rapport au contenu illicite en ligne.













    Envoyer
    Fermer
    Les plus populaires


    Abonnez-vous à notre infolettre. Recevez l'actualité du jour, vue par Le Devoir.