Actualités / Jeux

Lawful Neutral : ce que les joueurs de MMO doivent savoir sur la section 230

Lawful Neutral : ce que les joueurs de MMO doivent savoir sur la section 230

Vous avez peut-être vu quelque chose dans les nouvelles la semaine dernière à propos d’une chose appelée article 230 et beaucoup de panique à propos de la « fin d’Internet » à la suite de l’audition par la Cour suprême de quelques affaires, toutes deux liées à l’article 230 : Gonzalez c. Google et Twitter contre Tammneh. Je ne vais pas dépenser d’encre sur les cas réels car il y a assez d’écrits à leur sujet ailleurs, et aucun n’a rien à voir directement avec les jeux vidéo de toute façon.

Mais ils faire les deux traitent d’un petit texte législatif qui est souvent considéré comme l’épine dorsale proverbiale d’Internet. Ce projet de loi ne contient que deux paragraphes qui ont sans doute changé le cours de l’histoire humaine. C’est peut-être un peu mélodramatique, mais seulement un peu. Aussi courte soit-elle, la section 230 est étonnamment dense et nuancée.

Donc, cet épisode de Lawful Neutral ne fera que jeter les bases de ce qu’est la section 230, quel est le problème et pourquoi les joueurs devraient s’en soucier. Cet article n’est, par nécessité, pas toute l’histoire; aucun article ne peut faire ce que font des dizaines de livres. Mon objectif ici est de le relier aux MMO et de montrer qu’en plus d’être les vingt-six mots qui ont créé Internet, la section 230 est également les 26 mots qui ont créé les MMO.

Qu’est-ce que l’article 230 ?

L’article 230 fait référence à la section de la Communications Decency Act (CDA) des États-Unis, également connue sous le nom de Titre V de la Loi sur les télécommunications de 1996, car nous ne pouvons pas avoir un seul nom pour les choses. L’intention initiale de la Communications Decency Act était de protéger les mineurs contre les contenus sexuellement explicites – ceux jugés “indécents” et “obscènes”. Les deux indécent et obscène sont des termes juridiques spécifiques qui font le plus souvent référence à des actes sexuels, indécent étant « normal » et obscène étant « en dehors des normes communautaires », entre autres exigences. Les lecteurs plus âgés se souviendront peut-être que le CDA a été déclaré inconstitutionnel en 1998 parce qu’il violait le premier amendement. Mais les tribunaux ont séparé l’article 230 du reste de la CDA, et il reste donc en vigueur aujourd’hui.

Au plus haut niveau, l’article 230 protège les « services informatiques interactifs » de la responsabilité de ce que leurs utilisateurs publient et de ce que l’entreprise décide de supprimer. L’article 230(c) comporte deux parties principales, la partie “Laisser en place” et la partie “Retirer”. Les protections contre la responsabilité se résument à l’affirmation que les services informatiques interactifs ne sont pas éditeurs parce que les éditeurs ont toutes sortes d’obligations légales et de politiques existantes liées à la façon dont ils doivent travailler. En disant “services informatiques interactifs” ne sont pas éditeurs, l’article 230 libère les entreprises des obligations d’éditeur. La deuxième protection en matière de responsabilité offre de larges protections à ce que les entreprises décident de modérer, tant que ces actions sont faites de bonne foi. La « bonne foi » n’est pas explicitement définie mais a jusqu’à présent été largement utilisée pour prévenir les pratiques de modération anticoncurrentielles.

L’article 230 (c) (1) est la partie “Laisser en place”, et il protège les entreprises de toute responsabilité sur ce que les utilisateurs publient. Le paragraphe précise :

“Aucun fournisseur ou utilisateur d’un service informatique interactif ne doit être considéré comme l’éditeur ou le locuteur d’informations fournies par un autre fournisseur de contenu d’informations.”

C’est ce qui garantit que tous les sites Web, comme MassivelyOP, ne peuvent être tenus responsables lorsqu’un contenu potentiellement illégal ou contrefait est publié par les utilisateurs de ce site Web. C’est ce qu’on appelle la partie «Laisser en place» de l’article 230 parce qu’elle se rapporte au contenu qui est «laissé en place» sur le service informatique interactif.

La section 230(c)(2), d’autre part, est la partie “Retirer”, qui stipule :

Aucun fournisseur ou utilisateur d’un service informatique interactif ne peut être tenu pour responsable du fait :
(A) toute action volontairement entreprise de bonne foi pour restreindre l’accès ou la disponibilité de matériel que le fournisseur ou l’utilisateur considère comme obscène, obscène, lascif, sale, excessivement violent, harcelant ou autrement répréhensible, que ce matériel soit ou non constitutionnellement protégé; ou
(B) toute mesure prise pour activer ou mettre à la disposition des fournisseurs de contenu d’information ou d’autres les moyens techniques pour restreindre l’accès au matériel décrit au paragraphe (1).

C’est ce qui permet aux entreprises de créer et d’appliquer des codes de conduite et de modérer des contenus qui ne sont pas illégaux mais qu’elles trouvent « autrement répréhensibles ». L’expression « autrement répréhensible » n’est pas définie à l’article 230 et, par conséquent, elle a été interprétée au sens large par la plupart des tribunaux. Il accorde essentiellement un contrôle substantiel au service informatique interactif sur les types de contenu qui apparaissent sur ce service.

Alors, quelle est la controverse ici?

La Cour suprême a récemment entendu deux affaires très similaires, et une décision dans l’une est une décision dans les deux. En effet, les affaires soutiennent toutes deux que Google et Twitter devraient être tenus pour responsables de la promotion et de la recommandation de contenus qui ont radicalisé les utilisateurs en terroristes et abouti à des attentats terroristes qui ont tué de nombreuses personnes. Le demandeur dans ces affaires soutient que parce que le contenu était “recommandé” par les algorithmes sur Twitter et YouTube, les sociétés exécutaient un contrôle éditorial et devraient donc être légalement responsables en tant qu'”éditeurs” du contenu. Si cela se produisait, ces plateformes de médias sociaux perdraient la protection de l’article 230 et seraient responsables de tous le contenu que leurs utilisateurs publient.

Le problème est que si la Cour suprême décidait de peser et de prendre parti contre les géants des médias sociaux, cela ouvrirait les vannes de la responsabilité pour chaque “service informatique interactif” qui a du contenu généré par l’utilisateur – c’est-à-dire environ 99,5% d’Internet. La suppression des protections de l’article 230 changerait Internet du jour au lendemain, car il serait impossible pour les entreprises de minimiser les risques et d’assurer une protection contre la responsabilité de ce que les utilisateurs publient. Des choses comme la section des commentaires sur MassivelyOP disparaîtraient. Les sites Web d’évaluation comme Yelp et Rotten Tomatoes ne pourraient pas fonctionner. Même les profils sur les sites de rencontre seraient effacés car il serait impossible de surveiller et de maintenir la protection contre la responsabilité pour tout site Web, quelle que soit sa taille. Internet tel que nous le connaissons aujourd’hui cesserait littéralement d’exister.

Alors pourquoi voudrions-nous supprimer les protections de l’article 230 ? Eh bien, en vérité, parce que les personnes qui veulent révoquer l’article 230 ont raison. Il suffit de regarder la prolifération de la mésinformation et de la désinformation et le mal qu’ils ont causé pour reconnaître que quelque chose ne fonctionne pas comme il est censé le faire. Grandes entreprises de technologie et de médias sociaux faire gagner de l’argent grâce à la mésinformation et à la désinformation et au contenu conçu pour radicaliser ; ils ont un intérêt financier à le laisser proliférer, quels que soient les dommages qu’il cause. Lorsque la section 230 a été rédigée dans les années 90, les auteurs ne pouvaient pas raisonnablement prévoir ce que deviendraient Facebook, Twitter, YouTube et le reste d’Internet, ni prévoir son rôle dans nos vies à mesure qu’Internet et les médias sociaux devenaient éléments centraux des conflits géopolitiques, de la santé publique et de l’extrémisme politique.

Pourquoi les MMO ?

Très bien, alors comment tout cela est-il lié aux MMO ? Eh bien, ce ne sont pas seulement les sites Web et les médias sociaux qui seraient touchés. Sans les protections de la section 230, les MMO et les jeux en ligne eux-mêmes seraient également obligés de se transformer et auraient une apparence radicalement différente – s’ils pouvaient exister. Il n’est pas exagéré de dire que les MMO existent spécifiquement en raison de la protection de l’article 230. Tout revient à la définition de « service informatique interactif », qui est extrêmement large dans sa définition. Voici l’article 230(f)(2) :

Le terme ” service informatique interactif ” signifie tout service d’information, système ou fournisseur de logiciel d’accès qui fournit ou permet l’accès informatique par plusieurs utilisateurs à un serveur informatique…

Sur la base de cette définition de service informatique interactif, les MMO bénéficient des protections de l’article 230. Si vous pensez à tous les endroits dans les MMO où vous avez la possibilité d’entrer du contenu – noms de personnages, bios, noms de guilde, même le message de bienvenue de votre guilde lorsque vous vous connectez – chacun de ces endroits est possible grâce à la Section 230 protections. En fait, je dirais que plus que la plupart des autres médias, les MMO ont bénéficié des protections de l’article 230. Sans la liberté offerte par la section 230, je ne pense pas que les MMO pourraient être ce qu’ils sont aujourd’hui.

Sans cette protection, des fonctionnalités telles que le chat en jeu, le chat vocal et même les noms de personnages eux-mêmes représenteraient trop de risques pour les entreprises ; ils ne seraient pas en mesure de s’assurer que tout contenu potentiel illégal ou contrefait est bloqué dans l’un de ces endroits, ce qui les exposerait à des poursuites. Par exemple, le nom de personnage “JainaIsARacist” est potentiellement diffamatoire, et donc Tempête De Neige pourrait être tenue responsable par une Jaina réelle si elle choisissait de poursuivre. Cela pourrait être une situation similaire avec un nom de guilde comme “ThrallHatesTomatoes” en supposant que Thrall était une personne réelle. Si vous avez écrit une trame de fond pour l’un de vos personnages sur Final Fantasy XIV qui ressemble un peu trop à une organisation pseudo-religieuse particulière qui fonde son système de croyance sur des livres de fiction et est connue pour être très litigieuse… eh bien, Square Enix ne voudra pas prendre ce risque.

Et c’est juste pour un contenu relativement inoffensif. Comme je l’ai détaillé dans ma chronique sur le rapport de l’ONU sur l’extrémisme dans les jeux, les groupes terroristes opèrent dans les jeux en chevauchant une ligne de contenu “acceptable”, en utilisant des mots de code et des euphémismes pour communiquer et recruter. À quel moment ce contenu devient-il un handicap ? Comment les opérateurs de jeux sauraient-ils ce qui est utilisé dans le code par rapport à ce qui est utilisé normalement ? C’est déjà assez difficile de l’extirper maintenant; sans protections légales, les entreprises pourraient décider qu’il est plus facile de désactiver complètement la communication avec les joueurs.

Qu’en est-il du contexte ? En ce qui concerne la toxicité dans les jeux, le contexte est essentiel. Quelque chose qui est dit dans un contexte peut parfaitement convenir, mais lorsqu’il est retiré de ce contexte, il peut être traité comme quelque chose qui entraîne une responsabilité. Dans ce cas, qu’est-ce qui compte le plus : que quelque chose soit dit dans le contexte d’une bonne conversation entre amis, ou que la même chose, prise isolément, soit un contenu qui crée un risque pour le jeu ?

Que ce passe t-il après?

Pour l’instant, nous attendons de voir ce que fera la Cour suprême. Il y a naturellement beaucoup de torsion à la main sur tout cela, d’autant plus que le tribunal actuel est enclin à bafouer des décennies de précédents établis. Mais au moins dans ce cas, il y a quelque chose à perdre des deux côtés de la division partisane, donc si le tribunal donne un avis, il est moins susceptible d’être extrêmement partisan. Le juge Kagan a commenté : « Nous sommes un tribunal. Nous ne savons vraiment rien de ces choses. Ce ne sont pas les neuf plus grands experts d’Internet. Cette déclaration a donné à beaucoup de gens l’espoir que les tribunaux la renverront au Congrès pour comprendre, mais nous devrons voir.

Cette question est particulièrement épineuse car les préjudices causés par l’article 230 sont nombreux, visibles et percutants. Mais il en va de même pour l’environnement créé par la section 230, en particulier dans les MMO. Cela a ouvert la voie à de tout nouveaux mondes virtuels qui, du moins culturellement, constituaient une frontière indomptée à l’intérieur de la frontière indomptée d’Internet. La modification de l’article 230, quelle que soit son ampleur, aura des impacts imprévisibles et de grande envergure dans le monde entier, pas seulement aux États-Unis.

Faut-il modifier l’article 230 ? Oui, je pense que ça devrait. En voyant la dévastation que la désinformation, la mésinformation et la radicalisation ont provoquée, il est difficile de dire autre chose que “nous devons nous en occuper, dès que possible!” Mais comment le changer est une tout autre question. Je suis exceptionnellement heureux de dire que c’est aussi une question à laquelle je n’ai pas à répondre.