Equipe

La modération par les plateformes porte-t-elle atteinte à la liberté d'expression ? Réflexions à partir des approches états-unienne (Zhang v. Baidu.com, 2014) et italienne (Casapound contre Facebook, 2019)

           Dans sa décision du 18 juin 2020[1], le Conseil constitutionnel a jugé que plusieurs articles de la proposition de loi Avia portaient des atteintes disproportionnées à la liberté d’expression. Le texte prévoyait de sanctionner lourdement les opérateurs de plateforme en ligne[2] (Facebook, Twitter, Google, Instagram, etc.) s’ils ne rendaient pas inaccessibles, dans un délai très court, les contenus illicites qui leur avaient été signalés par leurs usagers ainsi que par l’autorité administrative. Selon le Conseil, un tel régime soulevait de multiples difficultés. En particulier, l’obligation de contrôle pesant sur les plateformes était trop étendue et emportait des conséquences excessives en ce qu’elle induisait une incitation des plateformes à censurer systématiquement les contenus signalés par les usagers[3]. Cette décision témoigne des menaces que fait peser sur les droits la tendance, sensible dans plusieurs États européens, à confier la régulation des contenus en ligne aux opérateurs de plateforme[4]. La crainte ne concerne pas l’efficacité d’un tel dispositif, mais le transfert de la régulation du débat public à des acteurs privés.

            Les opérateurs de plateforme ont longtemps bénéficié dans l’Union européenne du statut très confortable d’ « intermédiaire technique » établi par la directive e-commerce de 2000. Selon ce texte, qui s’inspire de la Section 230 du Communications Decency Act (ci-après CDA) états-unien de 1996, les hébergeurs d’un contenu illicite ne sont pas responsables des informations stockées, à la condition qu’ils n’aient pas connaissance de ces contenus et qu’ils les retirent « promptement » s’ils leur sont signalés[5]. Il s’agit d’une responsabilité allégée et a posteriori. La principale obligation des fournisseurs d’accès à internet, qui comptent comme les hébergeurs parmi les intermédiaires techniques, est de respecter la neutralité du net[6]. Depuis l’adoption de la directive de 2000, les opérateurs de plateforme ont commencé à jouer un rôle actif dans l’affichage et la sélection des contenus, ne serait-ce que pour vendre des espaces publicitaires, ce qui les a progressivement éloignés du rôle d’intermédiaire[7]. Le droit français a d’ailleurs introduit le terme d’ « opérateurs de plateforme » pour distinguer ces acteurs des autres hébergeurs. C’est aux opérateurs des plateformes en ligne les plus importantes que sont par exemple destinées les obligations prévues par la loi contre la manipulation de l’information. Dans une période précédant de trois mois des élections générales, ces opérateurs sont tenus d’informer leurs usagers de l’identité des personnes finançant des publicités politiques ou de rendre public le montant des sommes versées pour ces publicités. Cependant, malgré ces spécificités, les opérateurs bénéficient toujours de l’exonération de responsabilité que leur accorde la directive e-commerce. 

            La régulation par les opérateurs de plateformes de l’expression en ligne affecte inévitablement l’accès des citoyens au débat public. L’utilisation des réseaux sociaux et des moteurs de recherche contribue en effet à la formation et à l’échange d’opinions. Il n’est donc pas étonnant que les juridictions aient à connaître des conflits qui opposent des utilisateurs de plateformes à des opérateurs qui ont de fait le pouvoir de limiter l’exercice de leur liberté d’expression. Pour autant, dans l’ensemble des États confrontés à ces difficultés, aucune solution ne s’est imposée et le raisonnement juridique en est encore au stade du tâtonnement[8]. Le problème est, il est vrai, relativement nouveau et, à notre connaissance, aucune juridiction suprême ou internationale n’a formulé une solution globale orientant la résolution de ces litiges. En outre, si ce problème est mondial, sa résolution ne saurait être identique dans tous les ordres juridiques en raison des spécificités juridiques, historiques, sociales et culturelles de chacun. Aux États-Unis, les raisonnements juridictionnels mobilisent parfois une analogie entre l’opérateur d’une plateforme et l’éditeur d’un journal, ce qui permet aux opérateurs de bénéficier de la protection très large accordée par le Premier amendement. Au contraire, dans de nombreux autres États, la liberté d’expression implique des devoirs et responsabilités rendant l’invocation de ce droit peu intéressante pour les opérateurs des plateformes. En Italie, dans un litige de ce type, Facebook n’a pas invoqué sa liberté d’expression, mais sa liberté d’entreprendre garantie par l’article 41 de la Constitution italienne[9].

            Face à un constat commun, selon lequel les opérateurs de plateformes sont devenus des acteurs incontournables du débat public, les juridictions états-uniennes et italiennes livrent deux interprétations opposées du rapport de force entre l’opérateur de plateforme et ses utilisateurs (I), qui s’inscrivent parmi les réponses esquissées par la doctrine et les juridictions pour encadrer l’action régulatrice des opérateurs (II).

 

I. Le rapport de force entre l’opérateur de plateformes et ses utilisateurs selon les juridictions états-uniennes et italiennes

            Le rôle des opérateurs de plateformes ne saurait être réduit à celui d’intermédiaires techniques, passifs et sans influence sur le débat public[10]. La reconnaissance de leur statut éditorial par plusieurs juridictions états-uniennes suggère qu’en régulant les contenus, les plateformes exercent leur liberté d’expression au même titre que leurs utilisateurs (A). A l’opposé, la même régulation est conçue ailleurs à la lumière de la position spéciale, incontournable, qu’occupent des plateformes dans le débat public, quand elles disposent du pouvoir de rendre impossible la diffusion d’un discours politique (B).

A. La liberté éditoriale des opérateurs de plateforme

1. Le cas Zhang v Baidu.com (2014).

            Ne pouvant plus se cacher derrière le statut d’ « intermédiaire » passif, les opérateurs de plateforme ont fait valoir, ces dernières années, leur rôle actif dans la sélection et la présentation des contenus[11]. Aux États-Unis, affirmer que leur activité revêt une dimension expressive a permis aux plateformes d’invoquer le Premier amendement afin de protéger leurs décisions « éditoriales[12] ». Un livre blanc[13] commandé par Google et publié en 2012 va dans ce sens. Selon ses auteurs, publier un contenu ou le rendre inaccessible, ou mal référencé, revient à exprimer une opinion, ce bien précieux que doit protéger le droit des sociétés démocratiques[14].

            L’analogie entre la sélection et la présentation de résultats opérées par un moteur de recherche pour répondre aux besoins de l’utilisateur, d’une part, et le travail éditorial, d’autre part, est clairement établie par la décision rendue par la United States District Court de New York en 2014 dans l’affaire Zhang v. Baidu[15]. Un groupe de résidents new-yorkais qui militent pour plus de démocratie en Chine attaque en justice « Baidu, Inc. », un moteur de recherche chinois. Les requérants soutiennent que le déréférencement des messages et des évènements liés au mouvement pour la démocratie en Chine par Baidu porte atteinte à leurs droits, en particulier à leur droit à un accès égal aux « établissements accessibles au public et leur offrant des biens et des services » (« public accommodations ») et à l’égale protection des lois. Les militants n’invoquent pas leur liberté d’expression, mais c’est bien d’elle qu’il s’agit : la discrimination dont ils font l’objet limite leur possibilité de faire entendre leurs idées et de diffuser des informations sur les évènements qu’ils organisent. Ils accusent d’ailleurs le moteur de recherche de « censure » commanditée par la Chine[16]. Baidu se défend en affirmant que le résultat produit par son moteur de recherche est un discours protégé par le Premier amendement. 

            Pour résoudre ce litige, la juridiction new-yorkaise établit une analogie entre la sélection effectuée par Baidu et une décision éditoriale, en faisant référence à l’arrêt Miami Herald Publishing CO v Tornillo de 1974[17]. Dans cet arrêt, la Cour suprême juge qu’une loi de l’État de Floride imposant aux journaux d’offrir aux candidats un « droit de réponse » aux éditoriaux critiques à leur égard est contraire au Premier amendement. En effet, une réglementation qui vise à équilibrer le poids dont disposent les parties (le candidat et son pourfendeur) en assurant à chacun un espace dans le même organe de presse se heurte à la liberté d’expression des éditeurs, parce que celle-ci contient tant la liberté de diffuser un message que celle d’en exclure certains[18]. La Cour suprême le confirme dans Hurley en 1995 : « une manifestation importante du principe de libre expression est que celui qui choisit de parler peut aussi décider de « ce qu’il ne dit pas[19] » ».

            Dans cette ligne jurisprudentielle, la Cour suprême a précisé plusieurs principes. Premièrement, le gouvernement ne doit pas intervenir dans les jugements éditoriaux portant sur des sujets d’intérêt public, car ceux-ci méritent le plus haut degré de protection. Deuxièmement, ce principe ne vaut pas uniquement pour la presse, mais aussi pour les entreprises commerciales et les particuliers. Troisièmement, le Premier amendement s’applique, quel que soit le degré de cohérence et de précision de l’expression. Il suffit qu’il existe une intention de communiquer un message avec une probabilité suffisante que celui-ci soit compris[20].

            Sur le fondement de ces principes, la juridiction new-yorkaise saisie dans l’affaire Baidu a considéré que le Premier amendement doit protéger les résultats proposés par des moteurs de recherche contre la régulation entreprise par les pouvoirs publics. Elle établit l’analogie, puis avance les raisons pour lesquelles l’activité de Baidu est protégée par le Premier amendement.

            Pour formuler l’analogie avec le travail éditorial, elle décrit l’activité de Baidu qui est d’ « extraire les informations pertinentes du vaste univers des données » et de « les organiser le plus utilement possible pour celui qui lance une recherche[21] ». Autrement dit, Baidu est à l’origine d’un jugement qui porte sur la sélection des informations et sur leur affichage – exactement comme le rédacteur en chef qui choisit ses dépêches ou l’auteur d’un guide qui retient certaines attractions touristiques au détriment des autres. Trier et présenter revient à exprimer son opinion sur ce qui importe, ou sur ce qui est susceptible de répondre à l’attente du lecteur.

            La Cour new-yorkaise affirme que cette activité est bien protégée par le Premier amendement, en avançant plusieurs arguments. D’abord, la nature factuelle des données collectées et communiquées par les moteurs de recherches ne diminue pas leur importance dans la construction du débat public : les faits constituent le point de départ des discours susceptibles de faire avancer le savoir, et méritent autant que les opinions la protection du Premier amendement. De plus, le rôle des algorithmes dans la sélection des informations et leur adéquation à la demande de l’internaute n’altère pas ce constat : le traitement des données est certes automatique, mais les algorithmes sont écrits par des hommes, ils « incorporent[22] » le jugement des ingénieurs de Baidu. Les résultats d’un traitement algorithmique relèvent donc du champ d’application du premier amendement[23]. Enfin, les arguments des plaignants se retournent contre eux-mêmes. En arguant qu’ils sont victimes de discriminations ciblées, ils reconnaissent implicitement que la plateforme exerce un contrôle éditorial sur les résultats qui touchent certains domaines (politiques notamment), en défavorisant l’expression du mouvement démocrate chinois. Leurs attaques font de Baidu bien plus qu’une « infrastructure ou plateforme délivrant du contenu[24] ». Attribuer au moteur de recherche une décision consciente sur le contenu éditorial, et l’exclusion délibérée de certaines opinions, c’est souscrire à l’image que le moteur de recherche veut renvoyer de lui-même : un locuteur, dont le discours doit être protégé par le Premier amendement[25]

            Ainsi, conclut la Cour, la décision imputée à Baidu de porter atteinte aux discours pro-démocratie est « elle-même protégée par l’idéal démocratique de la libre expression[26] ». En vertu du Premier amendement, rappelle la Cour, même les concepts sacrés pour la nation peuvent être remis en cause sur le marché des idées. La symétrie entre les droits apparaît alors : le Premier amendement protège le droit de Baidu de militer pour un régime autre que la démocratie (en Chine ou ailleurs) « aussi fermement (surely[27]) » que les droits des requérants à militer pour la démocratie. 

 2) Le triomphe de l’analogie avec l’éditeur 

            L’analogie assimilant l’opérateur de plateforme à un éditeur est confirmée par la United States District Court du Middle District of Florida (Fort Myers Division) en 2017 dans l’affaire E-ventures Worldwide v. Google[28]. Elle s’impose, plus précisément, pour défendre le moteur de recherche, lorsque celui-ci ne peut pas s’appuyer sur le régime favorable du CDA § 230. E-ventures est une entreprise de conseil qui aide ses clients à remonter dans les classements des moteurs de recherche, sans rémunérer ces derniers. Les Guidelines de Google interdisent un certain nombre de procédés qui modifient les résultats obtenus par le moteur de recherche. Considérant que les sites d’E-ventures contrevenaient à ces principes, Google exclut ces sites des résultats affichés par son moteur de recherche. E-ventures accuse alors Google de concurrence déloyale, de pratiques commerciales trompeuses et déloyales et d’interférence illégale dans les contrats. 

            Dans sa défense, Google invoque le régime favorable que réserve aux intermédiaires le CDA § 230 pour affirmer que sa responsabilité n’est pas engagée. Ce texte de 1996 pose les conditions sous lesquelles les plateformes peuvent être tenues légalement responsables de contenus créés par leurs utilisateurs. La sous-section c (1) dispose à cette fin qu’ « aucun fournisseur ou utilisateur d’un service informatique interactif ne sera considéré comme l’éditeur (publisher) ou l’auteur (speaker) d’une information fournie par un autre fournisseur de contenu informationnel (information content provider) ». Le législateur entendait aussi protéger les plateformes lorsqu’elles limitaient l’accès à certains contenus afin de ne pas les dissuader de filtrer les contenus[29]. A cette fin, la sous-section c (2) ajoute que le fournisseur ou l’utilisateur du service en question ne peut être tenu responsable d’une action qu’il aurait menée volontairement et de « bonne foi » pour limiter l’accès à un contenu qu’il considère obscène, violent, etc. Le CDA ne correspond donc pas au rêve libertarien d’un espace numérique affranchi de toute règle[30] : il protège la sélection et le blocage de contenus opérés par les « bons samaritains[31] ».

            Ce régime de responsabilité limitée s’applique lorsqu’un contenu illicite reste accessible en ligne. Dans l’arrêt Barnes v Yahoo rendu par la United States Court of Appeals pour le neuvième circuit, la requérante accuse la plateforme de ne pas avoir bloqué l’accès à son faux profil créé par un ex petit ami, et sur lequel sont publiées des photos d’elle dénudée. Toutefois, Yahoo ne sera pas tenu responsable du maintien de ces photographies. En effet, le §230 limite la responsabilité de la plateforme pour « toute activité qui se réduit à la décision d’exclure ou non le contenu que des tiers cherchent à mettre en ligne[32] ». Autrement dit, on ne peut considérer l’inaction de Yahoo comme la création ou l’édition du contenu à laquelle la loi d’un État attache une pleine responsabilité. 

            Dans la jurisprudence antérieure au litige entre E-ventures et Google, ce raisonnement vaut également lorsque, comme dans le cas de ce litige, le contenu est créé par le requérant lui-même, et que la plateforme est accusée d’avoir rendu un contenu inaccessible et non de l’avoir maintenu en ligne. Dans une affaire de 2015, Sikhs for Justice[33], une association de défense des droits humains basée à New York, conteste le blocage par Facebook de plusieurs de ses pages en Inde. Dans sa requête, l’association considère la plateforme comme un éditeur, de sorte que Facebook peut se prévaloir de l’exonération prévue au §230. En se référant à Barnes, la juridiction saisie estime au contraire que le réseau social se contente de faire apparaître ou non un contenu qu’il n’a pas créé : Facebook est un « tiers[34] » et non le « fournisseur de contenu[35] ». Le régime de responsabilité limitée s’applique ainsi à la plateforme même lorsque son filtrage est contesté par l’auteur du contenu lui-même. C’est dans cette configuration qu’apparaît le conflit entre l’expression de l’utilisateur (fournisseur de contenu) et la restriction opérée par la plateforme. 

            Toutefois, dans ­E-ventures, la juridiction floridienne signale les limites de ce raisonnement. Elle relève que si l’on admettait que Google ne peut être tenu responsable du déréférencement dont l’accuse le site sur la base du §230 sous-section c (1), l’immunité générale de cette sous-section engloberait l’immunité de la sous-section c (2). Or, ces deux immunités s’appliquent à des situations différentes. En effet, la première s’applique aux cas dans lesquels les opérateurs de plateforme s’abstiennent de filtrer ou de supprimer des contenus, tandis que la seconde protège les opérateurs qui filtrent effectivement, en rendant certains contenus inaccessibles. Comme le souligne le juge, si l’on affirme que l’action de Google, à l’origine du déréférencement des sites du requérant, relève de l’immunité générale qui s’applique aux plateformes lorsque précisément elles ne font rien, on sous-entend que la sous-section c (2) est « superflue »[36]. Pourtant, cette dernière apporte des précisions importantes : elle protège l’action des plateformes si et seulement si elles sont entreprises de « bonne foi ». Cette condition n’est pas remplie en l’espèce, poursuit le juge, puisque Google a agi en suivant ses intérêts économiques, et non pour supprimer un contenu illicite. Dès lors pour la juridiction floridienne, Google ne peut se fonder sur le §230 dans son litige l’opposant à E-Ventures. C’est à ce stade de son raisonnement qu’apparaît l’analogie avec l’éditeur. Comme le CDA ne peut être invoqué, le juge se tourne vers le Premier amendement. 

            Les raisonnements fondés sur le CDA et sur le Premier amendement reposent, remarquons-le, sur des prémisses exactement opposées. Le premier, en effet, se fonde sur le refus d’attribuer le statut d’éditeur aux plateformes, alors que le second met en avant la nature éditoriale du jugement. Dans le second cas, pour se défendre, la plateforme ne doit plus montrer qu’elle n’est qu’un « tiers » mais au contraire qu’elle est une titulaire légitime du droit à la liberté d’expression. De cette façon, le tribunal confirme l’analogie établie dans Zhang. Ses décisions sont comparables à celles d’un rédacteur en chef lorsqu’il choisit l’article qui figurera en première page de son journal, et écarte un papier qui ne mérite pas d’être publié[37]. Les résultats sont donc protégés par le Premier amendement, que la sélection soit juste ou injuste, qu’elle réponde à des motifs désintéressés ou financiers[38]. Cette conclusion est confirmée dans une affaire plus récente, qui oppose Google à un journal en ligne, déréférencé en raison de photos de nudistes sur son site[39]. Dans ce cas encore, ce choix appartient à Google, et s’apparente au choix du New York Times de faire figurer ou non un livre dans sa liste de « best-seller ». 

            Pourquoi cette protection est-elle accordée aux moteurs de recherche et non aux réseaux sociaux ? Dans l’affaire des militants pour les droits de la minorité sikhe, la liberté de Facebook en tant qu’éditeur n’est pas même invoquée par le défendeur. Est-ce parce que la contribution au contenu est plus nette dans le cas du moteur de recherche, alors que les réseaux sociaux publient les contenus d’auteurs qu’ils ont vocation à mettre en relation ? Dans les litiges qui opposent Facebook à ses abonnés, les juges mettent plus souvent l’accent sur les véritables forums publics que sont devenues les plateformes.

B. Le rôle « spécial » des réseaux sociaux dans le débat public selon les juridictions italiennes

            Certains réseaux sociaux sont désormais incontournables dans le débat public. Ainsi, dans une recommandation visant à redéfinir la notion de média au regard des évolutions récentes du champ médiatique, le Comité des ministres du Conseil de l’Europe observe que les services apportés par les opérateurs de plateforme politiques et en particulier les réseaux sociaux « sont devenus des guides essentiels vers l’information, transformant parfois les intermédiaires ou les auxiliaires en gardiens ou en acteurs qui jouent un rôle actif dans le processus éditorial de la communication de masse[40] ». Dans le champ politique, cette importance est évidente. Tous les partis et personnalités politiques se doivent de disposer de comptes sur certains réseaux sociaux (Facebook, Twitter ou Instagram plus récemment), devenus des espaces clefs de la « lutte partisane[41] ». Cette position de force dont jouissent les opérateurs de ces réseaux a pu justifier leur soumission à des règles spécifiques visant notamment à encadrer la manière dont elles peuvent exclure un acteur politique, donc le priver d’un accès au débat public.

            L’ordonnance du Tribunal de Rome du 11 décembre 2019 relative à la désactivation par Facebook des pages du parti politique d’extrême-droite Casapound Italia, ainsi que des pages des représentants de ce parti et des associations le soutenant, repose sur un raisonnement de cet ordre[42]. La désactivation ayant eu lieu sans notification ou justification, Casapound et son dirigeant interrogent l’entreprise. Facebook indique que ces désactivations sont liées à des violations des conditions d’utilisation de son site. Le point 2 des « Standards de la Communauté » – la partie des Conditions d’utilisation relatives à ce qui est autorisé sur le réseau – prohibe les organisations animées par la haine, c’est-à-dire « toute association de trois personnes ou plus organisées sous un nom ou un symbole et dont l’idéologie, les déclarations ou les actions physiques portent atteinte à des individus en fonction de caractéristiques, notamment l’ethnicité ou l’origine ethnique, l’affiliation religieuse, la nationalité, le sexe, l’orientation sexuelle, une maladie grave ou un handicap ». Facebook affirme que Casapound est une telle organisation, en s’appuyant sur le contenu des pages litigieuses et surtout sur ses activités politiques en dehors du réseau social. L’entreprise relève notamment la présence de symboles nazis ainsi que des agressions de membres de minorités dans le cadre des meetings de ce parti politique se réclamant du fascisme italien[43].

            Casapound saisit alors la juridiction romaine en référé afin de contraindre Facebook à réactiver ses comptes. Cette demande est fondée, selon la juridiction italienne, parce que Facebook occupe une « position spéciale[44] ». En raison du nombre de ses utilisateurs, ce service est devenu l’un des médias principaux du débat politique italien. Dès lors, l’exclusion d’un parti politique ne peut être analysée uniquement sous l’angle d’une rupture des relations contractuelles entre l’entreprise et l’utilisateur. Il s’agit aussi d’une atteinte à un principe constitutionnel. En effet, « l’importance prééminente de Facebook dans la mise en œuvre de principes essentiels du système politique tel que le pluralisme des partis politiques garanti par l’article 49 de la Constitution[45] » implique que dans ses relations avec ses utilisateurs, Facebook ne porte pas atteinte à ces principes constitutionnels. L’exclusion d’un parti politique étant une atteinte particulièrement forte au pluralisme, la désactivation doit être soumise à des garanties procédurales et à un contrôle de proportionnalité rigoureux, garanties qu’en l’espèce Facebook ne respecte pas[46].

            Selon le Tribunal de Rome, Facebook qui n’est pas un organe étatique, débiteur habituel des droits constitutionnels, doit néanmoins respecter ces droits. Sur ce point, les formulations courtes, allusives, et parfois confuses de cette ordonnance sont précisées en appel. Statuant cette fois-ci dans une formation à trois juges, le Tribunal de Rome a confirmé que Facebook ne pouvait pas exclure Casapound. Cependant, le Tribunal a considéré, tout d’abord, que le comportement de Facebook avait porté atteinte, non au principe de pluralisme des partis politiques, mais à la liberté de manifestation des opinions protégée par l’article 21 de la Constitution italienne et d’association garantie par l’article 18. Si la suspension de la page par l’entreprise menace bien la capacité de Casapound à participer au débat public, ce risque est indépendant de son statut de parti politique, l’ingérence dans les capacités d’expression d’une association étant aussi une limitation de ses libertés constitutionnelles[47]. Ensuite, le tribunal relève que la liberté contractuelle peut être limitée par des obligations constitutionnelles, soit en interprétant les règles du droit des contrats conformément aux principes constitutionnels, soit en appliquant directement ces principes aux personnes privées[48]. En l’espèce, en raison de sa position spéciale, Facebook dispose d’un « pouvoir privé[49] » lorsqu’il régule les contenus présents sur son réseau. Ses actions peuvent menacer des droits constitutionnels au même titre que celles d’un organe étatique et notamment, les libertés d’association et de manifestation des opinions. Afin de permettre la pleine garantie de ces libertés, il est donc nécessaire du point de vue de l’ordre juridique italien, de contrôler la manière dont l’entreprise procède à cette régulation et, en particulier, aux suppressions de pages.

            La construction retenue par les deux ordonnances implique que Facebook ne saurait être considéré comme un intermédiaire passif. En septembre et octobre 2019, Nick Clegg, Vice-Président of Global Affairs and Communications de Facebook[50] et Mark Zuckerberg, CEO de l’entreprise[51], ont prononcé deux discours prenant le contre-pied de cette analyse. Selon eux, l’apport de Facebook à la démocratie est de permettre à chacun de communiquer librement et donc de participer librement au débat public. Il se devrait donc de rester un acteur passif, ce qui implique notamment de ne pas contrôler les messages des hommes politiques. A la différence des moteurs de recherche dans les affaires Zhang et E-ventures Worldwide, Facebook nie donc exercer un contrôle éditorial.

            Cette ligne d’argumentation est toutefois prise en défaut. Les dirigeants de Facebook admettent en effet que tous les discours ne peuvent être publiés. Ils ont ainsi mis en place des mécanismes de modération prohibant par exemple les discours de haine. Or la décision de Facebook concernant Casapound, prise quelques jours avant le discours de Nick Clegg, montre que le discours politique peut parfois être considéré comme un discours de haine. L’entreprise doit alors choisir entre censurer ou tolérer ces discours[52], en fonction de leur gravité, du statut de leur auteur ou du contexte politique les entourant. La plateforme cesse donc d’être un acteur passif et technique et choisit les discours que ses usagers peuvent recevoir.

            Réduire les opérateurs de plateformes au statut d’intermédiaires passifs est intenable. Les moteurs de recherches et réseaux sociaux peuvent exclure des acteurs politiques du débat public, interdire certains messages et ainsi régenter la tenue du débat. Certaines plateformes disposent en outre d’une position telle dans l’espace public, qu’elles peuvent, en l’excluant, contribuer à rendre un acteur ou message inaudible. Pourtant, les arguments en faveur d’un encadrement de la régulation, dont nous donnons un aperçu ci-dessous, ont rarement abouti. 

II. Quelques arguments juridiques pour encadrer la régulation par les opérateurs des plateformes et leurs limites

            Les deux raisonnements déjà présentés interprètent de façon opposée le rapport de force entre l’opérateur de plateforme et ses utilisateurs, ce qui les expose à des critiques distinctes. 

            Le raisonnement fondé sur la protection de la liberté éditoriale des opérateurs de plateforme employé par certaines juridictions états-uniennes se heurte à une série de difficultés. Il ignore qu’un conflit entre les plateformes et leurs utilisateurs ne se présente pas comme un conflit entre deux forces égales. L’utilisateur ne peut pas simplement quitter la plateforme dont la politique lui est défavorable pour en rejoindre une autre, car cela peut contribuer à marginaliser son discours. Un tel déséquilibre compromet l’égalité d’accès au débat public. En outre, l’analogie entre une plateforme – et notamment un moteur de recherche – et un éditeur ne va pas de soi. Alors qu’un journal sélectionne sciemment un contenu, ce n’est pas le cas de moteurs de recherches qui procèdent de manière automatisée. Or, le Premier amendement protège uniquement la sélection consciente de l’information[53]. Par ailleurs, alors qu’un éditeur fait le choix de publier un article ou une vidéo et en assume la responsabilité, il n’en va pas de même pour l’opérateur de plateformes[54]. Au début des années 2010, le site le mieux référencé lorsqu’était recherché le mot « Jew » sur Google, était un site conspirationniste antisémite. Plutôt que de le déréférencer, Google a indiqué que les résultats de ses algorithmes étaient sans lien avec les croyances et convictions de ses employés[55]. Surtout, en droit états-unien, ce raisonnement limite considérablement la possibilité pour l’État d’encadrer la régulation du débat public par les plateformes. C’est la raison pour laquelle les opérateurs de plateforme ont revendiqué avoir une activité similaire à celle d’un éditeur de presse. 

            Au contraire, dans les arrêts Casapound, les juridictions romaines adoptent un raisonnement prenant très au sérieux le déséquilibre des forces. C’est le rôle incontournable de certaines plateformes dans le débat public qui justifie de faire peser sur elles des obligations concernant le respect des droits fondamentaux de leurs usagers, et notamment leur liberté d’expression. Dans cette perspective, les plateformes ne peuvent, quand elles régulent, s’affranchir du respect de ces droits. Un tel raisonnement soulève une difficulté importante. Dans de nombreux ordres juridiques – dont l’ordre juridique italien -, il est admis que les acteurs privés peuvent être les débiteurs de certains droits fondamentaux, car les « les libertés ne changent pas de nature selon que les menace une autorité publique ou un particulier[56] ». Sans cela, on n’échapperait à l’arbitraire de l’État « que pour tomber sous la domination des puissances privées[57] ». On « ne ferait que changer de servitude[58] ». Il n’en demeure pas moins que l’objet des Constitutions n’est pas à titre principal d’encadrer les relations entre particuliers, mais de réguler les pouvoirs publics[59] tandis que le droit international des droits de l’homme a pour sujet les États, et non les particuliers. Dès lors, si quelques rares ordres juridiques reconnaissent l’applicabilité immédiate des droits fondamentaux aux personnes privées[60], cette application est le plus souvent médiatisée par la figure de l’État. 

            La lecture de ces deux décisions témoigne de la difficulté qu’il y a à saisir le rapport de force entre l’opérateur de plateformes et ses utilisateurs, sans tomber dans l’écueil qui consiste soit à les placer sur le même plan, soit à traiter les plateformes comme un pouvoir public, sans le justifier. Nous examinons, dans ce qui suit, trois arguments qui ont été avancés devant les juridictions, en Europe ou aux États-Unis, sans généralement aboutir, pour identifier le rôle de cette régulation privée, et en déduire des obligations relatives au respect de la liberté d’expression. La richesse de la jurisprudence états-unienne sur ces questions explique la place qui lui est réservée. La suppression d’un contenu par une plateforme en France n’a par exemple jamais été envisagée sous l’angle d’une atteinte à la liberté d’expression de son utilisateur[61]. Par ailleurs les juridictions suprêmes européennes font elles-mêmes abondamment référence à la jurisprudence de la Cour suprême des États-Unis sur ces questions[62].

            Selon les deux premiers arguments, il incombe à l’État de réguler l’action des plateformes comme il le fait pour un intermédiaire en situation de monopole tel qu’un opérateur de câble qu’il soumet à un devoir de neutralité (A) ou un espace privé ouvert au public, semblable à un centre commercial (B). Selon le troisième argument, l’opérateur de plateforme doit être assimilé à une personne publique (C). Lorsque la personne privée agit comme l’État, l’obligation de respecter les droits fondamentaux peut lui être étendue. 

A. Un intermédiaire en situation de monopole : l’analogie avec les opérateurs de câbles

            La première analogie disponible, rejetée par la juridiction new-yorkaise dans Zhang[63], se fonde sur le monopole de certaines plateformes dans le débat public. Elle rapproche les opérateurs de plateformes des opérateurs de câbles. À la suite de la réglementation édictée par la Federal Communications Commission (FCC), les Cable Acts de 1984 et 1992 ont en effet créé aux États-Unis une obligation de transporter les programmes de télévisions locales qui n’auraient pas d’autres moyens de trouver une audience. Dans Turner Broadcasting System, la Cour suprême a indiqué que cette régulation était conforme aux exigences du Premier amendement[64]. En effet, si cette obligation peut être considérée comme imposant un discours forcé (compelled speech), la Cour suprême avait indiqué dans un arrêt Red Lion Broadcasting, qu’une agence fédérale pouvait réguler des chaînes de télévision si cette régulation était justifiée par un intérêt général important[65]. Transposant cette solution aux câblo-opérateurs, la Cour suprême a indiqué que l’obligation de transport imposée par la FCC était justifiée par la situation de monopole dans laquelle se trouvaient les câblo-opérateurs. L’objectif gouvernemental d’assurer la survie des chaînes locales, et d’encourager la compétition sur le marché des chaînes de télévision implique en effet que les chaînes locales puissent atteindre les clients des câblo-opérateurs. 

            Obliger un opérateur de plateforme à diffuser certains contenus ou à accepter certains acteurs pourrait ainsi relever d’une régulation analogue aux règles qui s’appliquent aux fournisseurs d’accès à internet. En raison de leur position particulière dans le débat public, de la situation quasi monopolistique dont ils bénéficieraient, l’action des opérateurs de plateformes devrait être encadrée par l’État afin de garantir la liberté d’expression. L’analogie esquissée ici n’est toutefois pas sans soulever de difficultés. En particulier, un raisonnement en termes d’obligation de protection des États suppose d’admettre une situation monopolistique des opérateurs de plateformes. Ce n’est en effet qu’à ce titre que leur action peut restreindre la liberté d’expression, de telle sorte que les États seraient tenus d’agir. Dans le cadre des plateformes, il peut être argué que les informations, inaccessibles au travers d’un tel réseau, peuvent toujours être obtenues par d’autres moyens – presse écrite, télévision, radiodiffusion, autres réseaux. Les réseaux sociaux ne seraient ainsi jamais dans une situation quasi monopolistique[66]. Toutefois, ainsi que l’a relevé le Tribunal de Rome dans ses ordonnances Casapound, il semble évident que certaines plateformes occupent une position spéciale dans le débat public en raison de leur taille et de leur rôle. Pour identifier ces réseaux, une solution similaire à celle adoptée dans le cadre de la loi française contre la manipulation de l’information en période électorale pourrait être retenue. L’article 1 de cette loi a modifié l’article L.163-1 du Code électoral pour faire peser des obligations de transparence sur les opérateurs de plateformes en ligne « dont l’activité dépasse un seuil déterminé de nombre de connexions sur le territoire français ». Un décret du 10 avril 2019 relatif aux obligations d’information des opérateurs de plateforme en ligne assurant la promotion de contenus d’information liés à un débat d’intérêt général a fixé ce seuil à cinq millions de visiteurs uniques par mois, par plateforme. 

B. De nouveaux « forums » ouverts au public

            Deuxième argument, les plateformes sont également parfois comparées à un « forum public ». Cette comparaison a été employée dans des termes différents devant des juridictions états-uniennes, qui l’ont rejetée, et dans la doctrine, en se fondant sur la jurisprudence de la Cour européenne des droits de l’homme. Malgré les différentes terminologies, l’idée est la même : la régulation des discours sur un forum public appartenant à un acteur privé doit être soumise à un contrôle rigoureux. En effet, selon la doctrine du « forum public » états-unienne, les parcs et les rues sont des lieux qui appartiennent aux citoyens et où ils se rassemblent pour échanger des idées[67]. L’importance de ces usages explique que les règlementations de l’État portant sur le contenu des messages ainsi diffusés soient soumises au contrôle juridictionnel le plus strict (strict scrutinity[68]). Il a donc pu être envisagé de qualifier les plateformes de forum public[69]. Une telle qualification est cependant intenable, selon un arrêt récent de la Cour de district de Californie, se fondant sur la doctrine de l’action d’État défendue par la Cour Suprême. L’affaire oppose Facebook à une association russe (FAN[70]), après la fermeture de sa page suite à l’élection présidentielle américaine. Pour contester cette décision, les requérants associent le réseau à un « forum public » ouvert à n’importe quelle personne de plus de 13 ans[71], ce que dément clairement la Cour. Se référant à l’arrêt Lloyd v Tanner[72], elle rappelle que « la propriété ne perd pas son caractère privé simplement parce que le public est généralement invité à l’utiliser à des fins précises ». Par conséquent, le nombre d’abonnés qui créent et partagent des contenus sur son réseau ne fait pas de la plateforme un « forum public » au sens de la doctrine. Le juge s’interroge cependant sur la compatibilité de cette affirmation avec celle de la Cour suprême, dans Packingham v North Carolina[73], qui qualifie l’espace numérique de « lieu le plus important » pour l’échange d’opinions et les réseaux sociaux de « place publique moderne ». Les plateformes sont certes « analogues » aux forums publics traditionnels, conclut le juge dans Fan, mais ce ne sont pas des « acteurs publics » (state actors[74]).

            Plus précisément, pour la juridiction californienne, le raisonnement établi par la Cour suprême doit être replacé dans son contexte. En affirmant qu’une loi interdisant à un délinquant sexuel de s’inscrire sur les réseaux sociaux comptant des mineurs parmi ses abonnés était contraire au Premier amendement, la Cour faisait référence au rôle incontournable de l’espace numérique, et des réseaux sociaux, pour l’exercice de la liberté d’expression. Comme le souligne une juridiction californienne dans Prager[75], l’arrêt ne dit cependant rien du statut des plateformes, et ne les associe pas à des « acteurs publics » soumis aux exigences du Premier amendement lorsque les opérateurs des plateformes modèrent ou suppriment des contenus[76]. Dans Packingham v North Carolina, la liberté d’expression est opposée à l’État de Caroline du Nord, et non à des acteurs privés[77]

            Le même parallèle est parfois établi dans la doctrine[78] à partir de l’arrêt Appleby[79] rendu par la Cour européenne des droits de l’homme en 2003. Dans cette affaire, une association avait installé ses stands dans un centre commercial afin d’attirer l’attention du public sur les risques environnementaux que présentait un projet de construction. L’intervention des agents de sécurité qui met fin à leurs actions est contestée par l’association au motif qu’elle porte atteinte à leur liberté d’expression. La société justifie son refus de laisser s’organiser la campagne sur sa propriété par un « principe de stricte neutralité[80] ».

            La régulation de l’expression dans un espace commercial soulève des questions légitimes, selon la Cour, parce que le centre commercial constitue en l’espèce le centre-ville de Washington (au Royaume-Uni) : le bureau de poste et les bureaux du service du logement, loués à la commune par la société propriétaire, se trouvaient par exemple au même endroit. La Cour reconnaît à cet égard que « l’évolution démographique, sociale, économique et technologique modifie les moyens de déplacement et de communication dont disposent les individus ». Elle ajoute cependant « n’être pas convaincue que cette évolution exige automatiquement la création d’un droit de pénétrer dans des propriétés privées[81] ». Autrement dit, la fréquentation assidue d’un espace privé incontournable ne suffit pas à donner raison aux requérants. L’existence d’autres options disponibles fournit le critère déterminant. Il s’agit pour le juge de vérifier si les requérants avaient la possibilité d’exprimer leur opinion ailleurs. L’ancien centre-ville, bien que moins fréquenté[82], les voies d’accès publiques au centre commercial, les commerces individuels, la radio et la télévision offraient de tels moyens, de sorte que la violation de l’article 10 de la Convention n’est pas constatée. En revanche, poursuit la Cour, « lorsque l’interdiction d’accéder à la propriété a pour effet d’empêcher tout exercice effectif de la liberté d’expression ou lorsque l’on peut considérer que la substance même de ce droit s’en trouve anéantie, la Cour n’exclut pas que l’État puisse avoir l’obligation positive de protéger la jouissance des droits prévus par la Convention en réglementant le droit de propriété[83] ».

            Certains auteurs ont trouvé dans la formulation de cette dernière hypothèse des raisons d’encourager l’État à protéger la liberté d’expression des utilisateurs dans un espace privé comme une plateforme numérique. Les conditions sont cependant très strictes, et il sera difficile de prouver qu’un réseau social était, pour un locuteur, le seul lieu d’expression disponible[84]. Par ailleurs, selon la Cour dans Appleby, le parallèle entre un espace privé ouvert au public et un espace public se justifie en dernière instance par la présence d’un « acte de puissance publique », c’est-à-dire d’un certain « degré d’implication de l’État[85] ». Autrement dit, quand bien même on accepterait de suivre la doctrine quand elle transpose le raisonnement concernant les centres commerciaux aux plateformes, le critère de l’ouverture au public ne suffirait pas. 

C. Les plateformes agissent-elles comme des personnes publiques ? 

            Dans Fan v Facebook, la Cour de district californienne envisage l’hypothèse selon laquelle Facebook agirait comme une puissance publique. Elle reprend en particulier deux tests établis par la Cour suprême afin de déterminer si l’action d’une entité privée équivaut à une action d’État : la « fonction publique » et celui de l’action conjointe.

            Selon le premier test, l’action d’une entité privée peut être assimilée à une action publique si et seulement si elle relève d’une « prérogative exclusive de l’État[86] », comme l’organisation des élections ou la gestion d’une ville. La même Cour californienne a déjà eu l’occasion de préciser dans Prager que les plateformes qui hébergent des contenus ouverts au public n’exercent pas pour autant une « fonction publique » au sens du test. Dans cette affaire, une association qui œuvre pour la diffusion de points de vue conservateurs dans le débat public accuse Youtube d’avoir censuré plusieurs de ses vidéos, en soumettant leur accès à une condition d’âge. Les requérants avancent que Youtube agit comme un État, en se fondant sur les cas dans lesquels la Cour suprême a déclaré qu’une entité privée exerçait une fonction traditionnellement réservée à l’État. Dans Marsh v Alabama, la Cour suprême avait en effet reconnu à un témoin de Jéhovah la possibilité d’invoquer les droits découlant du Premier amendement dans une ville entièrement gérée par une compagnie privée[87].

            Dans Prager, la Cour californienne discute longuement cette analogie, mais ne la retient pas. En insistant sur l’ouverture au public des vidéos hébergées par la plateforme, les requérants méconnaissent la nature du test. La Cour suprême a précisé, après Marsh, que c’était l’activité d’une entité privée qui pouvait la « transformer » en acteur public à des fins constitutionnelles[88]. Il faut identifier des fonctions que l’Etat est traditionnellement le seul à exercer pour admettre un tel raisonnement : agir comme une municipalité en fait partie, mettre en ligne des vidéos très regardées n’y correspond pas. Les plateformes qui modèrent ou suppriment n’endossent donc pas cette « fonction publique », selon les juridictions états-uniennes[89].

             Cette décision est confirmée en appel : les principes établis par la Cour suprême ne sont pas « tombés en désuétude[90] » à l’ère numérique. Seul le blocage par le titulaire d’un compte Twitter utilisé à des fins gouvernementales peut être considéré comme une action publique contraire au Premier amendement. C’est du moins la décision récente de la Cour d’appel des États-Unis pour le deuxième circuit au sujet du compte officiel du président Donald Trump[91]. Dans ce dernier cas, l’utilisation du réseau est bel et bien « affectée » à l’expression par l’État[92]. Rien de tel ne vaut pour une action menée par la plateforme elle-même. 

            Dans Fan contre Facebook, la Cour de district californienne vérifie ensuite si le réseau social ne pourrait être soumis aux obligations découlant du Premier amendement en raison du deuxième test, celui de l’ « action conjointe ». Selon celui-ci, les entités privées sont apparentées à des personnes publiques lorsque, de concert avec des fonctionnaires, elles œuvrent à la violation de droits constitutionnels. La Cour doit donc vérifier si Facebook a agi en collaboration avec le gouvernement américain. L’hypothèse tire sa plausibilité du contexte : les soupçons d’ingérence russe lors de la campagne présidentielle américaine de 2016 avaient conduit Facebook à supprimer plusieurs comptes. Fan accuse précisément la plateforme d’avoir transmis des informations aux autorités, et d’avoir agi sous leurs ordres. La juridiction californienne rappelle cependant que la transmission d’informations ne suffit pas à établir une relation satisfaisant le test de l’action conjointe. En outre, l’intérêt des autorités pour certaines pages d’abonnés russes s’est seulement manifesté après le blocage litigieux des comptes. Or la collaboration de Facebook une fois l’enquête menée ne peut transformer son action antérieure en une « action d’État » au sens de la doctrine. L’argument des requérants est rejeté dans cette affaire parce qu’aucun fait n’atteste d’une entente ou d’une rencontre entre les deux acteurs[93].

            Les deux vérifications faites, rien n’établit donc que la régulation du contenu par la plateforme équivaut à une action d’État. On touche ici au cœur de ce qui est établi, sans être justifié, par le Tribunal romain, dans des termes bien sûr très différents. En effet, la puissance d’un acteur aussi incontournable que Facebook lui donne un pouvoir qui le rapproche d’une autorité publique, mais le Tribunal ne semble pas avoir à sa disposition de tests pour asseoir cette ressemblance. La jurisprudence états-unienne, qui n’a jamais reconnu qu’une plateforme agissait comme un État, mais qui envisage néanmoins cette hypothèse, est éclairante, surtout si l’on songe aux nouvelles responsabilités conférées par le gouvernement aux plateformes dans plusieurs États européens. 

            La doctrine de l’action d’État n’a bien sûr pas vocation à s’appliquer aux ordres juridiques européens. On peut cependant se demander comment interpréter à la lumière de tests similaires l’action d’une plateforme qui agirait sous les ordres du législateur et sous la surveillance d’une autorité administrative pour supprimer les contenus qui tombent sous le coup de la loi. Le critère pertinent n’est plus dans cette perspective la dimension « incontournable » du forum, mais l’exercice d’un pouvoir, expressément conféré aux plateformes par le législateur. Cette responsabilité ne se limite pas à la responsabilité classique d’un éditeur à l’égard d’un contenu, dans la mesure où la sanction s’applique avant même que l’appréciation du caractère illicite d’un contenu ne soit soumise à un juge, ce qui revient à déléguer l’impératif de conciliation entre deux intérêts à la plateforme elle-même.

            L’État pourrait, sur ce fondement, être appelé à protéger la liberté d’expression des utilisateurs en encadrant, par la législation par exemple, le pouvoir de modération des plateformes au-dessus d’un certain nombre d’utilisateurs. Au sujet du déréférencement, qui concerne l’obligation de rendre un contenu inaccessible et non l’inverse, la Cour de justice de l’Union européenne a récemment confirmé que Google devait concilier le droit à la vie privée des « personnes concernées » par le contenu et la liberté d’information, comme composante de la liberté d’expression[94]. À la lumière des obligations qui pourraient s’imposer aux plateformes lorsqu’elles régulent de fait le débat public, les tribunaux seraient amenés à envisager les litiges comme Zhang en considérant la liberté d’expression des utilisateurs. En reconnaissant des droits à la plateforme elle-même, on aurait là affaire à un véritable conflit entre deux titulaires de la liberté d’expression. Ce n’est manifestement pas la voie suivie jusqu’à présent, ni en Europe, ni aux États-Unis.


[1] Décision n° 2020-801 DC du 18 juin 2020, Loi visant à lutter contre les contenus haineux sur internet

[2] La notion d’« opérateur de plateformes en ligne » est définie à l’article L. 111-7 du Code de la consommation. Il s’agit de « toute personne physique ou morale proposant, à titre professionnel, de manière rémunérée ou non, un service de communication au public en ligne reposant sur […] le classement ou le référencement, au moyen d’algorithmes informatiques, de contenus, de biens ou de services proposés ou mis en ligne par des tiers […] ou la mise en relation de plusieurs parties en vue de la vente d’un bien, de la fourniture d’un service ou de l’échange ou du partage d’un contenu, d’un bien ou d’un service ». Cette catégorie fut introduite par la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique mobilisée, employée de nouveau par la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information. 

[3] Concernant cette décision, voir notamment Brunessen Bertrand et Jean-François Sirinelli, « Le Conseil constitutionnel et la liberté d’expression et de communication : la voie étroite de la lutte contre les discours de haine sur internet – Conseil constitutionnel, 18 juin 2020, n° 2020-801 DC – Qualification de la décision : importante », Dalloz IP/IT, no 10, 2020, p. 577.

[4] David Kaye, Speech Police: the Global Struggle to Govern the Internet, New York : Columbia Global Reports, 2019.

[5] Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur («directive sur le commerce électronique»), article 14.

[6] Règlement (UE) 2015/2120 du Parlement européen et du Conseil du 25 novembre 2015 établissant des mesures relatives à l’accès à un internet ouvert

[7] Tarleton Gillespie, Custodians of the Internet – platforms, content moderation, and the hidden decisions that shape social media, New Haven et Londres : Yale University Press, 2018, 288 p.

[8] En France, dès l’introduction de la notion d’opérateurs de plateforme en ligne par la loi sur la République numérique en 2016, le problème fut soulevé sans pouvoir être tranché. Voir par exemple Valérie Nicolas, « Internet et le pluralisme des courants d’opinion : opportunité ou menace ? », in Roseline Letteron (dir.), La liberté de la presse écrite au XXIe siècle, Paris : CNRS Éditions, 2017, p. 165‑182.

[9] Tribunal de Rome, ord., 29 avril 2020, n° 80961/19, pt. 5.

[10] Concernant ce « mythe de la neutralité des plateformes », voir Gillespie, op. cit. (note 7), p. 24 et suiv. Sur le fonctionnement de cette régulation des discours par les opérateurs des plateformes, voir également Romain Badouard, Les nouvelles lois du Web. Modération et censure, Paris : Seuil, 2020.

[11] Voir Langdon v. Google, Inc., 474 F. Supp. 2d 622, 629-30 (D. Del. 2007) sur le droit de Google de ne pas vendre des espaces publicitaires à certains annonceurs, ou Search King, Inc. v. Google Tech., Inc., No. 02-1457, 2003 WL 21464568. Dans cette dernière affaire, Search King, une entreprise d’optimisation pour les moteurs de recherche, accuse Google d’avoir rétrogradé les sites de ses clients, après avoir identifié les stratégies d’optimisation. La Cour reconnaît que les résultats du moteur de recherche constituent un discours protégé par le Premier Amendement. L’algorithme de Google est une « opinion » qui mérite une protection constitutionnelle, Voir Tim Wu, « Machine Speech », University of Pennsylvania Law Review, vol. 161, no 6, 2013, p. 1526-1530. 

[12] Les juridictions américaines ont établi que le logiciel était du « discours » (speech) au sens du Premier amendement, Amy Kapczynski, « The Law of Informational Capitalism », Yale Law Journal, vol. 129, no 5, 2020, p. 1510.

[13] Eugene Volokh et Donald M Falk, « First Amendment Protection for Search Engine Search Results – White Paper Commissioned by Google », SSRN Journal SSRN Electronic Journal, 2012.

[14] Cette interprétation s’inscrit dans l’usage plus général que font les entreprises du Premier amendement pour contester les lois qui tenteraient de réguler leurs activités, voir (Kapczynski, op. cit. [note 12], p. 1510).

[15] Zhang v. Baidu. Com Inc., Dist. Court, SD New York 2014, ci-après Zhang.

[16] Ibid435.

[17] Miami Herald Publishing Company v. Tornillo, 418 U.S. 241 (1974).

[18] La loi n’exerce certes pas une censure au sens traditionnel du terme, mais en forçant le journal à publier certains messages, elle fait peser sur lui une obligation fondée sur le contenu. Elle risque par ailleurs de dissuader les journaux de parler en des termes défavorables de candidats, ou pourrait, à l’inverse, inciter le journal à répondre à son tour aux réponses des candidats, alors qu’il aurait préféré rester silencieux. Par conséquent, la loi porte atteinte à la liberté d’exercer un « contrôle et un jugement éditorial » protégé comme une « expression » par le Premier amendement. Voir dans ce dossier l’article à paraître d’A. Palanco. 

[19] Hurley v. Irish American Gay, Lesbian and Bisexual Group of Boston, 515 U.S. 557 (1995), ci-après HurleyConcernant cette décision, voir dans ce dossier Gwénaëlle Calvès, « Interdiction de discriminer et conflits internes à la liberté d’expression. Actualité de la jurisprudence Hurley v. Irish-American Gay, Lesbian and Bisexual Group of Boston (Cour suprême des États-Unis, 1995) », RDLF, 2020. URL : http://www.revuedlf.com/droit-constitutionnel/interdiction-de-discriminer-et-conflits-internes-a-la-liberte-dexpression-actualite-de-la-jurisprudence-hurley-v-irish-american-gay-lesbian-and-bisexual-group-of-boston-cour-supreme-des-e/Consulté le 23 novembre 2020.

[20] Ibid.

[21] Zhang, 438.

[22] Ibid, 439

[23] Sur la protection par le Premier amendement du résultat d’un traitement algorithmique, voir Search King Inc v Google Inc, 2003 WL 21464568, au sujet de PageRank, l’algorithme à l’origine des classements établis par Google. Pour une analyse, voir Wu, op. cit. (note 11)., qui montre qu’il existe une distinction dans la doctrine entre les acteurs qui ont une relation purement fonctionnelle avec le discours (Fedex, les opérateurs de télécom) et les autres, qui seuls pourraient bénéficier de la protection du Premier amendement.

[24] Zhang, 440. La Cour discute ici les thèses de Oren Bracha et Frak Pasquale dans « Federal Search Commission? Access, Fairness, and Accountability in the Law of Search », Cornell Law Review, vol. 93, no 6, 2008, p. 11921197. Les auteurs y démontrent que les moteurs de recherche sont des outils fonctionnels, dont les résultats ne peuvent pas être considérés comme un discours.

[25] Pour la juridiction new-yorkaise, la nature et l’étendue de ces droits ne peuvent être affectées par la convergence entre les choix de Baidu et les intérêts des autorités chinoises (Zhang, 440, note 6).

[26] Ibid, 443. 

[27] Ibid

[28] E-ventures Worldwide v. Google, Inc., 2:14-cv-00646-PAM-CM at 8-9 (M.D. Fla. Feb. 8, 2017), ci-après E-ventures Worldwide.

[29] Danielle Keats Citron et Benjamin Wittes, « The Internet Will Not Break: Denying Bad Samaritans § 230 Immunity », Fordham Law Review, vol. 86, no 2, 2017, p. 405406. Cela fait suite à l’arrêt Stratton Oakmont, Inc. v. Prodigy Servs. Co., 1995 WL 323710 (N.Y.Sup.Ct. May 24, 1995) dans lequel la Cour considérait qu’un fournisseur de service en ligne devait être tenu responsable d’un contenu diffamatoire. Le logiciel de filtrage et l’engagement de Prodigy à modérer le contenu avait joué en sa défaveur, conduisant la Cour à le considérer comme un éditeur. 

[30] Ibid., p. 407.

[31] CDA, 47 U.S. Code § 230, section c (2).

[32] Barnes v. Yahoo!, Inc., 570 F.3d 1096 (9th Cir. 2009), 1103, ci-après Barnes.

[33] Sikhs for Justice “SFJ”, Inc. v. Facebook, Inc., 144 F. Supp. 2d 1088 (N.D. Cal. 2015), ci-après SFJ. 

[34] SFJ. Dans cette affaire de 2015, il n’est jamais question de la libre opinion de Facebook aboutissant à l’exclusion de certains contenus. C’est l’occasion pour la cour californienne de donner des précisions sur le CDA, qui protège un prestataire de service informatique affichant passivement un contenu entièrement créé par un tiers, mais pas un prestataire de service informatique qui agit comme un fournisseur d’information en créant ou en développant le contenu en question, voir Fair Housing Council of San Fernando Valley v. Roommates.com, LLC, 521 F.3d 1157 (9th Cir. 2008), ci-après Roommates

[35] SFJ, 1093-1094. A l’inverse, un site qui met en contact de potentiels colocataires, ne bénéficie pas du régime prévu par le §230 lorsqu’il affiche des questions sur l’orientation sexuelle des candidats, parce qu’il contribue directement à la création du contenu, voir Roomates. Cela se confirme dans Federal Agency of News LLC, et al., v. Facebook, Inc, 18-CV-07041-LHK (District Court, N.D. California, 20 July 2019), ci-après Fan.

[36] E-ventures, 7.

[37] Volokh et Falk, op. cit(note 13), p. 34.

[38] E-ventures Worldwide, voir Robert Simpson et Heather Whitney, « Search Engines and Free Speech Coverage », in S. J. Brison et K Gelber (dir.), Free speech in the digital age, Oxford, Oxford University Press, 2019, p. 33-51.

[39] Les photos d’une colonie de nudistes dans les montagnes de Santa Cruz avaient valu au site de ne plus apparaître en tête des résultats du moteur de recherche, S. Louis Martin v Google Inc, Suprior Court of California (November 2014), CGC-14-539972 (Cal Sup SF).

[40] « Services provided by these new actors have become essential pathfinders to information, at times turning the intermediaries or auxiliaries into gatekeepers or into players who assume an active role in mass communication editorial processes » (Recommendation CM/Rec(2011)7 of the Committee of Ministers to member states on a new notion of media).

[41] En ce sens, voir Fabienne Greffet, « Le web, espace de luttes partisanes », in Fabienne Greffet (dir.), Continuerlalutte.com, Paris : Presses de Science Po, 2011, p. 15-37.

[42] Tribunal de Rome, ord., 11 décembre 2019, n° 59264/2019, CasaPound

[43] Ibid, pt.3.

[44] Ibid.

[45] Ibid.

[46] Ibid.

[47] Tribunal de Rome, ord., 29 avril 2020, n° 80961/19, pt.11.

[48] Ibid., pt.9. Confrontées à des litiges similaires, les juridictions allemandes saisies se sont limitées à une interprétation du droit des contrats conformes aux principes constitutionnels (OLG München, 24 août 2018, n° 11 O 3129/18 ; OLG Heidelberg, 28 août 2018, n°1 O 71/18). Sans doute est-ce lié au fait que la Constitution italienne ne contient pas un équivalent de l’article 1, al. 3, de la Loi fondamentale allemande qui dispose que « les droits fondamentaux […] lient les pouvoirs législatif, exécutif et judiciaire à titre de droit directement applicable ». En raison de cette disposition, la dogmatique allemande des droits fondamentaux a procédé à une distinction entre l’effet direct des droits fondamentaux et un effet indirect pouvant concerner les personnes privées. Sur ce point, voir David Capitant, Les effets juridiques des droits fondamentaux en Allemagne, Paris : L.G.D.J., 2001, p. 244 et suiv. Les juridictions italiennes ont ainsi pu reconnaitre sans difficulté, une application directe des droits fondamentaux aux personnes privées. Voir par exemple à propos de la liberté d’association, Cour de cassation, section 1, 4 juin 1998, arrêt n° 5476. Concernant les différentes formes que peut prendre l’effet horizontal des droits fondamentaux, voir notamment Thomas Hochmann, « Typologie des effets horizontaux », in Thomas Hochmann et Jörn Reinhardt (dirs.), L’effet horizontal des droits fondamentaux, Paris : Editions A. Pedone, 2018, p. 119-148.

[49] Angelo Jr. Golia et Rachel Behring, « Private (Transnational) Power without Authority – Online fascist propaganda and political participation in CasaPound v. Facebook », Verfassungsblog, 12 février 2020. URL : https://verfassungsblog.de/private-transnational-power-without-authority/. Consulté le 22 juillet 2020.

[50] Nick Clegg, Facebook, Elections and Political Speech, Washington, 24 septembre 2019. URL : https://about.fb.com/news/2019/09/elections-and-political-speech/. Consulté le 11 juillet 2020.

[51] Mark Zuckerber, Mark Zuckerberg Stands for Voice and Free Expression, Georgetown, 17 octobre 2019. URL : https://about.fb.com/news/2019/10/mark-zuckerberg-stands-for-voice-and-free-expression/. Consulté le 11 juillet 2020.

[52] La position de Facebook vis-à-vis de messages de Donald Trump signalée par Twitter, est un bon exemple d’une telle position. Concernant ces messages et la controverse qu’elle a provoqué, voir notamment Laura W. Murphy et Megan Cacace, Facebook’s Civil Rights Audit – Final Report, MenloPark : Facebook, 8 juillet 2020. URL : https://about.fb.com/wp-content/uploads/2020/07/Civil-Rights-Audit-Final-Report.pdf. Consulté le 11 juillet 2020.

[53] Wuop. cit. (note 11), p. 1521.

[54] Simpson et Whitney, op. cit. (note 38), p. 7.

[55] Concernant cette affaire, voir Stuart Minor Benjamin, « Algorithms and speech », University of Pensylvania Law Journal, vol. 161, no 6, 2013, p. 1469.

[56] Jean Rivero, Les libertés publiques, 3e éd., Paris : PUF, 1981 (I), p. 195.

[57] Jean Rivero, « La protection des droits de l’homme dans les rapports entre personnes privées », in René Cassin Amicorum Disciplorumque Liber, Paris : Pedone, 1969 (vol. 3), p. 322.

[58] Ibid.

[59] Olivier Beaud, « Les obligations imposées aux personnes privées par les droits fondamentaux. Un regard français sur la conception allemande », Jus Politicum, no 10, 2013, p. 18.

[60] Hochmann, op. cit. (note 48), p. 133.

[61] Dans l’affaire qui opposait un professeur d’histoire parisien et Facebook au sujet de la fermeture d’un compte suite à la publication de l’ « Origine du monde » de Courbet, il n’est question que d’évaluer les clauses abusives et d’identifier la juridiction compétente, TGI Paris, 5 mars 2015, n° 12/12401 et CA Paris, 12 févr. 2016, n° 15/08624.

[62] Voir par exemple l’arrêt Appleby de la Cour EDH présenté ci-dessous. 

[63] Zhang, 439-444.

[64] Turner Broadcasting System, Inc. v. FCC, 512 U.S. 622, ci-après Turner Broadcasting System.

[65] Red Lion Broadcasting Co. v. FCC395 U.S. 367, ci-après Red Lion Broadcasting.

[66] « Les opérateurs de moteurs de recherche n’ont pas le pouvoir matériel de réduire au silence la voix de quiconque, quelles que soient leurs parts de marché présumées » (Zhang, 441). 

[67] Hague v. CIO, 307 U.S. 496, 516 (1939), cité cité par Thomas Perroud, « Public Forum », in Marie Cornu, Fabienne Orsi et Judith Rochfeld (dirs.), Dictionnaire des biens communs, Paris : PUF, 2017, p. 1026.

[68] Sur ce point, voir par exemple Idris Fassassi, « La liberté de manifestation aux États-Unis », Jus Politicum, no 17, 2017, p.513-544.

[69] C’est toutefois la thèse soutenue par Cass. R. Sunstein (#Republic: Divided Democracy in the Age of Social Media, Princeton : Princeton University Press, 2017, p. 39 et suiv.). Toutefois, son interprétation repose sur une évolution importante de la jurisprudence de la Cour suprême. En l’état de cette jurisprudence, cette qualification est intenable.

[70] Fan, précité.

[71] Ibid.14.

[72] Voir Lloyd Corp. V Tanner, 407 US. 551, 569-70 (1972). 

[73] Packingham v. North Carolina, 582 U.S. (2017)

[74] Fan, 17.

[75] Prager Univ. v. Google. LLC, No. 17-CV-06064-LHK, 2018 WL 1471939, (N.D. Cal. Mar. 26, 2018), ci-après Prager.

[76] Ibid., 15.

[77] Voir aussi Nyabwa v. Facebook2018 WL 585467, *1 (S.D. Tex. Jan. 26, 2018). L’analogie avec la restriction d’une expression (la distribution de livres religieux) sur un terrain loué à l’État mais géré par une entité privée organisant une fête est également étudiée et écartée par le tribunal.

[78] András Koltay, Internet Intermediaries and Article 10 of the European Convention on Human Rights: The New Subjects of Media Freedom, Social Science Research Network, 2017, p. 17. URL : https://papers.ssrn.com/abstract=3040505. Consulté le 14 juillet 2020., David Mangan et Lorna E. Gillies, The Legal Challenges of Social Media, Londres : Edward Elgar Publishing, 2017, p. 113.

[79] Cour EDH, 6 mai 2003, Appleby et autres c. Royaume-Uni (6 mai 2003), requête n° 44306/98, ci-après Appleby.

[80] Ibid., pt 16.

[81] Ibid., pt 47.

[82] Ibid.pt 48.

[83] Ibid., pt 47.

[84] Mangan et Gillies, op. cit. (note 78), p. 113.

[85] Cour EDH, 6 mai 2003, Appleby, précité, pt. 26.

[86] Fan, 16.

[87] Dans Marsh v Alabama, la Cour suprême avait reconnu à un témoin de Jéhovah la possibilité d’invoquer les droits découlant du Premier amendement dans une ville entièrement gérée par une compagnie privée, voir Marsh v. Alabama, 326 U.S. 501 (1946). 

[88] Hudgens v. National Labor Relations Board, 424 U.S. 507 (1976).

[89] On trouve des conclusions semblables dans plusieurs arrêts antérieurs, voir D. C Nunziato, « The Death of the Public Forum in Cyberspace », Berkeley Technology Law Journal, vol. 20, no 2, 2005, p. 1135-1142.

[90] Prager University v. Google LLC, n°. 18-15712 (9th Cir. 2020), rappelant la position de la Cour suprême dans Manhattan Cmty. Access Corp. v. Halleck, 139 S. Ct. 1921, 1930 (2019) : le simple fait d’héberger le discours d’un autre ne relève pas exclusivement de la fonction de l’État, et ne suffit pas à transformer des entités privées en acteurs publics tenus aux obligations découlant du Premier amendement. 

[91] Knight First Amendment Inst. at Columbia Univ. v. Trump, No. 1:17-cv-5205 (S.D.N.Y., 2018), No. 18-1691 (2d Cir., 2019).

[92] La notion de « designated » ou « limited » public forum renvoie à des espaces ouverts au public par l’autorité administrative. Dans ces lieux, l’autorité ne peut pas réglementer les messages diffusés comme elle l’entend (Southeastern Promotion, Ltd v Conrad 240 U.S. 546, 1975, à propos d’une comédie musicale interdite par la municipalité). Le gouvernement n’a toutefois pas l’obligation d’ouvrir cet espace à toute forme d’expression. En ce sens, voir Thomas Perroud, « Public forum », op. cit., p. 1026. 

[93] Fan, 27.

[94] CJUE, gde. ch., 24 septembre 2019, Google LLC contre Commission nationale de l’informatique et des libertés, aff. C‑507/17, publié au recueil numérique, ECLI:EU:C:2019:772.