Chaque mois, notre panel d’avocats spécialisés en crypto-monnaies examine les implications juridiques de certains des problèmes les plus épineux auxquels l’industrie est confrontée dans différentes juridictions du monde.
L'arrestation du PDG de Telegram, Pavel Durov, en France a relancé un débat mondial sur les droits et les responsabilités des plateformes de médias sociaux.
Est-il juste d’arrêter un fondateur pour un comportement criminel sur sa plateforme auquel il n’a rien à voir ? Certains ont comparé cette arrestation à celle du directeur d’une compagnie de téléphone parce que des criminels ont discuté d’un crime lors d’un appel.
L'Union européenne a déployé des lois de plus en plus restrictives avec le Digital Services Act (DSA) et le Règlement général sur la protection des données (RGPD).
La DSA impose des obligations strictes aux plateformes en ligne pour lutter contre les contenus illégaux et garantir la transparence. Le RGPD est quant à lui une loi complète qui régit la manière dont les données personnelles sont collectées, traitées et stockées.
Avec de vastes quantités de contenu généré par les utilisateurs (UGC) circulant sur des plateformes mondiales, où tracer la ligne entre la liberté d’expression, la sécurité sur Internet et la vie privée ?
Le magazine s'est entretenu avec un panel d'experts juridiques pour en savoir plus : Catherine Smirnova, cofondatrice de Digital & Analogue Partners en Europe, Joshua Chu, coprésident de la Hong Kong Web3 Association, d'Asie, et Charlyn Ho, associée directrice de Rikka Law, des États-Unis.
La discussion a été éditée pour plus de clarté et de concision.
Magazine : Durov a été inculpé en France pour avoir prétendument autorisé des activités criminelles et du contenu illicite sur ses réseaux sociaux et sa plateforme de messagerie. On ne voit pas souvent des dirigeants de sociétés technologiques tenus directement responsables de ce qui se passe sur leurs plateformes. Pourquoi pensez-vous que cette affaire est différente ?
Ho : Cela m'a surpris qu'une telle chose puisse aboutir à l'arrestation d'un PDG. Souvent, il y a beaucoup de publicité autour des problèmes de promotion ou d'autorisation d'activités illicites sur une plateforme, mais cela n'entraîne généralement pas l'arrestation du PDG. Il existe de nombreuses plateformes qui autorisent les types de communications que Telegram autorise. Mais l'arrestation du PDG est assez intéressante.
Smirnova : La juridiction était aussi assez surprenante, je dirais, car on pourrait s'attendre à cela dans n'importe quel pays sans une telle régulation transparente concernant les plateformes numériques, mais pas en France.
Dès le début, je ne pensais pas que cette arrestation et cette détention étaient liées à la création de Telegram ou à DSA. Cela a été fortement spéculé maintenant que DSA est en action. DSA concerne la responsabilité des entreprises, pas la responsabilité personnelle.
Chu : Lorsque la nouvelle a éclaté, il nous a été facile de prendre rapidement parti, car la police française a également fait un travail médiocre en matière de diffusion d’informations au compte-gouttes. Nous n’avions aucune idée de la raison de son arrestation, et de nombreuses personnes ont supposé qu’ils examinaient les messages de Telegram. Il est apparu plus tard que l’un des principaux problèmes était la publication de certains documents illicites sur leur plateforme publique, qui est essentiellement un blog.
Si vous êtes une plateforme technologique et que les forces de l’ordre vous alertent que vous diffusez de la pornographie juvénile, par exemple, vous ne pouvez tout simplement pas l’ignorer.
Lire aussi
Caractéristiques 1 sur 6 des nouveaux memecoins de base sont des arnaques, 91 % présentent des vulnérabilités
Caractéristiques du fondateur de THORChain et de son plan pour attaquer en vampire l'ensemble de la DeFi
Magazine : Il existe une tension croissante entre la responsabilité des plateformes et les libertés des utilisateurs. Comment voyez-vous les cadres réglementaires tels que le DSA ou le Digital Markets Act remodeler la manière dont les plateformes sont tenues responsables du contenu des utilisateurs ?
Smirnova : Le DSA n’est peut-être pas aussi connu que son homologue, le DMA (Digital Markets Act). Il s’applique à toutes les plateformes en ligne, pas seulement aux grandes entreprises visées par le DMA.
À l’origine, la réglementation d’Internet dans l’UE et au Royaume-Uni reposait sur le principe selon lequel aucune plateforme en ligne ne pouvait être tenue responsable du contenu publié par d’autres. Mais Internet a considérablement changé depuis sa création, et il est à la fois juste et raisonnable de trouver un équilibre. D’un côté, nous avons la liberté d’Internet et d’expression ; de l’autre, nous devons faire d’Internet un espace sûr comparable à une rue en ville.
Aux États-Unis, on pourrait observer une tendance similaire. Bien qu’il n’existe pas encore de réglementation fédérale, plusieurs États ont adopté des lois visant à protéger les mineurs en ligne. Cela reflète l’approche de l’UE, où les précurseurs des DSA étaient des lois nationales visant à assurer la sécurité sur Internet, en particulier pour les mineurs.
Ho : Comme l’a dit Catherine, il n’existe pas énormément de lois spécifiques sur la sécurité sur Internet au niveau fédéral [aux États-Unis]. Certaines lois sont larges et peuvent potentiellement toucher à des aspects de la sécurité sur Internet, en particulier en ce qui concerne les enfants.
Au niveau des États, des pressions sont exercées pour que des lois soient adoptées. En Californie, il existe un code de conception adapté à l'âge, qui s'inspire du code de conception adapté à l'âge du Royaume-Uni, mais qui a rencontré des difficultés juridiques devant les tribunaux et n'a pas encore été pleinement mis en œuvre.
La sécurité sur Internet est un sujet très complexe. La modération du contenu peut être couverte par la loi sur la décence des communications. L’un des points clés est que, à moins d’être l’éditeur d’un contenu, vous n’êtes généralement pas responsable. Mais il y a quelques années, un amendement a été adopté au niveau fédéral qui a supprimé cette protection de responsabilité pour les contenus d’exploitation des enfants. Il s’agit de la SESTA. Que vous soyez ou non l’éditeur réel de ce contenu, certaines responsabilités pouvaient s’appliquer à la plateforme.
Lire aussi
Un vrai Doge à 18 ans : un mème qui va sur la lune
Les jeux Blockchain s'imposent auprès du grand public : voici comment ils peuvent gagner
Magazine : À quelles limites les gouvernements locaux sont-ils confrontés lorsqu’ils appliquent leurs lois sur les plateformes mondiales ?
Chu : La législation sur la confidentialité des données à Hong Kong est régie par l’ordonnance sur la confidentialité des données personnelles (PDPO), souvent critiquée pour son caractère désuet. Introduite juste après la rétrocession, elle reflète des normes dont même le Royaume-Uni s’est depuis éloigné avec l’introduction du RGPD. De plus, Hong Kong dispose de plusieurs dispositions sur la confidentialité des données qui, bien qu’adoptées, n’ont pas été mises en œuvre depuis plus de 20 ans. Cette situation est attrayante pour les entreprises car les questions de transfert de données transfrontalier ne sont pas encore appliquées, ce qui fait de Hong Kong un centre d’affaires attrayant en raison de l’absence de changements réglementaires, influencés à la fois par des raisons politiques et commerciales.
Pour revenir à la question des plateformes de publication, la question de la suppression de contenu entre en jeu. Par exemple, si vous souhaitez supprimer de YouTube du contenu stocké aux États-Unis, le gouvernement de Hong Kong ne peut appliquer les lois que dans sa propre juridiction. Le mieux qu'il puisse faire est de le bloquer géographiquement afin qu'il ne soit pas accessible à Hong Kong, plutôt que de le supprimer complètement d'Internet.
Un policier n’est qu’un touriste en dehors de sa juridiction d’origine, à moins d’avoir obtenu le consentement d’une autre juridiction.
Smirnova : Le RGPD a eu une influence considérable sur le marché. Je dirais même qu'il ne s'agit pas uniquement du marché européen, mais de tous les marchés du monde.
[C'est similaire à] la SEC. Nous savons tous que la SEC agit comme si elle enquêtait sur tout ce qu'elle veut dans le monde entier, même sur des entreprises qui n'ont pas leur siège social aux États-Unis. Il en va de même pour le RGPD.
Le RGPD concerne toutes les entreprises, quel que soit leur siège social ou leurs représentants légaux dans l’UE. Le facteur crucial est de savoir si l’entreprise traite les données privées des citoyens européens. Le RGPD influence également la réglementation américaine, car les États-Unis tentent toujours d’harmoniser leurs approches en matière de données. Il a eu un impact sur toutes les entreprises de plusieurs manières, notamment en exigeant la localisation des données des utilisateurs européens au sein de l’UE et en imposant des règles strictes sur le transfert de données au-delà des frontières.
Ho : Le fonctionnement de la SEC et celui des lois sur la protection de la vie privée ne sont pas exactement comparables. La SEC est une agence exécutive aux États-Unis et, franchement, elle a un champ d’autorité très vague. Comme nous l’avons vu, il y a eu beaucoup de débats sur la question de savoir si elle a outrepassé ses pouvoirs.
Aux États-Unis, une agence exécutive doit être autorisée par la loi fédérale à avoir un mandat spécifique, et si elle outrepasse ce mandat, elle opère en fait en dehors de ses limites légales. Je pense que la SEC n’est pas nécessairement le modèle sur lequel nous devrions nous appuyer pour gouverner la société.
Les lois sont votées par des législateurs élus, du moins en Europe et aux États-Unis. Quelle que soit l'orientation politique de chacun, c'est ainsi que les lois sont élaborées.
En matière de droit à la vie privée, et plus particulièrement du RGPD, les articles 2 et 3 définissent clairement qui est responsable de la conformité. Il s'agit soit d'une entreprise établie au sein de l'Union européenne, soit d'une entreprise située hors de l'UE qui surveille le comportement des personnes concernées de l'UE ou leur propose des biens et des services.
Lire aussi
Caractéristiques Comment les commerçants et les mineurs chinois contournent l'interdiction des crypto-monnaies en Chine
Caractéristiques Risque de dépôt : que font réellement les échanges de crypto-monnaies avec votre argent ?
Magazine : Les plateformes sont de plus en plus considérées comme responsables de la modération des contenus préjudiciables ou illégaux. Quelles sont selon vous les limites de cette responsabilité et comment devrions-nous concilier confidentialité, sécurité et liberté d’expression ?
Chu : Ces plateformes ne sont pas des organismes chargés de l’application de la loi et n’ont aucune obligation de surveiller Internet et d’approuver les contenus. Elles sont plus réactionnaires et c’est aux autorités de signaler les contenus problématiques. Même dans ce cas, elles doivent passer par les voies appropriées pour résoudre ces problèmes. Par exemple, comme Internet est en grande partie sans frontières, le maximum qu’une entreprise technologique basée à l’étranger pourrait faire, en termes d’ordonnance judiciaire, est de bloquer géographiquement certains contenus. Pour supprimer réellement un contenu, il faut se rendre dans les juridictions compétentes pour obtenir les ordonnances judiciaires nécessaires.
Smirnova : Je suis d’accord, ils ne sont pas la police et leur devoir premier est de réagir lorsqu’ils reçoivent des informations sur des contenus illégaux. Je ne dirais pas qu’ils devraient recevoir ces informations uniquement de la police, ce qui était la norme avant la DSA. La directive sur le commerce électronique adoptée en 2000 dans l’UE contenait la même règle : vous n’êtes pas responsable à moins que vous, en tant que plateforme, n’ayez été informé que le contenu est illégal. Il n’y avait donc aucune obligation de modération préalable.
Cependant, compte tenu de la quantité de données que nous produisons et consommons chaque jour, la société a besoin de nouveaux outils de contrôle dans un sens positif, bien que ceux-ci puissent être utilisés de manière négative comme tout le reste. En particulier dans le cas des contenus générés par l’IA, il est irréaliste de s’attendre à ce qu’un service spécial de la police ou du FBI soit chargé de déterminer quels contenus sont autorisés et lesquels ne le sont pas, et dans le cas contraire, de déposer une plainte auprès de la plateforme uniquement après un processus de conformité. Cela ne fonctionne plus comme cela. Dans certains pays, cela fonctionne encore de cette façon, comme au Brésil, où le juge [Alexandre] de Moraes est particulièrement chargé de l’internet dans un pays de 200 millions d’habitants.
Ho : Selon qui utilise la plateforme, il y a des problèmes liés au Premier Amendement aux États-Unis. Nous avons eu des situations où des partis politiques ont fait pression sur des sociétés de médias comme Meta pour supprimer des messages tels que ceux liés au COVID. Si le gouvernement ordonne à une entreprise privée de supprimer des messages, cela soulève potentiellement des problèmes constitutionnels.
Ce qui déroute le citoyen moyen, c'est que les plateformes elles-mêmes ne sont pas obligées de garantir la liberté d'expression, car elles ne sont pas le gouvernement. Seul le gouvernement doit respecter la Déclaration des droits. Une plateforme a parfaitement le droit d'introduire des politiques de modération de contenu et peut déterminer dans quelle mesure elle souhaite contrôler le contenu.
S'abonner
Les lectures les plus captivantes sur la blockchain. Diffusées une fois par semaine.
Adresse email
S'ABONNER