Ogni mese, il nostro gruppo di avvocati specializzati in criptovalute esamina le implicazioni legali di alcuni dei problemi più spinosi che il settore deve affrontare in diverse giurisdizioni in tutto il mondo.

L'arresto in Francia del CEO di Telegram, Pavel Durov, ha riacceso il dibattito globale sui diritti e le responsabilità delle piattaforme di social media.

È giusto arrestare un fondatore per comportamento criminale sulla sua piattaforma con cui non ha nulla a che fare? I critici lo hanno paragonato all'arresto del capo di una compagnia telefonica perché i criminali hanno discusso di un crimine durante una chiamata.

L'Unione Europea ha adottato leggi sempre più restrittive con il Digital Services Act (DSA) e il Regolamento generale sulla protezione dei dati (GDPR).

Il DSA stabilisce obblighi rigorosi per le piattaforme online per contrastare i contenuti illegali e garantire la trasparenza. Nel frattempo, il GDPR è una legge completa che regola il modo in cui i dati personali vengono raccolti, elaborati e archiviati.

Con enormi quantità di contenuti generati dagli utenti (UGC) che scorrono sulle piattaforme globali, dove tracciamo il confine tra libertà di parola, sicurezza su Internet e privacy?

Per saperne di più, la rivista ha parlato con un gruppo di esperti legali: Catherine Smirnova, co-fondatrice di Digital & Analogue Partners dall'Europa, Joshua Chu, co-presidente dell'Hong Kong Web3 Association dall'Asia, e Charlyn Ho, Managing Partner di Rikka Law dagli Stati Uniti.

La discussione è stata modificata per renderla più chiara e breve.

Magazine: Durov è stato accusato in Francia di aver presumibilmente consentito attività criminali e contenuti illeciti sui suoi social media e sulla sua piattaforma di messaggistica. Non capita spesso che dirigenti del settore tecnologico siano ritenuti direttamente responsabili di ciò che accade sulle loro piattaforme. Perché pensi che questo caso sia diverso?

Ho: Mi ha sorpreso che una cosa del genere potesse portare all'arresto di un CEO. Spesso, ci sarebbe molta pubblicità su questioni di possibile promozione o autorizzazione di attività illecite su una piattaforma, ma in genere non si traduce nell'arresto del CEO. Ci sono così tante piattaforme che consentono i tipi di comunicazioni che Telegram consente. Ma far arrestare il CEO è piuttosto interessante.

Smirnova: Anche la giurisdizione è stata piuttosto sorprendente, direi, perché potremmo aspettarcela in qualsiasi paese senza una regolamentazione così trasparente per quanto riguarda le piattaforme digitali, ma non in Francia.

Fin dall'inizio, non ho pensato che questo arresto e questa detenzione fossero in qualche modo collegati alla creazione di Telegram stessa o a DSA. Ora che DSA è in azione, si è molto speculato su questo. DSA riguarda la responsabilità delle aziende, non la responsabilità personale.

Chu: Quando la notizia è uscita, è stato facile per noi schierarci rapidamente perché anche la polizia francese ha fatto un pessimo lavoro nel diffondere informazioni a goccia a goccia. Non avevamo idea di cosa fosse stato arrestato e molte persone hanno pensato che stessero esaminando i messaggi di Telegram. In seguito è emerso che uno dei problemi principali era la pubblicazione di alcuni materiali illeciti sulla loro piattaforma pubblica, che è essenzialmente un blog.

Ad esempio, se sei una piattaforma tecnologica e le forze dell'ordine ti hanno segnalato che stai mostrando materiale pedopornografico, non puoi semplicemente ignorarlo.

Leggi anche

Caratteristiche 1 su 6 nuovi memecoin di Base sono truffe, il 91% presenta vulnerabilità

Presenta il fondatore di THORChain e il suo piano per attaccare come vampiri tutta la DeFi

Magazine: C'è una crescente tensione tra la responsabilità della piattaforma e le libertà degli utenti. Come vedi quadri normativi come il DSA o il Digital Markets Act rimodellare il modo in cui le piattaforme sono ritenute responsabili per i contenuti degli utenti?

Smirnova: Il DSA potrebbe non essere così noto come la sua controparte, il DMA (Digital Markets Act). Si applica a tutte le piattaforme online, non solo alle grandi aziende prese di mira dal DMA.

In origine, la regolamentazione di Internet nell'UE e nel Regno Unito si basava sul principio che nessuna piattaforma online poteva essere ritenuta responsabile per i contenuti pubblicati da altri. Ma Internet è cambiata in modo significativo dalla sua nascita, ed è giusto e ragionevole trovare un equilibrio. Da un lato, abbiamo la libertà di Internet e di parola; dall'altro, dobbiamo rendere Internet uno spazio sicuro paragonabile a una strada cittadina.

Negli Stati Uniti, potresti vedere una tendenza simile. Sebbene non ci sia ancora una regolamentazione federale, diversi stati hanno introdotto leggi volte a proteggere i minori online. Ciò rispecchia l'approccio dell'UE, dove i precursori dei DSA erano leggi nazionali volte alla sicurezza di Internet, in particolare per i minori.

Ho: Come ha detto Catherine, non ci sono moltissime leggi specifiche sulla sicurezza di Internet a livello federale [negli USA]. Ci sono alcune leggi che sono ampie e possono potenzialmente toccare aspetti della sicurezza di Internet, in particolare per quanto riguarda i bambini.

A livello statale, ci sono spinte per le leggi. In California, c'è l'Age-Appropriate Design Code, che modella l'Age-Appropriate Design Code del Regno Unito, ma ha incontrato sfide legali nei tribunali e non è stato ancora completamente implementato.

La sicurezza su Internet è un argomento molto complesso. C'è la moderazione dei contenuti, che potrebbe potenzialmente essere coperta dal Communications Decency Act. Uno dei punti chiave è che, a meno che tu non sia un editore di contenuti, non sei generalmente responsabile. Ma qualche anno fa, è stato approvato un emendamento a livello federale che ha eliminato quella protezione di responsabilità per i materiali di sfruttamento minorile. Si chiama SESTA. Indipendentemente dal fatto che tu fossi l'editore effettivo di quel contenuto, c'erano alcune responsabilità che potevano essere applicate alla piattaforma.

Leggi anche

Caratteristiche Doge nella vita reale a 18 anni: meme che andrà sulla luna

Caratteristiche I giochi Blockchain conquistano il grande pubblico: ecco come possono vincere

Rivista: Quali limitazioni devono affrontare i governi locali quando applicano le loro leggi sulle piattaforme globali?

Chu: La legge sulla privacy dei dati a Hong Kong è regolata dalla Personal Data Privacy Ordinance (PDPO), spesso criticata come antiquata. Introdotta subito dopo il passaggio di consegne, riflette standard da cui anche il Regno Unito si è allontanato con l'introduzione del GDPR. Inoltre, Hong Kong ha diverse disposizioni sulla privacy dei dati che, sebbene approvate, non sono state promulgate per oltre 20 anni. Questa situazione è attraente per le aziende perché i problemi di trasferimento transfrontaliero dei dati non sono ancora applicati, rendendo Hong Kong un hub commerciale attraente a causa della mancanza di cambiamenti normativi, influenzati da ragioni sia politiche che commerciali.

Tornando all'argomento delle piattaforme di pubblicazione, entra in gioco la questione della rimozione dei contenuti. Ad esempio, se si desidera rimuovere contenuti da YouTube archiviati negli Stati Uniti, il governo di Hong Kong può applicare le leggi solo all'interno della propria giurisdizione. Il massimo che può ottenere è bloccarli geograficamente in modo che non siano accessibili all'interno di Hong Kong, piuttosto che rimuoverli completamente da Internet.

Un agente di polizia è semplicemente un turista che si trova al di fuori della propria giurisdizione di residenza, a meno che non abbia il consenso di un'altra giurisdizione.

Smirnova: Il GDPR ha influenzato significativamente il mercato. Direi non solo il mercato europeo, ma tutti i mercati a livello globale.

[È simile a] la SEC. Sappiamo tutti che la SEC agisce come se stesse indagando su qualsiasi cosa voglia in tutto il mondo, anche per quanto riguarda le aziende che non hanno sede negli Stati Uniti. Lo stesso vale per il GDPR.

Il GDPR riguarda ogni azienda, indipendentemente da dove abbia sede o se abbia rappresentanti legali nell'UE. Il fattore cruciale è se l'azienda gestisce i dati privati ​​dei cittadini europei. Il GDPR influenza anche le normative statunitensi perché cercano sempre di armonizzare i loro approcci ai dati. Ha avuto un impatto su tutte le aziende in molti modi, come richiedere la localizzazione dei dati degli utenti europei all'interno dell'UE e imporre rigide regole sul trasferimento dei dati oltre confine.

Ho: Il modo in cui opera la SEC e il modo in cui funzionano le leggi sulla privacy non sono esattamente paragonabili. La SEC è un'agenzia esecutiva negli Stati Uniti e, francamente, ha un ambito di autorità molto vago. Come abbiamo visto, c'è stato molto dibattito sul fatto che abbiano superato la loro autorità.

Un'agenzia esecutiva negli Stati Uniti deve ricevere l'autorità ai sensi della legge federale per avere un mandato specifico e, se supera tale mandato, sta essenzialmente operando al di fuori dei propri limiti legali. Penso che la SEC non sia necessariamente il modello a cui dovremmo guardare per il modo in cui la società dovrebbe essere governata.

Le leggi vengono approvate dai legislatori eletti, almeno in Europa e negli Stati Uniti. Indipendentemente dalla posizione politica, è così che vengono fatte le leggi.

In termini di legge sulla privacy, e in particolare GDPR, gli articoli 2 e 3 delineano chiaramente chi è responsabile della conformità. Si tratta di una società con sede all'interno dell'Unione Europea o di una società al di fuori dell'UE che monitora il comportamento dei soggetti interessati dell'UE o offre loro beni e servizi.

Leggi anche

Caratteristiche Come i trader e i minatori cinesi aggirano il divieto cinese sulle criptovalute

Caratteristiche Rischio di deposito: cosa fanno realmente gli exchange di criptovalute con i tuoi soldi?

Magazine: Le piattaforme sono sempre più considerate responsabili della moderazione di materiale dannoso o illegale. Quali sono secondo te i limiti di questa responsabilità e come dovremmo bilanciare privacy, sicurezza e libertà di parola?

Chu: Queste piattaforme non sono agenzie di polizia e non hanno alcun obbligo di pattugliare Internet, approvando i contenuti. Sono più reazionarie e spetta alle autorità segnalare i contenuti come problematici. Anche in quel caso, devono passare attraverso i canali appropriati per affrontare questi problemi. Ad esempio, poiché Internet è in gran parte senza confini, il massimo che un'azienda tecnologica con sede all'estero potrebbe fare, in termini di ordine del tribunale, è bloccare geograficamente determinati contenuti. Per rimuovere effettivamente i contenuti, è necessario navigare attraverso le giurisdizioni pertinenti per ottenere gli ordini del tribunale necessari.

Smirnova: Sono d'accordo che non sono la polizia e il loro dovere primario è reagire quando ricevono informazioni su contenuti illegali. Non direi che dovrebbero ricevere queste informazioni solo dalla polizia, che era la norma prima del DSA. La direttiva sul commercio elettronico adottata nel 2000 nell'UE aveva la stessa regola: non sei responsabile a meno che tu, come piattaforma, non fossi informato che il contenuto è illegale. Quindi, non c'erano obblighi di pre-moderazione.

Tuttavia, considerando la quantità di dati che produciamo e consumiamo ogni giorno, la società ha bisogno di nuovi strumenti di controllo in senso positivo, anche se ovviamente possono essere usati negativamente come qualsiasi altra cosa. Soprattutto con i contenuti generati dall'intelligenza artificiale, è irrealistico aspettarsi che un dipartimento speciale della polizia o dell'FBI sia responsabile di determinare quali contenuti sono consentiti e quali no, e in caso contrario, presentare un reclamo alla piattaforma solo dopo un processo di conformità. Non funziona più così. In alcuni paesi funziona ancora così, come in Brasile, dove il giudice [Alexandre] de Moraes ha una responsabilità speciale per Internet in un paese di 200 milioni di persone.

Ho: A seconda di chi usa la piattaforma, ci sono problemi di Primo Emendamento negli Stati Uniti. Abbiamo avuto situazioni in cui i partiti politici hanno fatto pressione su aziende di media come Meta per sopprimere messaggi come quelli relativi al COVID. Se il governo ordina a un'azienda privata di sopprimere messaggi, ciò solleva potenzialmente problemi costituzionali.

Ciò che confonde la persona media è che le piattaforme stesse non sono obbligate a garantire la libertà di parola perché non sono il governo. Solo il governo deve rispettare la Carta dei diritti. Una piattaforma ha tutto il diritto di introdurre politiche di moderazione dei contenuti e può determinare quanto o quanto poco vuole controllare i contenuti.

Iscriviti

Le letture più coinvolgenti sulla blockchain. Consegnate una volta alla settimana.

Indirizzo e-mail

ISCRIVITI