CRISTO MORTO - ANDREA MANTEGNA

sabato 20 giugno 2020

Digital Service Act: l'Europa prepara le nuove regole per le piattaforme online


La Presidente della Commissione europea, Ursula Von Der Leyen, a fine gennaio ha pubblicato le linee guida politiche per il periodo 2019-2024, nel quale sono riassunti gli obiettivi da raggiungere. Tra questi “un’Europa adatta all’era digitale”. I documenti confermano che la Commissione è impegnata nella stesura di norme: per i servizi digitali (Digital Service Act), per l’intelligenza artificiale (il Libro biancoqui un commento di Fabio Chiusi), un quadro per la governance dei dati, un piano d’azione per i media, la revisione delle norme sulla concorrenza, nuove norme in materia di tassazione e così via. Infine, la Commissione ha pubblicato la Comunicazione "Shaping Europe's digital future".
Una delle questioni che si propongono con sempre maggiore forza riguarda la regolamentazione delle piattaforme online e quindi la regolamentazione dei contenuti pubblicati da tali piattaforme o semplicemente immessi sui loro server dagli utenti.

Anche di questo si occuperà l'Europa nei prossimi mesi, in particolare tramite il Digital Service Act. L'approccio dell'UE mira a realizzare una terza via, con riferimento alla tecnologia, rispetto agli Usa e alla Cina. È piuttosto evidente che Cina e Usa sono più avanti tecnologicamente parlando, basta osservare che la maggior parte delle piattaforme del web sono americane, mentre le aziende tech che sempre più spesso sono sotto i riflettori (ad esempio in tema di riconoscimento facciale) sono spesso cinesi. L'approccio europeo è quello di realizzare una governance delle nuove tecnologie, tramite delle regolamentazioni che grazie alla loro validità (si pensi al GDPR) vengono progressivamente riprese e adattate da altri paesi.

Le norme in preparazione, per quello che qui ci interessa, partono da una serie di assunti, tra i quali:
  1. I social network devono fronteggiare troppe norme nell’occuparsi di hate speech, differenti norme tra i vari Stati dell’Unione, e regole diverse tra contenuti di testo e contenuti video.
  2. Non esistono regole vincolanti e comuni sulla pubblicità e in particolare su quella politica, per cui il micro-targeting cross border risulta facile da operare e può portare a campagne di disinformazione.
Problemi del mercato e obiettivi delle norme

C’è da premettere che il problema principale non è dato dall’assenza di regole. In realtà, infatti, le piattaforme online sono già ampiamente regolamentate: la direttiva copyright di recente riformata, la direttiva sul commercio elettronico, il regolamento sulla protezione dei dati personali, la Framework Directive (2002/21/EC) sulle reti e i servizi di comunicazione, la Comunicazione sulla repressione dei contenuti illeciti online, la direttiva Audio Video Media Services (AVMS), la direttiva per la protezione dei consumatori (2011/83/UE), il Codice di condotta sull’hate speech e così via.
I problemi, invece, sono i seguenti:

1) Norme frammentarie e divergenti: la frammentarietà delle norme, variando tra nazione e nazione, rende impossibile per i servizi che operano in tutti gli Stati dell’Unione conformarsi ad una pluralità di norme differenti. Ciò complica enormemente la possibilità di realizzare il Digital Single Market, un mercato unico digitale per l’intera Unione europea.

2) Regole obsolete e lacune normative: esiste anche un’esigenza di adeguamento delle norme, alcune delle quali (pensiamo alla direttiva sul commercio elettronico) sono risalenti nel tempo e quindi non proprio adatte alla realtà tecnologica odierna. Ad esempio, la distinzione tra provider (hostingcachingconduit…) appare insufficiente a categorizzare le nuove realtà (cloud services, content delivery networks, domain name services), e quindi rende difficile alle aziende nascenti capire a quali regole conformarsi. Lo stesso concetto di host attivo/passivo non è esente da critiche (l'art. 14 della direttiva eCommerce non richiede che l'hosting sia passivo per applicarsi l'esenzione prevista, ma solo che non abbia consapevolezza o controllo sul contenuto) e si ritiene che debba essere sostituito da qualcosa che rifletta meglio le realtà odierne. Di contro le norme in materia di responsabilità delle piattaforme per i contenuti degli utenti, in particolare la proibizione del monitoraggio generale e l’esenzione da responsabilità per le piattaforme, sono ritenute essenziali per lo sviluppo dell’ambiente digitale, anche se necessitano di alcuni aggiustamenti (e chiarimenti).

3) Incentivi insufficienti per affrontare il problema dei contenuti illeciti: uno dei problemi più sentiti riguarda la rimozione di contenuti illeciti (o semplicemente dannosi). Per come è configurata la normativa, come detto sopra, attualmente una piattaforma non è responsabile dei contenuti immessi dagli utenti se non ne ha consapevolezza o controllo (art. 14 della direttiva sul commercio elettronico). In caso contrario ne diventa responsabile a meno che non rimuova il contenuto (l’esenzione si applica se la piattaforma rimuove). È da notare che non c’è consenso sulla definizione di piattaforma (per la Commissione europea: un’impresa che opera in due o più mercati, che utilizza Internet per consentire interazioni tra due o più gruppi distinti ma interdipendenti di utenti in modo da generare valore per almeno uno dei gruppi), ma il termine è spesso utilizzato per sostituire quello di provider ritenuto non più attuale.

Con le nuove norme si stanno moltiplicando gli obblighi di filtraggio dei contenuti, per cui le piattaforme devono controllare i contenuti, e tale forma di controllo (monitoraggio generale) alimenta la paura delle piattaforme di diventare responsabili per i contenuti immessi dagli utenti (se controlli i contenuti ne diventi consapevole). Questo è un disincentivo alla gestione dei contenuti illeciti e la Commissione si preoccupa di dover chiarire meglio il quadro normativo in materia.

4) Supervisione pubblica inefficace: un aspetto fondamentale riguarda il controllo pubblico. Il rapido emergere dei servizi digitali ha reso sempre più difficile per i governi attuare delle efficaci politiche di controllo di questi servizi, alcuni dei quali hanno assunto dimensioni di “servizio pubblico”. La molteplicità delle regolamentazioni e l’assenza di un’autorità dedicata alle piattaforme rende difficile analizzarne il comportamento e quindi eventualmente imporre oneri e sanzioni. Oltretutto la complessità del business di alcune piattaforme rende dispendioso, in termini di tempi e costi, le istruttorie delle varie autorità settoriali esistenti (esempio: autorità per la protezione dei dati personali, autorità per la concorrenza). Paradossalmente in alcuni casi le varie autorità settoriali possono imporre oneri in contrasto tra loro.

Tutto ciò può portare alla delega di funzioni statali alle stesse piattaforme, senza però un necessario e efficace controllo pubblico su come vengono esercitati tali “poteri” delegati, anche in settori nei quali sono a rischio i diritti fondamentali dei cittadini. Il problema, secondo la Commissione, si pone principalmente in relazione alla moderazione dei contenuti e alla trasparenza della pubblicità (es. campagne di microtargeting).

5) Elevate barriere all’ingresso per i servizi innovativi: per come si presenta nel suo complesso la regolamentazione attuale ha un effetto dissuasivo sulle aziende che volessero avviare un nuovo servizio digitale in Europa. Un mercato frammentato, con regole diverse a seconda delle nazioni, è tale da creare delle vere e proprie barriere all’ingresso del mercato digitale europeo, in tal modo favorendo i servizi già esistenti che finiscono per consolidare la loro posizione semimonopolista.

Da questi problemi nascono le nuove proposte normative con i seguenti obiettivi:
  • Costruire una regolamentazione uniforme e chiara per le piattaforme che sia adatta a alimentare l’innovazione.
  • Tutelare i diritti degli utenti durante l’uso dei servizi digitali.
  • Assicurare la cooperazione tra i vari Stati membri dell’Unione e il controllo pubblico dei servizi digitali.
l Level playing field

Nel riformare la regolamentazione esistente si ritiene essenziale anche cercare di non imporre degli oneri eccessivi alle aziende per evitare che ciò possa castrare la capacità innovativa del settore, che appare l’elemento forse più importante nell’ecosistema digitale. La differenza principale, infatti, tra le “piattaforme” (non-linear provider) e le aziende tradizionali (linear provider) sta proprio nella capacità di collegare i fornitori e gli utenti, consentendo la creazione di “valore”. È quello che si definisce il “network effect” (il valore di un servizio aumenta in relazione al numero degli utenti, pensate ad un social network con un solo utente).
Questo effetto è dirompente (disruptive) e crea degli ovvi problemi ad analoghi servizi che non fruiscono delle esternalità di Internet. Da qui le tante aziende tradizionali che, da un lato cercano di spostare progressivamente i loro servizi nell’ecosistema digitale, dall’altro pressano i legislatori per l’introduzione di nuove regole (oltre quelle già esistenti) per bilanciare l’effetto dirompente delle nuove tecnologie. La conseguenza è il “level playing field”, che è il principio fondamentale sul quale si basano le proposte legislative europee a partire dal 2015 (Digital Single Market). Il level playing field (che potremo tradurre con “parità di condizioni”) è un principio in base al quale tutti i giocatori devono sottostare alle medesime regole (non vuol dire, però, che tutti i giocatori devono avere le stesse possibilità di successo).

Con la comunicazione sulla strategia del Digital Single Market nel 2015, la Commissione europea evidenzia che la rapida diffusione dei servizi OTT (Over the top, es. VOIP) è una minaccia per gli operatori telefonici tradizionali (incumbent). Questi ultimi, infatti, sono soggetti ad una serie di oneri (interconnessione, qualità dei servizi, protezione dei consumatori, ecc...) che non toccano, invece, gli OTT pur costituendo questi ultimi dei “sostituti funzionali” dei primi. Gli OTT, invece, sono soggetti alle meno onerose regole della direttiva AVMS e della direttiva sul commercio elettronico. Da ciò la Commissione ricava la necessità di estendere le regole dei servizi tradizionali anche agli OTT. In realtà, la cosa è un po’ più complessa, perché la Commissione ha intenzione di avviare una serie di norme tese a deregolamentare i servizi tradizionali, e nel contempo introdurre un set di regole specifiche per gli OTT, ma il concetto sostanzialmente è quello di realizzare un level playing field.
Creating the right conditions for digital networks and services to flourish – this requires high-speed, secure and trustworthy infrastructures and content services, supported by the right regulatory conditions for innovation, investment, fair competition and a level playing field.
Analogamente, la Comunicazione sulle piattaforme del 2016 introduce alcuni principi per una riforma della regolamentazione delle piattaforme online, tra i quali l’introduzione del level playing field. Anche con la Risoluzione sulle piattaforme online del 2017, la Commissione richiama l’esigenza di un level playing field tra le piattaforme online e gli altri servizi in competizione, estendendo il principio anche agli operatori non-UE.
Infine, con la recente Comunicazione Shaping Europe’s digital future, la Commissione richiama la necessità di assicurare un level playing field per le imprese, piccole e grandi, quindi un livellamento tra l’offline e l’online. E le norme anticoncorrenziali sono viste come ausilio al level playing field.
Quindi, l’Unione europea non solo ha una normativa piuttosto complessa sulle piattaforme, ma ha anche una politica sulle piattaforme, con un serie di iniziative già in atto. L’idea alla base è la convergenza delle regolamentazioni: a servizi analoghi deve corrispondere analoga regolamentazione.

Ad esempio la direttiva Copyright

L’impressione, però, è che l’approccio proposto non sia privo di problemi. In tal senso è piuttosto interessante la recente riforma della direttiva copyright, che si inquadra nel DSM e quindi si ispira anch’essa al level playing field, cioè creare condizioni di parità tra grandi piattaforme online ed editori, emittenti e artisti. La proposta di direttiva includeva originariamente un obbligo di utilizzo di sistemi di filtraggio preventivo dei contenuti, che col tempo è stato modificato (nel testo approvato) in obbligo di impedire il caricamento di contenuti in violazione dei diritti dei titolari. Il che non modifica la situazione perché l’unico modo di impedire il caricamento di contenuti in violazione dei diritti dei titolari, dato l’enorme numero di contenuti che viene caricato dagli utenti su queste piattaforme, è tramite l’utilizzo di sistemi di filtraggio dei contenuti.

Nei meeting relativi alla discussione dell’attuazione della direttiva Copyright, ascoltando le aziende che producono questi software di filtraggio è apparso certo (Copyright stakeholder dialoguesmeeting 16 gennaio 2020) che tali software non analizzano in alcun modo il contesto, ma si limitano a verificare la corrispondenza di un contenuto con l’“impronta” dell’originale. Questo è un problema, perché se per i contenuti pedopornografici, ad esempio, non esiste alcun contesto lecito, in tutti gli altri casi il contesto è essenziale per stabilire l'illiceità del contenuto. Quindi il sistema di filtraggio non è in grado di valutare se effettivamente il contenuto è illecito, in quanto l’utilizzo del contenuto potrebbe essere consentito in base a delle specifiche esenzioni, esenzioni che pur previste dalle norme, di fatto non sono applicabili all’ambiente online, mentre le esenzioni sul copyright sono riconosciute e applicate nell’ambiente offline.

Inoltre, la normativa stabilisce che un provider non è responsabile dei contenuti immessi dagli utenti se, nel momento in cui viene a conoscenza dell’illiceità dello stesso, provvede a rimuoverlo speditamente (art. 14 Direttive eCommerce). Tra l’altro è da notare che l’esenzione scatta solo se il provider poi rimuove, a differenza dell’analoga norma statunitense, cioè il 230 c) 2) del Communication Decency Act che protegge gli intermediari quando adottano misure volontarie per limitare l'accesso o la disponibilità di determinati contenuti ma anche quando mancano tali contenuti e non intraprendono alcuna azione (la cosiddetta protezione del Buon Samaritano). L’art. 15 della direttiva eCommerce vieta il monitoraggio generale delle comunicazioni. Con la sentenza "Scarlet extendend" la Corte di Giustizia europea ha precisato, al paragrafo 38, cosa si deve intendere per “general monitoring” ai sensi della direttiva sul commercio elettronico:
implementation of that filtering system would require– first, that the ISP identify, within all of the electronic communications of all its customers, the files relating to peer-to-peer traffic;– secondly, that it identify, within that traffic, the files containing works in respect of which holders of intellectual-property rights claim to hold rights;– thirdly, that it determine which of those files are being shared unlawfully; and– fourthly, that it block file sharing that it considers to be unlawful.
Le norme, quindi, sono state configurate in modo da dissuadere il provider dall’attuare un controllo sistematico dei suoi utenti. Nella sentenza "L’Oréal contro eBay" si chiarisce che le situazioni nelle quali la consapevolezza dell’illecito è conseguenza di un’indagine condotta di propria iniziativa dal provider, porta all’obbligo di agire prontamente per rimuovere il contenuto illecito. Il problema è che se vengono attuate misure proattive (software di filtraggio) le probabilità di trovare illeciti sale enormemente e quindi le responsabilità aumentano rispetto ad una situazione nella quale il provider si imbatte semplicemente in un illecito.

Introducendo la protezione del buon samaritano nel CDA, il Congresso USA ha effettivamente incoraggiato gli intermediari ad adottare misure proattive, laddove l’analoga norma europea, invece, tende a scoraggiarli. Perché non basta che il provider faccia del suo meglio per rimuovere i contenuti illeciti, la norma richiede che effettivamente i contenuti illeciti siano rimossi, altrimenti il provider ne risponde. In tal senso è ovvio che chi adotta misure proattive è incentivato a rimuovere tutto il possibile, in particolare i contenuti incerti, mentre le piccole aziende (per le quali i sistemi di filtraggio sono un costo eccessivo) sono incentivate a non usare tali sistemi.

Con la riforma della direttiva Copyright, invece, l’introduzione di tali sistemi di filtraggio è sostanzialmente (anche se non formalmente) obbligatoria per conformarsi (art. 17). Tra l’altro senza l’aggiunta di un efficace strumento per impugnare le “decisioni” del provider. La Commissione ritiene che anche i provider che rientrino nell’ambito dell’art. 14 della direttiva eCommerce devono utilizzare misure proattive, in caso contrario non possono fare affidamento sull’esenzione prevista.

Il nuovo sistema, in conclusione, appare studiato per massimizzare le rimozioni senza approfondire in alcun modo cosa realmente si rimuove, e quindi senza un reale bilanciamento dei diritti dei titolari coi i diritti fondamentali dei cittadini (es. libertà di espressione).

Delega alle aziende e diritti degli utenti

Un aspetto interessante riguarda la sostanziale delega alle aziende del web. Sono le aziende che, in fin dei conti, decideranno cosa e come rimuovere. E qui rientriamo nella problematica del “controllo pubblico”. La domanda da porsi è: quali garanzie hanno i cittadini sulle piattaforme online? Esistono le Costituzioni degli Stati membri, le Convenzioni europee, leggi che impongono ai governi di tutelare i diritti dei cittadini, in particolare la libertà di espressione. In che modo tali leggi limitano ciò che i governi possono fare per regolamentare le piattaforme online? Fino a che punto tali leggi consentono ai governi di chiedere alle piattaforme di regolamentare i contenuti online?

Tra piattaforma e cittadino (utente) il rapporto è sostanzialmente contrattuale, con la piattaforma in posizione dominante perché in qualsiasi momento può decidere di modificare, insindacabilmente, i suoi TOS (terms of service), così eventualmente azzerando le garanzie fornite originariamente al cittadino (un caso esemplificativo dell'incoerenza dei TOS e della gestione dei contenuti si è avuto nel 2019 su Youtube). Si tratta di un evidente squilibrio sul quale non si può sorvolare. Se la tendenza è quella di delegare alle piattaforme del web la gestione dei contenuti, e di conseguenza l’applicazione pratica dei diritti dei cittadini, dobbiamo prendere atto che nel web i diritti dei cittadini non sono realmente tutelati.

In tale prospettiva occorre tenere presente, ma è di evidenza solare, che le aziende private non sono particolarmente note per la capacità di proteggere i diritti delle persone, quanto piuttosto di massimizzare i loro profitti. Per cui è pacifico che la delega delle funzioni statali porterà a una riduzione esponenziale della tutela dei diritti degli utenti in Rete. Di fatto il sistema studiato (ad esempio dalla direttiva copyright) è strutturato per essere modellato dalle grandi aziende, siano esse piattaforme del web oppure aziende tradizionali (le prime sono obbligate giuridicamente ad accordarsi, supportare e tutelare le seconde).

In generale le aziende sono invogliate a stringere accordi (siano essi "volontari" oppure obbligati giuridicamente) per la regolamentazione di determinati aspetti del discorso online (es. contenuti pedopornografici), ma questi "cartelli dei contenuti" sono anche la risposta al crescente consenso che esistono aree che vanno oltre la concorrenza. È la stessa società civile che chiede risposte più adeguate alle aziende del web, di contro le aziende vedono sempre più la fornitura o meno di tali risposte come un problema "reputazionale". Se in alcuni casi le aziende concorrono tra loro (esempio: Facebook annuncia di non regolamentare gli annunci politici, Twitter e Microsoft rispondono differentemente) spesso è più conveniente la cooperazione (appunto, i cartelli di contenuti) per evitare strette legislative o semplicemente per ingessare il mercato.

Il problema è che questi "cartelli" (siano essi volontari che giuridicamente obbligati) tra aziende determinano maggiore opacità del sistema: se la decisione di un'azienda ha una precisa responsabilità, questa responsabilità si diluisce nel caso di "cartello". Inoltre, i cartelli appaiono più "neutrali" e quindi obiettivi (esempio: parlano di hashing quando in realtà si tratta di censura), i cartelli aumentano esponenzialmente il potere dei grandi attori, che finiscono per dettare la linea non solo agli attori più piccoli ma anche agli stessi governi, e così via.

Il punto è che se deve esistere uno standard per il discorso online (l'alternativa è lasciare fare al mercato), non possiamo lasciare tale decisione alle aziende dedite al profitto. Quello che occorre è una regolamentazione statale che imponga limiti specifici agli accordi contrattuali, così come avviene già in altri ambienti (esempio: bancario). Non stiamo parlando di mere esortazioni alle aziende private di tenere in considerazione i diritti dei cittadini nella moderazione dei contenuti, ma piuttosto di una vera tutela legale, specialmente dei diritti fondamentali (esempio: libertà di espressione). Deve essere lo Stato (l'Unione europea) a realizzare un quadro normativo, nel quale si dovrà stabilire cosa le piattaforme dovranno rimuovere, e anche cosa non potranno rimuovere (i contenuti legittimi), e soprattutto dovrà prevedere incentivi a non eccedere con la regolamentazione (es. non rimuovere i contenuti incerti). Questo è quello che si definisce un approccio orientato ai diritti umani. In assenza di un quadro regolamentare di questo tipo quello che si avrà sarà una regolamentazione orientata al profitto delle aziende.

Conclusioni

Le piattaforme online sono tra i principali driver della trasformazione digitale nel mercato unico. Tuttavia, il loro potenziale innovativo crea nuove sfide per i legislatori e la società in generale. La riforma del settore appare ormai necessaria ma le nuove norme dovrebbero da un lato garantire l’integrità e il funzionamento del mercato e dall’altro aumentarne il potenziale, alimentando l’innovazione e consentendo l’ingresso nel mercato di nuovi concorrenti (in tal senso chi ha più potere nel mercato dovrebbe avere maggiori oneri, come accade nel mercato dei carrier).

Purtroppo il lobbismo dei fornitori lineari, e delle aziende del web che hanno già conquistato una posizione dominante nel mercato, può facilmente dirottare le riforme, così finendo per proteggere i loro specifici interessi. Ad esempio, l’introduzione del diritto accessorio per gli editori (nella direttiva Copyright), a seguito del lobbismo dell’industria editoriale, rende più difficile a nuove aziende realizzare servizi innovativi per i media e fare concorrenza agli operatori maggiori, che hanno le risorse per condividere le entrate pubblicitarie con le case editrici. In un tale quadro lo spazio per i diritti dei cittadini appare sempre più ristretto.

Il principio del level playing field, se in teoria appare utile per il riequilibro del mercato, può facilmente portare a storture. Robert Kenny e Tim Suter, con il rapporto An unravelling of the Digital Single Market, A review of the proposed AVMSD del 2016, spiegano che il level playing field ha applicazioni limitate.
In genere ha senso se:
  • Le parti si trovano nello stesso mercato.
  • La regolamentazione è un peso per una parte ma non per l’altra.
  • La regolamentazione è un favore ad una parte ma non all’altra.
  • Oppure se i benefici della regolazione simmetrica superano quelli della regolazione asimmetrica.
Secondo gli autori il level playing field appare avere ben pochi utilizzi con riferimento all’ecosistema digitale, perché l’aspetto principale di tale ecosistema è proprio la “disruption” del precedente mercato lineare, introducendo innovazione in settori asfittici nel quale mancano investimenti seri da decenni, e che sono in crisi (pensiamo all’editoria). In tal senso si espresse nel 2013 anche l'Ofcom britannico (l'equivalente dell'Agcom) elogiando il nuovo modello di riferimento per i media, che si inserisce in un processo di "creative destruction" inevitabile per impedire l'immobilismo del mercato, per cui le aziende storiche hanno necessità di incamminarsi sulla strada dell'innovazione se vogliono sopravvivere. Solo un ambiente realmente innovativo può portare a nuovi modelli di business e creare nuovi mercati, concluse l'Ofcom.

Andrej Savin in Regulating Internet Platforms in the EU: The Emergence of the ‘Level playing Field’ afferma che l’attuale politica dell'Unione europea non è sufficientemente supportata da evidenze e studi e che il level playing field non appare altro che un modo per combattere la “disruption” introdotta dalle nuove tecnologie e favorire, in modo protezionistico, le vecchie industrie (es. editoria). Il livellamento frena i modelli di business innovativi, sradicando le possibilità di innovazione in un settore fino a poco fa controllato dagli incumbent.
The Commission focus is not on supporting innovation but on reversing disruption created by innovative business models
Del resto da quando si è insediata la nuova Commissione (alla fine del 2019) c'è stata una spinta, principalmente guidata da Francia e Germania, a essere più decisi nell’intervenire per conto delle imprese europee, specialmente nei settori strategicamente importanti come cloud computing, veicoli autonomi, pluralismo dei media, ecc.

Il timore è che le nuove regole possano portare ad ingessare un mercato a favore delle aziende che già hanno conquistato una posizione di rilievo, impedendo lo sviluppo e l'innovazione. Insomma, occuparsi delle aziende attuali senza pensare a quelle che potrebbero sorgere nel futuro. Occorre ben altro, quindi, a partire dall’introduzione di maggiore trasparenza che potrebbe tutelare meglio i diritti dei cittadini, laddove tale aspetto è fortemente minimizzato dalle riforme in atto. In tal senso notiamo che la nuova direttiva Copyright impone ai provider di fornire ai titolari dei diritti “informazioni adeguate sul funzionamento delle loro prassi per quanto riguarda la cooperazione di cui al paragrafo 4 e, qualora siano stati conclusi accordi di licenza tra i prestatori di servizi e i titolari dei diritti, informazioni sull’utilizzo dei contenuti oggetto degli accordi”. Cioè la trasparenza è verso le aziende, non verso i cittadini. Invece sarebbe fondamentale che le norme obbligassero le aziende a pubblicare i dati sulle rimozioni e sui motivi delle stesse (alcune delle piattaforme lo fanno già volontariamente), in modo che i cittadini possano sapere quante rimozioni sono effettivamente dovute e quante invece sono frutto di errori o peggio (es. vicenda Christian BuettnerUlrich KaiserJames Rhodesgatto che fa le fusavideo sull’insalataarticoli critici verso la direttiva copyright; caso Dancing Baby).

La moderna economia “digital driven” si basa prevalentemente sulla "disruption", realizzare leggi che si occupano di eliminare la "disruption" porterà solo ad annullare i benefici della nuova economia a favore dei vecchi monopolisti. Questo non significa che non occorrano delle leggi, ma per legiferare correttamente occorre prima di tutto una comprensione adeguata dell’ecosistema digitale. L’assenza di un quadro regolatorio, oppure un quadro regolatorio non adeguato, fa nascere e prosperare pure logiche di mercato, nelle quali i diritti dei cittadini finiscono per essere inghiottiti, a scapito dei profitti delle aziende.

A che punto siamo

Attualmente è in corso la consultazione pubblica sul Digital Service Act, aperta a tutti fino all'8 settembre. Entro la fine dell'anno (novembre) la Commissione dovrebbe presentare una proposta di legislazione che entro un paio di anni dovrebbe costituire la nuova legislazione in materia di piattaforme europee.

Bruno Saetta https://www.valigiablu.it/

fonte: VOCI DALLA STRADA

Nessun commento:

Posta un commento