Publications

Documents
Big Data and Regulation (selected literature)
CEPS (2020)
Artificial Intelligence and Cybersecurity
The Centre for European Policy Studies launched a Task Force on Artificial Intelligence (AI) and Cybersecurity in September 2019. The goal of this Task Force is to bring attention to the market, technical, ethical and governance challenges posed by the intersection of AI and cybersecurity, focusing both on AI for cybersecurity but also cybersecurity for AI. The Task Force is multi-stakeholder by design and composed of academics, industry players from various sectors, policymakers and civil society. The Task Force is currently discussing issues such as the state and evolution of the application of AI in cybersecurity and cybersecurity for AI; the debate on the role that AI could play in the dynamics between cyber attackers and defenders; the increasing need for sharing information on threats and how to deal with the vulnerabilities of AI-enabled systems; options for policy experimentation; and possible EU policy measures to ease the adoption of AI in cybersecurity in Europe. As part of such activities, this report aims at assessing the High-Level Expert Group (HLEG) on AI Ethics Guidelines for Trustworthy AI, presented on April 8, 2019. In particular, this report analyses and makes suggestions on the Trustworthy AI Assessment List (Pilot version), a non-exhaustive list aimed at helping the public and the private sector in operationalising Trustworthy AI. This report would like to contribute to this revision by addressing in particular the interplay between AI and cybersecurity. This evaluation has been made according to specific criteria: whether and how the items of the Assessment List refer to existing legislation (e.g. GDPR, EU Charter of Fundamental Rights); whether they refer to moral principles (but not laws); whether they consider that AI attacks are fundamentally different from traditional cyberattacks; whether they are compatible with different risk levels; whether they are flexible enough in terms of clear/easy measurement, implementation by AI developers and SMEs; and overall, whether they are likely to create obstacles for the industry
Literature
Good Regulation and Public Policies Evaluation: selected literature
Carrigan C.; Febrizio M; Shapiro S. (2020)
Regulating Agencies: Using Regulatory Instruments as a Pathway to Improve BenefitCost Analysis
Scholars of regulation generally view the procedures that agencies must follow when promulgating rules as instruments by which political principals control bureaucratic agents. Much like political principals attempt to use procedural checks to constrain regulatory agencies actions, these same agencies employ various regulatory instruments to influence the decisions of private agents, especially firms. Despite the parallel nature of these principal-agent problems, few studies, if any, have looked at whether lessons from one can be used to inform the other. In this paper, we draw analogies between benefit-cost analysis (BCA)—a procedural control employed in the regulatory process—and three regulatory instruments that have similarities to BCA—performance standards, information disclosure requirements, and management-based regulation. We use lessons from research on the effectiveness of regulatory instruments to make predictions regarding the efficacy of BCA in various situations. Just as different regulatory instruments are appropriate for different regulatory contexts, the pathways by which BCA attempts to encourage better regulation may not all be applicable in every circumstance. We argue that such mutual exclusivity should inform how requirements for BCA are designed and that BCA’s emphasis on systematic analysis—the pathway most closely resembling management-based regulation—may offer the most promise for encouraging better rules.
Documents
Big Data and Regulation (selected literature)
AGCM, AGCOM, Garante Privacy (2020)
Survey on Big Data
Al termine di una intensa e proficua collaborazione, è stato pubblicato oggi il rapporto finale dell’indagine conoscitiva sui Big Data condotta congiuntamente dall’Autorità per le Garanzie nelle Comunicazioni, dall’Autorità Garante della Concorrenza e del Mercato e dal Garante per la Protezione dei Dati Personali. Da tre prospettive diverse e complementari, l’indagine ha approfondito, anche attraverso audizioni e richieste di informazioni a imprese, associazioni di categoria ed esperti della materia, i cambiamenti derivanti dai Big Data sugli utenti che forniscono i dati, sulle aziende che li utilizzano e, dunque, sui mercati. Ciò anche al fine di cogliere appieno le possibili sinergie tra le tre Autorità e identificare gli strumenti più appropriati per eventuali interventi. Negli ultimi anni i dati hanno assunto importanza via via crescente nell’organizzazione delle attività di produzione e di scambio, a tal punto da poter essere considerati, oltre che la proiezione della persona nel mondo digitale, anche una risorsa economica a tutti gli effetti, anzi la risorsa di gran lunga più importante in molti settori. Infatti, grazie agli avanzamenti nell’ambito dell’Information e Communication Technology (ICT), le organizzazioni tendono a raccogliere dati di qualsiasi tipo, ad elaborarli in tempo reale per migliorare i propri processi decisionali e a memorizzarli in maniera permanente al fine di poterli riutilizzare in futuro o di estrarne nuova conoscenza. La creazione di dati sta seguendo un processo esponenziale: nell’anno 2018 il volume totale di dati creati nel mondo è stato di 28 zettabyte (ZB), registrando un aumento di più di dieci volte rispetto al 2011: si prevede che entro il 2025 il volume complessivo dei dati arriverà fino a 163 ZB. Questa espansione, guidata dall’affermazione delle piattaforme on-line, subirà un’ulteriore accelerazione con la connessione tra oggetti e le applicazioni 5G. In questo quadro si pongono nuove sfide: la centralità del dato, anche come bene economico e l’ importanza della sua tutela come diritto fondamentale della persona; l’impatto della profilazione algoritmica e delle piattaforme on-line sul grado di concorrenza in vecchi e in nuovi mercati rilevanti; l’effetto del programmatic advertising sulla qualità dell’informazione e sulle modalità di diffusione e acquisizione della stessa; la tutela e la promozione del pluralismo on-line in un contesto informativo esposto a strategie di disinformazione e di hatespeech; la necessità di garantire trasparenza e scelte effettive al consumatore, con particolare attenzione alla tutela dei minori, in relazione alla consenso circa l’uso del proprio dato; la protezione del dato personale anche in ambiti non attualmente coperti dal GDPR; la definizione di politiche di educazione in relazione all’uso del dato. La presente Indagine conoscitiva è articolata in 5 capitoli e un capitolo conclusivo. Il capitolo 1 introduce i temi oggetto dell’Indagine e fornisce una definizione e una descrizione delle caratteristiche dei Big Data. Nel capitolo 2 vengono riportate le principali questioni emerse nel corso delle audizioni e dai contributi dei partecipanti all’Indagine e i riflessi sull’operatività delle imprese italiane. Il capitolo 3 riporta le considerazioni dell’AGCOM su come il fenomeno dei Big Data incida nel settore delle comunicazioni elettroniche e dei media. Il capitolo 4 riporta le considerazioni del Garante per la Protezione dei Dati Personali sul possibile impatto dei Big Data sul diritto alla protezione dei dati personali e sulle misure e cautele da adottare; il capitolo 5 quelle dell’AGCM sull’utilizzo dei Big Data e le relative implicazioni di natura antitrust e di tutela del consumatore. Infine, nel capitolo conclusivo sono descritte le linee guida e raccomandazioni di policy indirizzate al legislatore. Tra queste, l’impegno assunto dalle tre Autorità a definire un meccanismo di collaborazione permanente in relazione agli interventi e allo studio dell’impatto dei big data su imprese, consumatori e cittadini.