"I popoli non dovrebbero temere i propri governi: sono i governi che dovrebbero temere i propri popoli."
V (da John Basil Barnhill)

Gli interventi

ai or not ai?

Yvette Agostini e Marco Calamari (Progetto Winston Smith)

Tema caldo del momento, l'intelligenza artificiale sta ricevendo grande attenzione dal grande pubblico. Ma cosa è ai e cosa non è? Qualche indicazione per orientarsi tra acronimi, tecnologie, sfide di un settore che sta evolvendo molto rapidamente. Negli scorsi mesi abbiamo assistito a un crescente interesse per alcune applicazioni di intelligenza artificiale disponibili su internet, fino al recentissimo intervento del garante privacy italiano (seguito poi da altri in Europa) nei confronti di uno di questi servizi. La copertura mediatica e i commenti del pubblico mostrano però, in generale, una scarsa conoscenza di cosa si possa definire intelligenza artificiale, di quali siano le tecnologie sottostanti, quali le sfide computazionali, di sicurezza e sociali che ne accompagnano l'evoluzione.

Duello fra la privacy e l’uso dell’intelligenza artificiale

Rebecca Berto

L'idea che sia possibile standardizzare il recupero credito per quelle situazioni in cui appare evidente l'inadempimento contrattuale ha portato all'uso dell'intelligenza artificiale anche per tale attività. Un esempio pratico è costituito dall'attività di recupero delle soste temporanee non pagate: in tale settore é molto nota l'app Donotpay. Un altro settore in cui si ritiene di poter standardizzare l'attivitá di recupero é quello dei transiti autostradali, laddove sia previsto il pagamento di un pedaggio e questo non sia stato pagato. In particolare i transiti autostradali implicano una notevole raccolta di dati personali: luogo e data del transito autostradale o del controllo effettuato tramite videocamere fisse o mobili, modalità di pagamento, la foto delle targhe dei veicoli, nel caso in cui il pedaggio non sia pagato o non siano state eseguite le istruzioni per un esatto pagamento oppure anche la copia del certificato di conformità del veicolo – laddove siano previsti supplementi del pedaggio per l'emissione di anidride carbonica, in un'ottica di gestione verde del settore autostradale. Esigenze di recupero credito consentono di raccogliere e trattare tale mole di dati e l'uso dell'intelligenza artificiale consente di standardizzare ed automatizzare l'attività di recupero credito. Tuttavia, la disparità e lo squilibrio fra le parti, oltre alle discrepanze procedurali fra Stati Membri e la complessità normativa, rende evidente che anche l'esercizio di un diritto fondamentale come il semplice accesso ai dati raccolti non sia così scontato. In quali termini la privacy puó duellare con l'uso dell'intelligenza artificiale?

Privacy-Enhancing Technologies - Ovvero: come ho imparato a non preoccuparmi e ad amare la data governance

Filippo Bianchini (ASSO DPO)

Le tecnologie PET emergenti, alcune delle quali vengono anche definite privacy-preserving, sono tentativi di combinare l'estrazione e l'utilizzo dei dati con la privacy e l'etica. Comprendono un numero crescente di nuovi approcci, come l'apprendimento federato, la privacy differenziale, la crittografia omomorfa, le prove a conoscenza zero e i dati sintetici. Condividono una visione simile: preservare la sicurezza e la privacy dei dati personali durante l'addestramento o l'utilizzo di modelli di apprendimento automatico in contesti collaborativi, mantenendo l'utilità dei dati analizzati.

Il GDPR come presupposto e presidio dell’AI Act.

Alessandro Del Ninno (Universita' degli studi di Roma Luiss Guido Carli)

La relazione si incentra su quali specifici rapporti esistono tra il Regolamento Generale UE sulla protezione dei dati personali e la proposta di Regolamento generale UE sull’Intelligenza Artificiale, nella prospettiva di far comprendere come i dati personali - presupposto e “benzina” imprescindibile del machine learning - possano costituire altresì un presidio (in termini di qualità e completezza ma anche in termini di una disciplina, quella del GDPR che si ponga come difesa dei diritti e delle libertà fondamentali) di etica e antropocentrismo dell’IA.

Intelligenza Artificiale e privacy attraverso l'approccio con DAPPREMO (Data Protection and Privacy Relationships Model)

Nicola Fabiano (Professore a contratto Univeristà di Ostrava (Roma) - Studio Legale Fabiano)

Quale può essere un approccio corretto nel rapporto tra Intelligenza Artificiale e privacy? È possibile definire l'Intelligenza Artificiale? Qual è il ruolo dell'etica nell'Intelligenza Artificiale? Proponiamo di rispondere a queste e ad altre domande presentanto DAPPREMO, acronimo di Data Protection and Privacy Relationships Model, che si basa sulla teoria degli insiemi e su alta matematica. DAPPREMO favorisce approcci multidisciplinari per affrontare qualsiasi aspetto relativo alla protezione dei dati personali e alla privacy. DAPPREMO, al di là della sua declinazione teorica, è anche un progetto per la realizzazione di un sistema di intellogenza artificiale con Machine Learning e Deep Learning. Riteniamo che sia la legislazione in materia di protezione dei dati personali e privacy, sia i principi etici eistenti in questi domini appartengono a un unico insieme. DAPPREMO è una soluzione nuova, singolare e innovativa per adottare un modello nelle attività di protezione dei dati e della privacy. DAPPREMO, attraverso l'analisi della realtà, permette di identificare oggetti spesso ignorati o sconosciuti. Dal punto di vista della protezione dei dati e della privacy, DAPPREMO si rivela un approccio innovativo in quanto consente di avere un'ampia panoramica di tutti gli oggetti relativi sia a un singolo caso sia a più casi. Inoltre, grazie a DAPPREMO, è possibile identificare meglio i ruoli delle persone (come soggetti interessati), delle istituzioni (come responsabili o incaricati del trattamento) e dei professionisti (come responsabili della protezione dei dati - DPO o consulenti).

La privacy nell’era dell’IA

Edoardo Ferri (Studio Tecnico Ferri & Costantino)

Nell'era delle intelligenze artificiali un breve approccio di intelligenza non artificiale. Dalla sicurezza delle informazioni alla privacy nell'era delle AI

Intelligenza Artificiale e Pubblica Amministrazione

Diego Giorio (SEPEL Editrice - Comune di Villanova Canavese)

Anzitutto l'AI è un pericolo o un'opportunità? In secondo luogo, può creare problemi o vantaggi alle Pubbliche Amministrazioni? L'AI è anzitutto uno strumento, com'è uno strumento un cacciavite, un'auto, una bomba atomica. Che, per le sue potenzialità, possa essere più vicina alla pericolosità di un'arma nucleare piuttosto che di un utensile classico è probabile, tuttavia anche l'auto genera migliaia di morti e feriti ogni anno, senza che nessuno metta in dubbio il suo utilizzo. Certo, si tratta di una tecnologia recente, per la quale sono ancora da esplorare potenzialità, rischi, limiti, ma si tratta anche di una grande opportunità. Nella PA, inoltre ci sono ampi spazi di miglioramento in termini di efficienza, puntualità, comunicazione, per cui un aiuto robotico potrebbe essere una soluzione, piuttosto che un problema, soprattutto se venisse utilizzato per sgravare i (pochi) dipendenti dalle procedure più ripetitive e consentisse di concentrarsi sui casi veramente impegnativi. Quanto al problema della perdita di posti di lavoro, ogni tecnologia ha sempre sottratto posizioni lavorative, per crearne altre. Certo potrà indurre pigrizia negli studenti e rendere difficile l’ingresso in certe professioni

L'Artificial Intelligence Act e l'appello dell'ENISA

Monica Gobbato (Privacy Academy)

La proposta legislativa europea è volta a regolamentare l’Intelligenza Artificiale in base al suo potenziale di danno. I legislatori dell’Ue hanno raggiunto un accordo politico il 27 aprile u.s. Gli argomenti sono: Norme più severe per le AI “senza scopo” Le applicazioni vietate La classificazione dei sistemi ad alto rischio Più tutele per i dati sensibili Il costo della legge Ue sull’AI. Infine verranno presentate le conclusioni dell'ENISA

TBA

Nicola Grandis (ASC27)

IA e protezione dati: questioni in tema di responsabilità civile

Michele Iaselli (Innova Jus)

La relazione ha l'obiettivo di individuare, sulla scorta anche di recenti proposte di direttive comunitarie, i principi e le regole che dovranno valere in tema di responsabilità civile quando specifiche violazioni in materia di protezione dati derivano da applicazioni di IA. La soluzione non è semplice poiché da un lato la Suprema Corte sta rigettando diverse richieste di risarcimento danni in tema di protezione dati e dall'altro la Commissione europea tende a favorire l'accoglimento di richieste di risarcimento quando i danni derivano dall'utilizzo di sistemi di IA.

Intelligenza artificiale - stato dell'arte e posizioni del Garante per la protezione dei dati personali; prospettive future.

Alessandro Monteleone

Le potenzialità attuali dell'Intelligenza Artificiale ed il conflitto dei sistemi con la normativa in materia di protezione dei dati personali.

Giornalismo e IA

Lazzaro Pappagallo (Rai e Associazione Stampa Romana)

Affrontare in maniera problematica l'introduzione dell'Intelligenza artificiale all'interno del mondo del giornalismo. L’intelligenza artificiale è entrata nelle nostre vite. E’ entrata già nel mondo dell’informazione? In quali modalità? Cosa porta con sé? Quali sono le ripercussioni sul lavoro del giornalista, sui ritmi di lavoro dei singoli e sull'occupazione in generale? Quali sono se ci sono i vantaggi di utilizzo?

Metaverso, privacy e protezione dei dati personali

Paola Patriarca (Studio Legale E-Lex)

Il metaverso (o, molto più realisticamente, i metaversi) è un insieme di spazi digitali interconnessi ove l’utente può immergersi attraverso molteplici dispositivi (visori, guanti, altri accessori indossabili) e tecnologie diverse (artificial intelligence, blockchain, cloud computing, virtual reality, ecc.). Tali strumenti tecnologici permettono di andare oltre le due dimensioni dell’Internet odierno, consentendo all’utente di “stare dentro” un ambiente tridimensionale totalmente digitale. Tra i possibili scenari, la particolarità del metaverso sta nel proposito di voler offrire all’utente un’esperienza globale e diversificata, che possa il più possibile riprodurre il mondo fisico. Pertanto, l’utente tramite il proprio avatar (verosimilmente a sua immagine e somiglianza) potrà svolgere l’intera gamma di attività quotidiane che svolgerebbe nella propria realtà (lavorativa, scolastica, ludica, sociale) e comportarsi così come farebbero nel mondo reale. Questa crescente permeabilità tra il mondo virtuale e quello reale, tra l’avatar e il soggetto e tra le loro condotte, comporta numerosi rischi in termini di privacy, sorveglianza, diritti digitali (e molto altro). In effetti, il trasferimento nel metaverso di attività e comportamenti, nonché di rapporti sociali, giuridici ed economici normalmente osservabili nelle interazioni personali proprie della società offline aumenta il rischio che ciò che avviene nel mondo virtuale – regolato, almeno per ora, dai privati delle Big Tech - abbia notevoli ripercussioni sul soggetto fisico che abita il mondo reale. Pertanto, a fronte delle numerose e brillanti opportunità che tale nuova tecnologia può offrire, è fondamentale riflettere su alcuni profili critici al fine di trovare una soluzione che, ancora una volta, metta l’uomo al centro dello sviluppo tecnologico. In particolare, sotto il profilo della protezione dei dati personali sarà determinante indagare quanti e quali dati personali saranno raccolti e trattati dai gestori delle piattaforme, le modalità e le finalità di tale trattamento. Ciò al fine di evitare che i gestori delle piattaforme possano arrivare ad invadere i confini della privacy degli utenti, senza neppur che essi se ne accorgano. Fondamentale, inoltre, sarà comprendere l’adattabilità del quadro giuridico esistente in materia di protezione di dati personali a questa nuova tecnologia ovvero, in caso contrario, provvedere tempestivamente con una nuova regolamentazione che, lungi dal voler (poter) bloccare uno sviluppo tecnologico ormai inarrestabile, riaffermi indiscutibilmente il principio della privacy by design.

La guerra invisibile sugli algoritmi.

Enrica Priolo

Proverò ad indagare i fronti da cui si combatte la guerra del XXI secolo, focalizzandomi sul ruolo svolto dalle ultime conquiste tecnologiche, compresi i sistemi di LLM e di intelligenza artificiale generativa. Chi vincerà?

Neurodiritti: nuovi spazi di tutela per gli esseri umani

Valentina Grazia Sapuppo (AI Alliance - Futurium - Commissione Europea)

In un mondo alluvionato da informazioni, lo sviluppo dirompente della tecnologia ci pone davanti alla sfida tecnologica, una delle più grandi che la nostra specie abbia mai affrontato. La rivoluzione dell’informazione esercita una pressione senza precedenti sui nostri comportamenti e sull’etica individuale. Questo risultato è il c.d. realismo informazionale, l’idea per cui il mondo è composto dalla totalità degli oggetti informazionali che interagiscono, in modo dinamico, gli uni con gli altri e dove anche l’essere umano è composto di dati, come aveva affermato Alan Turing. Dobbiamo poterci permettere il lusso di fermarci a riflettere un momento sulla direzione che il digitale sta prendendo e chiederci, innanzi tutto, se il nostro senso etico potrebbe essere datato. Ecco che l’era dell’Automatismo non è più fantascienza, ma un futuro già prospettato. In questo futuro le macchine, come l’essere umano, sono capaci di prendere decisioni in modo autonomo, si adattano all’ambiente e si evolvono, imparando dall’esperienza e modificando i propri comportamenti futuri. Una volta compreso che le macchine, unite agli esseri umani, danno vita a società ibride, per prevenire inevitabili disastri è necessario porre delle regole etiche. Ciò ci serve allora è una etica fondata sulla morale. Perchè vi chiederete? Perchè per ottenere un’etica buona per tutti, ogni attore della Società della Rete deve fare, innanzi tutto, socraticamente affidamento sugli altri enti che vi operano. Per far questo bisogna agire con coscienza, valutando le esternalità, positive e negative, che scaturiscono dalle nostre azioni, quale lascito per le generazioni future, il tutto orientato alla protezione dei neuro-diritti.

Machina AI delinquere potest

Stefano Aterno (Studio Legale E-LEx)

Un sistema di intelligenza artificiale può commettere reati ? La risposta è sì. L’affermazione può far sorridere qualcuno e lasciare perplessi ma proveremo a fare alcune considerazioni (anche de iure condendo) durante il nostro intervento anche grazie ad una cosa che ho scritto ed è in corso di pubblicazione e a tutta una serie di contributi che da almeno una decina di anni parlano di come l’AI inizi a svolgere e svolgerà sempre di più operazioni in autonomia e imprevedibili per l’essere umano. Nei prossimi anni sarà difficile escludere il sistema AI e tutto il comparto della Robotica completamente dal meccanismo di attribuzione delle responsabilità o ritenere semplicemente che tale sistema di AI ha commesso quel fatto perché è stato programmato dall’essere umano. In siffatti casi la domanda che il giurista deve porsi è : deve essere sempre e solo l’umano e non la macchina l’unico responsabile ? In diritto penale la responsabilità oggettiva del creatore e programmatore non sarebbe consentita e il risarcimento del danno potrebbe non bastare.

Il Garante e l'IA

Guido Scorza (Garante Privacy)

Organizzato da

In collaborazione con

Supporter

Media Partner