"I popoli non dovrebbero temere i propri governi: sono i governi che dovrebbero temere i propri popoli."
V (da John Basil Barnhill)

Gli interventi

La privacy del 2118 - Un volo fantastico tra utopia, distopia e ucronia

Diego Giorio (SEPEL Editrice - Comune di Villanova Canavese)

In passato vi sono state molte singolarità, sia nella storia geologica del pianeta che nella storia tecnologica dell’uomo. In generale l’attenzione alla privacy è aumentata nel corso dei secoli, anche se negli ultimi anni sembra che la curva presenti una flessione. Non potendo sapere con certezza come si svilupperà in futuro, si possono immaginare tre scenari: uno utopico, nel quale la tecnologia migliora la vita senza pretendere un contrappasso, uno distopico, laddove saremo noi schiavi di un’intelligenza artificiale dispotica, uno ucronico, con pregi e difetti, con una battaglia che continua senza vinti o vincitori. Ma soprattutto, la domanda principale sarà: quale futuro vogliamo davvero costruire?

E adesso? Andiamo a teatro e divertiamoci con i giochi di ruolo!

Epto Tramaci (Tramaci.org progetto Anopticon)

L'umanità è in gabbia, oramai siamo nel pieno tecnocontrollo. Non per scelta ma per adattamento alle continue ingerenze dei "tecnodittatori". Gli esseri umani sono come criceti che camminando fanno giare la ruota economica dei dati? Mentre il "Grande Fratello" è incerto se scegliere un milione di volte tra "0" o "1" sulla base delle nostre azioni, impara e crea il nostro profilo. Tuttavia con qualche accorgimento possiamo produrre piccoli programmi che generano dati al nostro posto insegnando cose molto sbagliate su di noi al Grande Fratello. L'utente medio è vulnerabile ed allo stesso momento molto potente, ma non se ne rende conto.

AI contro?

Giovambattista Vieri (ENT SRL )

Un nuovo spettro si aggira per il mondo. Ci priva di privacy, di lavori consolidati, rende inutile acquisire professionalita'. Esso si chiama IA. IA non solo ci sostituisce e ci rendera' obsoleti MA ci segue e riconosce ovunque. Tutto vero ? Cominciamo a parlare di IA con riferimenti a casi reali. Qualche bibliografia e poi uno dei casi d'uso della IA apparentemente piu' in voga: il riconoscimento facciale! Passando poi allo sblocco di un "device" usando una telecamera. Ci avviamo verso una sorveglianza ubiqua e totale ? Vediamo come IA potrebbe aiutarci a non essere riconosciuti "dove potremmo farci male" e come.

Data ownership: cosa cambia se ognuno di noi può guadagnare attraverso i propri dati

Marianna Dolcetti (DPOInnovation) e Carmine Andrea Trovato (DPOInnovation)

Dal 2006 al 2012 sono stati prodotti più di 180 exabyte di dati sufficienti a riempire quotidianamente tutte le librerie americane (per 18 volte). Con le tecnologie dell’ IoT e dell’AI, tale produzione è destinata ad aumentare e a spostare il centro di sviluppo ed elaborazione del dato, dall’essere umano alla macchina. Sta progressivamente maturando la consapevolezza che i dati sono importanti, sono il nuovo “oro nero”, e se è vero che l’informazione è potere, l’informazione sulle persone è potere sulle persone. Capire i meccanismi che stanno plasmando e orientando il mondo è fondamentale per capire dove stiamo andando.

Il rapporto tra l’individuo e le informazioni che lo riguardano è stato concepito in due modi distinti:

philosophy of economic: ossia in termini economici e proprietari, “io sono proprietario dei miei dati” (così come lo sono della mia casa o della mia macchina), l’individuo esercita un diritto proprietario che segue le regole civilistiche sulla disposizione dei beni da parte di un soggetto o della collettività.

philosophy of identity: ossia come diritto fondamentale dell’uomo. Le informazioni descrivono l’individuo all’interno della società e contribuiscono a definirne l’identità. Il dato è un’estensione del corpo e non ne posso disporre commercialmente

Queste due prospettive riflettono una dicotomia rigida di come può configurarsi la relazione dell’individuo con un elemento esterno: o come un bene (materiale o immateriale), o come un carattere (elemento costitutivo della personalità umana). Questa dicotomia si è rivelata in tutta la sua fallacia, mostrando i limiti alla tutela che è riuscita a garantire ai cittadini europei, anche alla luce del recente scandalo che ha coinvolto Facebook. Il dato personale è un bene completamente nuovo e diverso, che non può esser semplicemente ricondotto alle categorie giuridiche esistenti, rivelatesi insufficienti e inadatte a svolgere quell'operazione di codificazione della realtà necessaria per garantire una tutela reale ed efficace.

La gratuità della maggior parte dei servizi dell’informazione rischia di intrappolare gli individui in un meccanismo perverso e di spogliarli del loro ruolo di cittadini, di votanti o di clienti, riducendoli a semplici utenti, categoria priva di diritti. E’ importante capire se gli strumenti giuridici di cui disponiamo oggi sono sufficienti a garantire il rispetto della libertà e della dignità della persona, o se invece - com’è più probabile - è necessario uno sforzo intellettuale più sofisticato che concepisca una terza opzione, una relazione tra l’individuo e le sue informazioni che racchiuda sia elementi della philosophy of economics sia della philosophy of identity, riconoscendo ai soggetti un reale potere di controllo sui loro dati, che non mercifichi la loro identità.

È possibile sviluppare un corpus normativo che regoli un modello economico di protezione dei dati personali in cui l’individuo possa esercitare un maggior controllo su di essi, traendone peraltro benefici economici? Quali conseguenze avrebbe questo fenomeno? L’utilizzo massiccio delle nuove tecnologie in ogni settore della vita moderna impone un ripensamento di alcuni sistemi regolatori. Ripensamento che, proprio in virtù della particolare natura e pervasività delle nuove tecnologie, deve esser frutto della collaborazione di professionalità diverse: giuristi, psicologi, antropologi, economisti, filosofi e politici. Nel nostro intervento cercheremo di dare una risposta a queste domande portando alcuni esempi concreti di norme e di modelli di business che si stanno muovendo in questa direzione.

Maledetto distributore automatico non avrai la mia identità

Emanuele Casagrande

I distributori di sigarette richiedono l'inserimento di un documento di identità. Altri permettono anche la registrazione dell'impronta digitale e contengono delle telecamere. Cosa ne viene fatto del mio codice fiscale, impronta o immagine? Vengono loggati? Vengono comunicati a qualcuno? Viene fatta profilazione? Essere riconosciuto come fumatore potrebbe essere considerato un dato sensibile legato alla salute. Come viene tutelata la mia privacy, in vista dell'entrata in vigore del GDPR? E' possibile generare una tessera anonima che viene accettata dai distributori automatici? (ovviamente si)

Privacy e internet of things: quali sono i rischi?

Chiara Gallese (Studio Legale Gallese)

Il nuovo Regolamento europeo in tema di protezione di dati personali ha armonizzato la disciplina della privacy in tutti gli Stati dell’UE, introducendo, inter alia, il principio di accountability. Con il costante e rapido sviluppo della tecnologia, tuttavia, permangono rischi concreti per la sicurezza della popolazione, che le norme non hanno saputo affrontare, stante l’incolmabile gap tra processo legislativo e progresso tecnologico. Tra le tante innovazioni recenti, l’Internet of Things, le auto a guida autonoma, i dispositivi medici o di cura automatizzati, uniti alla sempre maggiore diffusione dei dati personali a livello globale, pongono l’obbligo di rivedere il modo in cui le normative internazionali e nazionali affrontano le nuove tecnologie, non solo in ambito privacy ma anche in materia di cybersecurity. Allo stato attuale, nonostante la nuova disciplina sulla privacy abbia cercato di porre un freno all’abuso da parte dei grandi operatori economici, i rischi a cui far fronte sono molteplici, come ad esempio i reati informatici, il cyberterrorismo o il cyberbullismo. L’intervento analizzerà alcuni di questi rischi e avanzerà delle proposte per la risoluzione dei problemi più significativi.

Dovremmo essere consumatori e interessati (al trattamento) invece siamo tester

Riccardo Abeti (Unione Avvocati Europei)

Nel corso degli anni, il nostro ordinamento ha predisposto strumenti che con alterni risultati hanno provato a tutelarci e a indicare la rilevanza dei nostri diritti rispetto a servizi che ne proponevano il superamento in nome di utilità e progresso e in nome di funzionalità che ci supportano spesso impigrendoci anziché stimolarci. A distanza di 23 anni dalla direttiva 95/46 CE, anziché interrogarci sulle applicazioni del quadro normativo a tutela dei dati, ancora ci interroghiamo sul suo fondamento. Il risultato di queste considerazioni è un cittadino che, in cambio di denaro (talvolta poco altre molto) e informazioni (sempre troppe), riceve servizi immaturi che è costretto a testare in prima persona e diventa rapidamente non solo oggetto di controllo ma anche di manipolazione e perde la percezione di quali scelte ha fatto consapevolmente e di quali è stato indotto a fare.

L'intelligenza naturale e il corpo digitale

Marco Ciurcina (StudioLegale.it)

Le tecnologie della cosiddetta intelligenza artificiale permettono nuove forme di abuso del corpo digitale delle persone. Le norme sulla privacy disciplinano la materia in modo insoddisfacente lasciando alle persone strumenti insoddisfacenti per opporsi a tali forme di abuso consentendo l’adozione di strategie di estrazione del valore dal corpo digitale delle persone. Si illustrano alcuni scenari tecnologici (tecnologie di criptazione e contratti su registri distribuiti) che potrebbero permettere di disegnare forme di azione collettiva capaci di migliorare la difesa del corpo digitale contro le nuove forme di abuso.

Fake news e diritto all’oblio, nuove declinazioni dei diritti civili digitali: dialogo a tre.

Monica Gobbato (Studio Gobbato), Nicole Monte e Guendalina Casonato

Il caso Stamina: una fake news prima dell’avvento del social media networking? Dalle bolle mediatiche chi ci difende(va)? Cosa è fake e cosa c’è di vero nei casi mediatici creati, troppo spesso, ad arte? Il caso mediatico è noto: fu creato dalla trasmissione TV Le Iene, perché alcune persone affette da malattie neurodegenerative avevano visto alcuni miglioramenti sottoponendosi ad una (asserita) sperimentazione scientifica a base di cellule staminali, creata da Davide Vannoni, ma la magistratura aveva bloccato la somministrazione delle cure, a fronte di diverse denunce di soggetti che dopo avere speso cifre folli, non avevano tratto alcun beneficio. L’appello straziante delle famiglie dei malati fu mediaticamente fortemente supportato ma si contrapponeva alla condanna della comunità scientifica. L’opinione pubblica letteralmente si divise. Con il passare del tempo la bolla mediatica venne meno e Davide Vannoni di recente è stato condannato per il reato di truffa con lo stop definitivo alla somministrazione delle discusse cure.

Le bolle mediatiche ed il giornalismo d’inchiesta sono certamente sempre esistiti ma con l’avvento dei social media assumono nuove forme. Ancora prima dello scandalo di Cambridge Analytica, nel corso del 2017 si è parlato molto di Fake news poiché si è compresa appieno la loro portata distruttiva del pensiero critico sociale. Come è ben noto a tutti, le notizie false sono sempre esistite, le fake news sono vecchie quanto è vecchio il mondo, ma con la proliferazione di blog, siti internet e social network la diffusione della disinformazione sta assumendo dei connotati epidemici. Come affermato dalla Commissaria dell’UE al digital Mariya Gabriel, le fake news oggi fanno paura perchè “non sono illegali e non sono nuove”. Non ci si limita più a recepire una notizia alla televisione e a condividerla con il nostro compagno o i nostri amici al bar, la CONDIVISIONE DELLE NOTIZIE OGGI AVVIENE nel web che, per definizione, significa rete di grandezza mondiale! ed una notizia falsa, dal contenuto ingannevole può quindi creare allarmi, essere un facile mezzo con il quale manipolare il nostro pensiero critico, un mezzo per attacchi politici…. Se volessi fornire una descrizione compiuta di cosa sia una fake news, prenderei spunto dalle parole del professor Pollicino (Oreste POLLICINO, Giovanni PITRUZELLA e Stefano QUINTARELLI “Parole e potere, libertà d’espressione, hate speech e fake news” pubblicato da EGEA nel 2017) articoli recanti notizie che sono intenzionalmente e verificabilmente false e potrebbero trarre in inganno i lettori. Quindi non sono “fake” gli errori non intenzionali, i rumori del web, le teorie cospiratorie o la satira.. La domanda pertanto che mi sono posta e che vorrei discutere con voi è la seguente: le fake news fanno parte o meno della libertà di espressione?

Singolarità o privacy disruption?

Efrem Zugnaz (Webprepping)

Internet ed una sottile paura di impiegare il nostro tempo nel modo sbagliato. Il modo in cui impattiamo la nostra privacy di tutti i giorni è una singolarità o disruption? O è una patologia come la FOMO, “Fear of missing out” e affligge tutti, non solo i giovani. Un’incontrollabile desiderio di essere connessi. E quella sensazione di agitazione, pentimento e invidia e “crea un turbinio emozionale e un risentimento verso noi stessi o gli altri, insoddisfazione, ansia e sentimento incapacità” come dice Sherry Turkle. Ma dall'esperienza webprepping "survivalismo digitale" non ci sembra così. Nuovo internet, nuovi cittadini e c'è la moltitudine innarrestabile che non si mette a commentare i cambiamenti di internet ma la cavalca e cerca di trasformarla in speranza.

Privacy assediata: come difendere le proprie comunicazioni via Posta Elettronica

Roberto Premoli (IOTHAT)

Disamina semiseria di come i metodi di Spionaggio si siano affinati negli ultimi 50 anni e di come gli Stati Uniti D'america siano in prima file nell'attentare alla privacy, non solo dei propri cittadini, ma dell'intero mondo. L'europa, pur avendo preso atto della situazione, sembra incapace di reagire al di la' di timide dichiarazioni di facciata. Ma quando il Potere esita a dicendere i cittadini, è dovere di ognuno provedere alla difesa di sè stesso e dei propri interessi economici, politici e personali.

Data Breach e GDPR: profili operativi e best practices internazionali

Giuseppe Vaciago (LT42 S.r.l.)

Ogni data breach ha, sempre con maggiore frequenza, rilevanza transazionale. Basti pensare ai casi in cui i target di attacco sono gruppi multinazionali o cloud provider che operano su più Stati Membri dell’Unione Europea. Questi fenomeni hanno reso evidente la particolare complessità della procedura di segnalazione di un data breach in grado di compromettere i dati personali relativi a cittadini appartenenti a più giurisdizioni europee. Rispondere in modo efficace a un data breach richiede pertanto un approccio multidisciplinare ed integrato, dove vengono presi in esame aspetti di natura tecnica, legale, finanziaria e sociale che coinvolgono tanto il singolo data controller, quanto le stesse Autorità Garanti di ogni Stato Membro. L'obiettivo principale della relazione sarà quello di esaminare le varie procedure di segnalazioni di data breach, alla luce dell'entrata in vigore del Regolamento, che saranno introdotte dalle varie Autorità Garanti a livello nazionale ed europeo evidenziando pregi e difetti di ogni singola procedura.

Big data, dati sanitari e GDPR

Stefano Ricci (BiSLab - Bicocca Security Lab)

L'intervento delinea il modello di responsabilità per i trattamenti di dati sanitari in un contesto di big data alla luce del Regolamento UE 2016/679 sulla protezione dei dati (General Data Protection Regulation, di seguito GDPR). Si analizza quindi dapprima il contesto - big data ed Internet of things (di seguito IoT) - per poi passare all'aspetto normativo, ossia il modello di responsabilità imperniato su accountabilty e risk-based approach. In questo scenario, gli istituti giuridici più importanti sono quelli che riguardano la figura del Data Protection Officer (di seguito DPO) e l’attività di Data Protection Impact Assessment (DPIA).

Quando la privacy cade nella trappola dell’anonimizzazione

Monica Senor e Carlo Blengino

La normativa a protezione dei dati personali garantisce la vita privata e la riservatezza di cui all'art.7 della Carta dei diritti fondamenti dell'Unione europea? Il dato anonimo, che non trova tutela, consente profilazioni di massa che costituiscono il presupposto per trattamenti automatizzati che, grazie a AI e IoT, azzerano tale diritto. Nel mare dei big data siamo indifferentemente balene e sardine.

Oops they did it again: il data breach nell’era del GDPR

Giovanni Battista Gallus (Circolo dei Giuristi Telematici, Nexa Center)

I data breach, da arcano argomento per addetti ai lavori, sono diventati in pochissimo tempo un tema di primo piano: da Yahoo a Ashley Madison, dai Ministeri agli enti locali, dai provider ai professionisti, le violazioni di dati personali oramai fanno davvero notizia. Una delle grandi novità del GDPR è proprio la generalizzazione dell’obbligo di notificazione del data breach al Garante e di comunicazione (eventuale) agli interessati: il talk si propone di esaminare la regolamentazione in materia, le garanzie per le persone fisiche e i nuovi adempimenti per enti e aziende.

Da Cambridge aAalytica ai dati di Whatsapp: storia e gloria del trasferimento di dati all'estero

Fulvio Sarzana (studio legale)

La problematica della regolamentazione del trasferimento di dati all'estero, e dei flussi transfrontalieri, e di conseguenza anche dell'utilizzo di servizi che non abbiano sede nel paese di residenza, è questione complessa e dibattuta. Negli ultimi anni, infatti, lo scandalo delle intercettazioni dell'NSA americana ha irrigidito le posizioni dell'Unione europea che si è vista costretta a riformare parte della regolamentazione. I recenti casi di Cambridge Analytica e i connessi usi di dati da parte degli OTT hanno posto in luce l'esigenza di tutelare in maniera stringente l'utente europeo i cui trattamenti di dati sono effettuati all'estero.

Diritti digitali

Nicola Filippini

Una veloce panoramica sui diritti digitali che sono riconosciuti ai cittadini e sulle modalità di esercitarli; sulla “carta” siamo un paese che ha tutte le premesse per essere digitalmente evoluto ma mentre da un lato parliamo di “orizzonte 2020” dall'altro nel 2018 ancora una buona parte dei cittadini ignora i propri diritti digitali e difficilmente riesce ad esercitarli sia in maniera basilare nelle interazioni con le pubbliche amministrazioni che in maniera combinata per una maggiore efficenza per il rilascio del mitico lasciapassare A38.

Privacy And Counter-Terrorism Measures: Real Fight Against Terrorism Or Citizen Right Violation In Modern Russia?

Bella Shakhmirza

In Russia negli ultimi 5 anni sono state accettate parecchie leggi contro il terrorismo che però limitano i diritti dei cittadini per distribuire, ricevere e trasmettere informazione e acconsentono ai servizi segreti l'accesso ai profili social. Gli operatori telefonici e provider internet dal 2018 per legge devono conservare le informazioni di tutti gli utenti su chiamate, sms, trafico internet per 6 mesi. VK analogo russo di Facebook è un piattaforma gli utenti di cui possono finire in prigione per aver condiviso un post, foto o video con i contenuti "che dichiarano razzismo, odio o violentano il potere dello stato". VK dà l'accesso per la polizia o servizi segreti (come Centro E) ai profili di persone, ai chat etc senza fare tante storie.

Tutta l'intelligenza (artificiale) nelle mani della polizia

Riccardo Coluccini (Hermes Center for Transparency and Digital Human Rights)

Gli sviluppi tecnologici nel campo dell'intelligenza artificiale hanno visto il fiorire di numerose aziende italiane: che si tratti di riconoscimento vocale o facciale, di identificazione degli oggetti o persino di analisi predittiva, ogni settore è stato già ampiamente conquistato.Queste tecnologie, però, sono rapidamente finite anche nelle mani delle forze dell'ordine.

In questo talk, grazie ai documenti ottenuti tramite richieste FOIA al Ministero dell'Interno: la polizia ha acquistato dei sistemi di riconoscimento vocale per gli audio presenti online e persino 10 videocamere per il riconoscimento facciale in tempo reale, da utilizzare durante manifestazioni pubbliche.

Analizzeremo quindi alcuni dettagli tecnici delle tecnologie a disposizione della polizia italiana e offriremo alcuni spunti di riflessione sui rischi che queste tecnologie possono avere per la privacy dei cittadini.

La digitalizzazione di dati personali nella Deutsche Demokratische Republik

Edoardo Ferri (Studio Tecnico Ferri & Costantino)

I rapporti della STASI (Ministerium für Staatssicherheit) con l’informatica iniziarano ben presto, inzialmente con un sistema di calcolo basato su schede perforate, successivamente con un mainframe computer di prima generazione di origine francese acquistato segretamente nel 1968. Nel 1972 l’intero schedario centrale era stato digitalizzato su nastri magnetici e quindi a disposizione per la consultazione computerizzata. I tecnici della Stasi/HV A inziarono a inserire in un Siemens 4004 tutte le informazioni procurate dagli operatori attivi.

Riconoscimento oggetti e volti nelle immagini dei social media

Roberto Marmo (Università di Pavia)

I social media utilizzano tecnologie di intelligenza artificiale e visione artificiale per riconoscere la presenza di oggetti e volti umani nelle immagini, tramite l'analisi di colori e forme anche senza il supporto del testo scritto dall'autore. Queste analisi vengono svolte per gestire la grande quantità di immagini e per fornire una descrizione in formato testo a favore dell'accessibilità. In questa relazione si descrivono a grandi linee le tecnologie usate e si cerca di verificare se creano un pericolo per la privacy delle persone riprese nelle immagini.

Catalunya, un corto circuito democratico nell'era dei Big Data

Giulia Seno (Giornalista)

Catalunya, un corto circuito democratico nell'era dei Big Data - Il conflitto tra il Governo della Spagna monarchica e la Generalitat che ha proclamato una Repubblica catalana ha finito per mettere in discussione diritti fondamentali come quelli di espressione dell’individuo e di neutralità della rete Internet, Adottando ogni forma di censura online, come nei paesi non democratici. L’assenza di violenza in ogni azione indipendentista non ha impedito al Governo spagnolo una decisa repressione, con tanto di carcere e accuse gravi alle più alte cariche politico-istituzionali catalane. La vicenda, culminata nel referendum contestato dell’1 ottobre 2017, è stata rilanciata dalle elezioni vinte nuovamente dagli indipendentisti il 21 dicembre.

Relatori: Giulia Seno, giornalista (20')

Lo shutdown di Internet in Catalogna

Norrin Radd (Attivista informatico Catalano)

Lo shutdown di Internet in Catalogna - Il soccorso civico per far ripartire la Rete –​ Bloccati per ore anche i centralini telefonici in molti uffici pubblici e altri servizi che dipendono dalla Rete. Censura totale per il dominio .cat usato dalle istituzioni catalane oltre che da cittadini e imprese. Fin dai giorni prima del referendum indipendentista dell'1 ottobre 2017 la statunitense Internet Society, organizzazione internazionale creata dai pionieri di Internet che promuove l'accesso alla Rete (composta da oltre 100 realtà di 125 Paesi), denunciò le azioni contro decine di siti e gli arresti di persone, puntando al fermo di tutti i domini che avessero "qualsiasi tipo di informazione sul referendum"​

Relatori: Norrin Radd, un attivista catalano (20')

Voto elettronico e democrazia. L'incostituzionalità, per la Germania, del voto elettronico.

Aldo Antonio Pazzaglia (Consulta delle Regioni per gli Stati Uniti d'Europa)

L'innovazione tecnologica ha consentito di sperimentare la sostituzione delle procedure di voto cartacee con, dapprima, sistemi meccanizzati e poi con procedure di voto elettroniche. Recentemente, in Italia, il referendum promosso dalla Regione Lombardia ha previsto il voto solo mediante procedure elettroniche. Precedentemente sono state fatte prove limitate sempre sostituendo il "cartaceo" con l' "elettronico". Volgendo lo sguardo in ambito internazionale altri paesi, ben prima dell'Italia l'hanno sperimentato. Quasi tutti, però, dopo un iniziale fervore innovativo stanno ripensando la cosa. Eclatante il caso Germania in quanto vi è una pronuncia espressa della Corte Costituzionale Tedesca che afferma la inconciliabilità costituzionale del voto elettronico. Non basandosi sulla programmazione che, seppur attualmente carente in quanto in evoluzione, prima o poi raggiungerà la maturità e sarà emendata, ma in quanto la procedura elettronica, a dispetto di quella "cartacea" non consente il controllo da parte dell'elettore delle procedure di voto. Controllo per cui deve essere consentito all'elettore, digiuno di competenze tecniche, di poter controllare le singole fasi e quindi l'intera procedura di voto, in particolare tutto lo spoglio (con l'eccezione della riferibilità del voto che, ovviamente, deve rimanere non verificabile in quanto il voto è segreto).

La propaganda computazionale tra Catalogna, Italia e altri mondi. L'odio automatizzato in rete

Renato Gabriele (Oohmm), Vacca Manuela e Giorgio Resci

  • La propaganda computazionale tra Catalogna, Italia e altri mondi
  • L'odio automatizzato in rete

Bot popolano hashtag #Estamosporti promosso dal Governo spagnolo – Indipendentisti attaccati anche nei messaggi privati con le modalità dei “Peñabot” messicani (2012), usate a volte anche in Italia, tra l'altro​​ contro figure femminili di rilevanza pubblica - Privacy inquinata nei social media anche dall'uso distorto delle app di sondaggistica: possono funzionare in modo anonimo, al contrario del caso dei dati poi finiti a Cambridge Analytica, e insieme garantire che le persone partecipino una sola volta al sondaggio.​

Relatori: Renato Gabriele, fondatore Oohmm; Manuela Vacca, giornalista; Giorgio Gresci, sviluppatore (45’)​

Il ragazzo che giocava con gli Ufo

Giovanni Scrofani

Esempio positivo di campagna computazionale, nata dal basso - Il successo dell'iniziativa contro l'estradizione negli Stati Uniti di Gary McKinnon, hacker britannico disabile, affetto dalla Sindrome di Asperger, che aveva già scontato in Gran Bretagna la condanna per aver hackerato alcuni server Usa alla ricerca di immagini sull'esistenza degli Ufo. La campagna, conclusa nel 2010, contribuì alla nascita del movimento "Twitterstorm" e di una pratica poi purtroppo adottata anche nella propaganda con i Political Bots.

Relatore: avv. Giovanni Scrofani (15')

GDPR e sicurezza informatica: è vero che sono in antitesi?

Cristina Vicarelli

Iniziano a circolare alcune fuorvianti interpretazioni del Regolamento generale sulla protezione dei dati in rapporto alla sicurezza informatica che, enfatizzando il principio di minimizzazione, inquadrano come illeciti alcuni trattamenti di dati personali effettuati per finalità di sicurezza. Negli ultimi mesi, infatti, si sono moltiplicati gli interventi online e offline sul Regolamento generale sulla protezione dei dati e il proliferare di commenti, non sempre centrati, sta consolidando alcuni “falsi miti”, una sorta di “fake news giuridiche” (frutto di interpretazioni estemporanee e sradicate dalla conoscenza del sistema giuridico), che si generano in ambiti dedicati a discussioni settoriali e poi si espandono a macchia d’olio. In particolare mi hanno colpito alcune osservazioni (ancora confinate in ambiti circoscritti) in ordine alla presunta incompatibilità del GDPR con le buone prassi di sicurezza informatica: è vero che il GDPR impedendo di "trattare" più dati dello stretto necessario potrebbe mutilare la sicurezza informatica? Si potranno trattare ancora file di log e indirizzi IP, anche senza chiedere il consenso agli interessati? Oppure saranno trattamenti eccedenti? Sono questi alcuni degli interrogativi ai quali il mio intervento si propone di rispondere, provando a fornire una bussola con la quale orientarsi tra il principio di minimizzazione dei dati e le basi giuridiche del trattamento, per dimostrare che il GDPR mira a potenziare la sicurezza informatica e non si pone in antitesi con essa.

DPIbon - "dual use is megl che uan"

Massimo Bozza

Deep Packet Inspection, prendendo spunto dall'ultima relazione di Citizen Lab "BAD TRAFFIC", in questo intervento si esaminerà chi sono i player delle tecnologie di Deep Packet Inspection; come tali tecnologie sono oggi impiegate e quali dati possono essere estratti, analizzandone il doppio utilizzo; come queste tecnologie sono in evoluzione nell'ottica di nuovi paradigmi di networking come NFV. Tali tecnologie saranno fonte di dati che, correlati con l'ausilio di Intelligenza artificiale, potranno minare la libertà e la privacy degli utilizzatori della rete: in tale ottica verranno valutate delle possibili contromisure per preservare la privacy degli utenti.

Blockchain e protezione dei dati personali: il valore del dato personale

Nicola Fabiano (Studio Legale Fabiano)

Il dato personale è un valore. La Carta dei Diritti Fondamentali dell’Unione Europea contempla anche la protezione dei dati personali e come anche la Convenzione Europea sui Diritti dell’Uomo preveda (Art. 7) il “Diritto al rispetto della vita privata e familiare”. Il principio enunciato nella Convenzione ha determinato il sorgere di una giurisprudenza della Corte Europea sui Diritti dell’Uomo proprio a tutela della riservatezza. Il dato personale costituisce un valore assoluto, ma più recentemente è emersa una tendenza volta ad attribuirgli anche un valore economico. Il processo di “monetizzazione” è particolarmente accentuato con i servizi fruibili da Internet. Molto spesso vengono erogati servizi gratuiti o offerte applicazioni gratuite per i quali sono richiesti i dati personali anche sotto forma di registrazione. In realtà, la gratuità è apparente, posto che il corrispettivo è costituito dai dati personali forniti. Quale approccio va utilizzato anche alla luce del GDPR ? Quali aspetti vanno considerati in un momento in cui il legislatore europeo sta scrivendo la nuova norma europea in materia di e-privacy ?

Consenso e trasparenza

Italo Cerno (ITLawFirm)

Il caso “Cambridge Analytica” ha portato all’attenzione dell’opinione pubblica mondiale alcune questioni inerenti il trattamento dei dati personali: quando la loro raccolta è legittima, il loro utilizzo lecito, la loro condivisione con soggetti terzi possibile. L’intervento si propone di analizzare i concetti di “consenso” e “trasparenza” alla base della nuova disciplina in materia di protezione dei dati personali dettata dal Regolamento (UE) 2016/679 (General Data Protection Regulation - GDPR).

How To Be Anonymous Online To Protect Privacy

Fabio Carletti (lejot opensource tecnology)

Il diritto alla riservatezza della vita privata di ogni persona è oggi giorno un tema sempre più sentito, specie dopo i fatti storici di Snowden, il progetto prism e lo scandalo di FaceBook Analytica. Verranno trattati tutti gli aspetti dell'operabilità vpn,deepweb,secure messaging, filesharing e internet alternativi come gnunet e freenet. Il talk si propone di fare una panoramica di strumenti opensource e free multipiattaforma per ottenere privacy e anonimato nel mondo del WEB.

Il sistema GPU, ricerca di equilibrio fra miglioramento dell’efficienza tramite l’analisi dei dati e rispetto della privacy dei singoli utenti

Antonio Ronca (INDIRE)

GPU è un sistema informativo, sviluppato da INDIRE, a titolarità dell’Autorità di Gestione (MIUR), che accompagna l’attuazione degli interventi del PON Per la scuola 2014-2020 “Competenze e ambienti per l’apprendimento”. Tramite questo sistema INDIRE realizza le attività di assistenza tecnica per i beneficiari e destinatari del Programma, le azioni di monitoraggio e di supporto alla governance per la sua attuazione, e le analisi finalizzate alla ricerca. Questo sistema consente la verifica costante della partecipazione al Programma e degli elementi utili al miglioramento dell’efficacia dell’attuazione stessa. Il sistema guida le oltre 8000 scuole nella candidatura e nella gestione dei progetti finanziati con il Fondo Sociale Europeo (FSE) e Fondo Europeo Sviluppo Regionale (FESR): al momento il sistema gestisce 450.000 anagrafiche di studenti, 100.000 docenti e oltre 30.000 progetti delle scuole. La raccolta e il tracciamento di dati relativi a tutti i percettori dell’offerta formativa (studenti e personale scolastico) e di altri soggetti coinvolti nel Programma (tutor, esperti, ecc), e la loro conseguente lettura critica, oltre ad essere un obbligo comunitario, è funzionale alla valutazione dell’efficienza degli interventi realizzati e quindi elemento importante nella programmazione di quelli successivi. Talvolta questa raccolta si scontra con la reticenza o la diffidenza di chi si vede richiedere dati per poter fruire della formazione e, per questo, il sistema GPU cerca di raggiungere una sintesi fra il miglioramento dell’efficienza tramite l’analisi dei dati e il rispetto della privacy dei singoli utenti.

Big Brother Awards Italia 2018

Fabio Pietrosanti (HERMES Center)

Cos'e' il BBA Italia? E' un premio "in negativo" che ormai da anni viene assegnato in tutto il mondo a chi piu' ha danneggiato la privacy. La maggioranza del Popolo della Rete sembra ormai convinta che parlare di liberta' e diritti civili in Rete sia un esercizio retorico e ripetitivo, e che il tecnocontrollo sociale sia ormai una realta' largamente accettata ed alla quale e' inutile opporsi. Il BBA si propone di riportare l'attenzione del Popolo della Rete su coloro che attivamente o passivamente contribuiscono a questa situazione. Anche in questa atmosfera cupa, il BBA rimane una iniziativa seria ma realizzata con allegria; tutto il BBA e' infatti permeato anche dalla voglia di divertirsi, non certo per sdrammatizzare la situazione, ma perche' fare le cose con allegria aiuta a farle bene.

Manifesto per la sostenibilità digitale in Sud Tirolo

Markus Egger, Paolo Dongilli, Anton Auer

Il gruppo sostenibilità digitale è stato costituito nel 2016 da un gruppo di attivisti sudtirolesi con l’ obiettivo di difondere una nuova cultura del digitale che si focalizza sui seguenti punti:

  • uno sviluppo digitale-economico che salvaguarda l’ambiente e i beni liberi per le generazioni future

  • uno sviluppo digitale-sociale che salvaguarda la dignità personale e il rispetto per le persone

  • uno sviluppo digitale-personale che concilia la velocità del digitale con la velocità biologica umana

Il gruppo ha formulato nel 2016 un primo manifesto che riassume i tratti distintivi e gli obiettivi della sostenibilità digitale. Attualmente sono in corso approfondimenti riguardo alle tematiche del manifesto. Ulteriori informazioni si trovano sul blog: https://openbz.eu/?p=502&lang=it

Il gruppo viene coordinato da Anton Auer e Markus Egger con gentile supporto di Paolo Dongilli, Matthias Wallnöfer e Andrea Congiu.

Organizzato da

In collaborazione con

Media Partner