"I popoli non dovrebbero temere i propri governi: sono i governi che dovrebbero temere i propri popoli." V (da John Basil Barnhill) |
Gli interventi
Profilazione pubblica e privata tra social scoring e Intelligenza Artificale: quali responsabilità e tutele legali? ⇧
Alessandro Del Ninno (Studio legale Tonucci & Partners)
Quali sono i presidi legali per difendersi dalla (inconsapevole) profilazione condotta - sia on line che off-line - dagli Stati e dalle organizzazioni private? La Cina è davvero l'unico Paese ad attuare una profilazione continua ed "istituzionalizzata" con il suo Social Credit System (attivo dal 2017 nel settore dei trasporti - che già nega accesso ai relativio servizi ad oltre 6 milioni di cittadini con credit negativo - ed esteso a tutta la popolazione nel 2020), oppure è solo il primo Paese a dirlo chiaramente? E' possibile far valere responsabilità giuridiche se un sistema di AI sbaglia le proprie valutazioni nell'assegnare uno scoring ad un individuo? Come cambiano le relazioni sociali e giuridiche se i diritti del cittadino sono (o saranno) rimessi a giudizi di terzi (persone o sistemi di AI)? A queste e ad altre domande proverà a dare risposta la relazione proposta, esaminando l'attuale scenario normativo internazionale (a partire dal GDPR) in tema di regolamentazione dei sistemi e delle tecnologie di profilazione e di scoring.
Il Riconoscimento Facciale tra algoritmi e biometria ⇧
Monica Gobbato (Studio Gobbato) e Massimiliano Nicotra (Studio Nicotra)
Il riconoscimento facciale è tra i temi più significativi della ricerca sull'intelligenza artificiale soprattutto perchè incrocia problematiche privacy diverse quali la biometria, la profilazione anche delle emozioni e l'identificazione sicura. Tecniche sempre più sofisticate sono diffuse in Cina e trovano sempre più spazio anche in occidente, nonostante le limitazioni del GDPR. La relazione analizzerà i casi già esistenti e i blocchi dell'Autorità Garante per la Protezione dei dati personali alla luce della disciplina applicabile..
Smart city: la città può essere intelligente senza sorvegliarci tutti? ⇧
Giovanni Battista Gallus (Circolo dei Giuristi Telematici - Nexa Center)
Evgeny Morozov, in un tweet del 2016, ha affermato che il termine “smart”, ad esempio riferito alla “smart city” e alla “smart home”, sia in realtà l’acronimo di “Surveillance Marketed As Revolutionary Technology”. A distanza di tre anni, le case e le città “smart” sono una realtà: ci si deve chiedere pertanto se lo sia anche la sorveglianza pervasiva, cioè quella che invade ogni spazio. Il talk si propone di affrontare i principali problemi legati alle smart/surveillance cities, sia dal punto di vista del GDPR, che della Direttiva 2016/680 in tema di prevenzione e repressione di reati, per verificare se sia possibile trovare un bilanciamento, o se invece ci si debba arrendere (o magari partecipare con gioia) al panopticon globale.
Social scoring e mobilità sostenibile, che fine fa la privacy? ⇧
Nicola Gargano e Graziano Albanese
La relazione, partendo da un case study affronta la problematica delle smart city, legate alla raccolta ed al trattamento dei dati in ambito della mobilità sostenibile. Dal car sharing, al car pooling, passando per il bike sharing e le smart bike, dove vanno a finire i nostri dati, quali sono i rischi connessi al trattamento di questi big data. Si partirà dall’analisi dell’evoluzione dei sistemi di mobilità sostenibile, per analizzare quanto la tecnologia e lo sviluppo di applicazioni per device mobili possano migliorare l’uso di questi servizi. Il compromesso unico va oltre l’autorizzazione alla raccolta dei dati personali, con la raccolta delle preferenze e dei dati di geolocalizzazione che non solo vengono trasmessi ai gestori titolari autonomi delle piattaforme, ma condivisi con altri utenti o aggregati da piattaforme terze. Quali sono le garanzie minime da richiedere per valutare un sistema di raccolta di tutte queste informazioni e qual è il loro impatto sulla privacy degli interessati, ma soprattutto i vantaggi per gli utenti giustificano tutta questa raccolta di informazioni.
«Law Enforcement Directive» e D.lgs. 51/18 ⇧
Il D.lgs. 51/18 ha applicato in Italia la Direttiva 680/16 che ha l'obiettivo di rendere, con i dovuti distinguo, applicabile il GDPR anche all'attività investigativa. I principi sottesi a tale norma sono: (i) la vita privata dell’individuo deve svolgersi al riparo da intromissioni esterne; (ii) tali intromissioni possono essere giustificate solo in presenza di un pubblico interesse individuato da una legge; (iii) le misure in cui si concretizza questa intromissione devono essere necessarie (non possono essere sostituite da altre misure meno intrusive) e specifiche (devono essere controllabili) rispetto al perseguimento del pubblico interesse. I principi espressi sono di altissimo livello, ma tale normativa e le relative sanzioni saranno mai applicate?
Partecipazione politica e coinvolgimento civico nell'era della piattaforma Rousseau - uno scenario distopico o un avanzamento democratico? ⇧
Con l'avvento di internet e, successivamente, dei social media la partecipazione politica non è mai stata più semplice e aperta. Dibattiti trasversali tra istituzioni, accademia, società civile e cittadinanza sembrano quasi sempre puntare all'illimitato potenziale democratico delle tecnologie digitali, comprovato dalle capacità associative dei social network in situazioni di crisi politica. Il Movimento 5 Stelle ne è l'esempio schiacciante, tutto italiano. Ma che cosa succede quando il dibattito politico e il coinvolgimento civico avvengono tramite canali 'istituzionali', come la piattaforma Rousseau? Basandomi sui risultati di una Case Study Analysis condotta per 6 mesi, da giugno a dicembre 2018, questa talk esplora i lati oscuri del coinvolgimento civico online in riferimento alla Piattaforma Rousseau, alla luce dei recenti sviluppi in materia di privacy e trasparenza.
La campagna elettorale nell'epoca del social scoring: dal proporzionale alla profilazione ⇧
Adriana Augenti e Tommaso Scannicchio
La ricerca scientifica, i giornali e le autorità istituzionali di garanzia hanno dimostrato come, negli ultimi anni, la propaganda elettorale effettuata online per il tramite di strumenti di microtargeting e behavioural advertising modifica le regole del discorso pubblico, riducendo lo spazio per il dibattito e lo scambio di idee. Il problema dell’utilizzo di informazioni e dati personali per manipolare le persone a fini politici va ben oltre le norme ed il diritto alla protezione dei dati. Viviamo in un ambiente online altamente personalizzato e microtarghettizzato che crea delle “filter-bubbles” in cui siamo esposti a informazioni “sistematicamente simili a loro stesse. Siamo davvero sicuri che maggiore trasparenza e attenzione nella gestione dei dati siano sufficienti a garantire la regolarità delle elezioni e il pluralismo dei media?
Privacy Chillng effect ⇧
La cognizione può essere definita come "il processo di acquisizione di conoscenze e comprensione attraverso il pensiero, i sensi e l'esperienza" ma in particolare come sostiene lo psicologo tedesco Ulric Neisser anche come un sistema di elaborazione HIP (Human Information Processing). Tuttavia siamo condizionati da cosa Amazon e Google pensano di noi. Ma cosè il Privacy Chillng Effect? Probabilmente lo subiamo ogni giorno ma non sappiamo ancora cosa sia. Dalla esperienza del Webprepping, raccontiamo come vivono le comunità di persone che pensano ai propri diritti digitali.
Sui diritti umani connaturati alla corretta informazione. ⇧
L'intervento vuole indagare il dibattito sorto intorno alla consistenza del diritto alla conoscenza, come corollario fondamentale del diritto allo sviluppo, il quale si presenta come un diritto-dovere che presume una partecipazione (correttamente informata e informante) legata ontologicamente con il diritto alla conoscenza stesso. L' e-democracy passa anche, e soprattutto, dal bisogno essenziale dell’essere umano di assicurarsi libertà e dignità come individuo e membro della società. Ma, di più, se il diritto allo sviluppo ha un legame intrinseco con il diritto alla pace -come si sostiene- e se la partecipazione è un elemento imprescindibile dello sviluppo umano, allora si deve riconoscere dignità di diritto umano all’informazione ed alla conoscenza che ne deriva. Infatti, tali potenti strumenti di empowerment sono necessari perché abbia luogo una partecipazione reale alla vita democratica degli Stati.
Estrazione di email dai Social Media ⇧
Roberto Marmo (Universita' di Pavia, Facolta' di Ingegneria)
Ogni utente iscritto a un Social Media inserisce il suo indirizzo email nel profilo personale. Questa informazione viene usata dai gestori della piattaforma social, può essere letta dagli amici dell'utente, se non viene adeguatamente protetta può essere letta anche da persone che non sono suoi amici. In questa relazione vediamo dove viene mostrata l'email nell'interfaccia grafica dei famosi Social Media, quali sono i rischi di uso non autorizzato dell'email inserita, qualche consiglio per la riservatezza.
Le informazioni migliorano la user experience ma poi lo user ne perde totalmente il controllo ⇧
Riccardo Abeti (CSIG Ivrea-Torino)
AI è sinonimo di miglioramento delle capacità di interazione uomo-macchina ma anche di crescente voracità di informazioni da parte dei sistemi. Più informazioni diamo a una app e più sarà precisa nel rispondere alle nostre esigenze ma più l'interazione diventa compenetrata con le reali esigenze dell'utente e minore è la possibilità di isolare i trattamenti e decidere, in qualità di interessati, cosa fare delle informazioni utilizzate. Talvolta ci fermiamo ad analizzare l'impatto privacy della singola App ma raramente cogliamo che il sistema operativo ha ricevuto dei permessi e dei consensi che lo abilitano a gestire le nostre informazioni, a salvarle in remoto e a restituircele in determinati momenti (date ricorrente, luoghi ricorrenti, ...). Come si pone l'apparente severità del GDPR e la sua attuazione, rispetto a questi prodotti e servizi estremamente complessi e raramente percepiti dall'interessato?
Dimmi qualcosa di interessante su me! ⇧
Rendere le persone consapevoli riguardo al valore dei propri dati è una sfida ancora aperta. Una volta i browser erano a pagamento e forse basta questo come esempio per capire che gli interessi si sono spostati. In questo talk, attraverso una serie di esempi proveremo a capire cosa gli altri possono sapere di noi tramite l’analisi dei metadati che arrivano da applicazioni, device IoT ed in generale dalle nostre abitudini digitali. In ultimo esploreremo una serie di precauzioni da adottare in modo da minimizzare la tipologia e la quantità di dati che più o meno volontariamente concediamo a terze parti.
Progresso tecnologico e potere di controllo ⇧
Il progresso tecnologico, nel tempo che viviamo, sta ri-definendo la nostra condizione umana, i nostri rapporti sociali, giuridici e lavorativi. Non siamo più soggetti fruitori degli strumenti tecnologici, ma parti di una più ampia struttura basata sull’interazione tra l’uomo e la macchina. Soprattutto nelle realtà lavorative, la tecnologia si è trasformata da ausiliare della produzione a variabile indispensabile della catena produttiva. I luoghi di lavoro divengono spazi cibernetici, di interazione dinamica, con strumenti che sono indifferentemente estensione del corpo umano o protesi digitali. Mutano gli strumenti attraverso cui può essere adempiuta la prestazione lavorativa e mutano i rapporti fra i soggetti coinvolti nel processo produttivo. Così, da un lato crescono le ipotesi di controllo invasivo e massivo sui dipendenti, dall’altro, nasce l’esigenza di un impiego più libero degli strumenti tecnologici nelle imprese. La velocità del progresso, allora, è in sé la ragione economica che giustifica il ricorso alle tecnologie di controllo ed a nuove forme di adempimento della prestazione lavorativa, ed è, ancora, in sé la ragione sociale che crea nuove esigenze di tutela della persona. Ed allora in questo repentino processo di digitalizzazione bisogna salvaguardare i confini tra la qualità di lavoratore e l’essere persona, integrando le regole giuslavoristiche con le norme sulla privacy. I moderni strumenti tecnologici rendono disponibili al soggetto che tratta i dati, uno stock di informazioni di alto valore economico, consentendo una minuziosa profilazione dei lavoratori, aumentando le ipotesi di monitoraggio e rendendo ancor più labili i fini ed i con-fini del trattamento di dati. Ancora, le nuove tecniche di produzione portano all’impiego delle intelligenze artificiali che, funzionando con algoritmi in grado di auto-implementarsi ed evolversi, sarà sempre più difficile contenere all’interno di strette regole etiche – innanzitutto – e giuridiche. Questi sono strumenti non legati a un perimetro giuridico specifico, che possono agire su grandi quantità di dati personali e sulla relativa raccolta/gestione, incidendo sul modello organizzativo dell’impresa continuamente, coinvolgendo i dipendenti sia direttamente che indirettamente. I problemi giuslavoristici da porsi sono molti: i poteri datoriali da chi sono esercitati? Il robot dotato di intelligenza artificiale è qualificabile come soggetto controllato o oggetto controllante? Quali mansioni possono essere affidate ad un robot che interagisce con la persona? Di chi è la responsabilità? Chi controlla? Come si qualifica il potere di controllo? Il legislatore dovrà intervenire, soprattutto sulla relazione tra il potere di controllo e il robot intelligente; sulla riservatezza da imporre alla macchina intelligente nell’espletamento dei suoi compiti; sul legittimo rifiuto del lavoratore di cooperare con i robot, per esigenze di dignità e riservatezza; sui limiti entro cui il robot dotato di intelligenza artificiale possa essere qualificato strumento “di controllo” o “di lavoro”. La regia di tale regolazione potrà essere gestita più efficacemente dalla contrattazione collettiva, più attiva del legislatore sui luoghi di lavoro evoluti tecnologicamente. La rivoluzione digitale potrebbe essere affrontata scegliendo un sistema di rappresentanza dei lavoratori a livello aziendale che sia in grado di negoziare contratti più vincolanti, anche per i pochi dissenzienti. Potrebbero essere anche introdotti procedimenti su base individuale volti a correggere, caso per caso, le scelte organizzative indirizzandole verso la tutela del lavoratore. In conclusione, in questa rivoluzione digitale che ha varcato le porte delle imprese, ristrutturando il modo stesso in cui l’azienda si organizza, l’ordinamento giuridico deve salvaguardare i diritti fondamentali dell’individuo. Il sistema di tutele offerto oggi dalla disciplina giuslavoristica deve essere integrato non solo dai principi costituzionali, ma soprattutto dalla normativa sulla riservatezza, così cercando di evitare che le ragioni economiche di efficienza tecnologica travalichino la sfera più intima del lavoratore-persona. L’entrata in vigore del nuovo Regolamento europeo per la privacy n. 679/2016 (“GDPR”), avrebbe potuto rappresentare, per il legislatore italiano, l’occasione per approntare un sistema di tutele più efficiente e garantista verso la persona del lavoratore, ridisegnando procedimenti e misure sotto la luce dell’art. 2 della Carta Costituzionale. L’obiettivo da tutelare, la persona, è al tempo stesso la regola giuridica ordinatrice. Non può esservi progresso tecnologico o innovazione che non abbia come fondamento l’uomo.
Blockchain e GDPR: una convivenza difficile ⇧
Diego Giorio (Progetto Winston Smith / SEPEL Editrice)
Ultimamente si fa un gran parlare di blockchain, spesso anche a sproposito, tanto che persino la filiera che porta un pollo sulle tavole dei consumatori si vanta di essere gestita tramite blockchain. Anche l’Europa si è interessata al fenomeno, ed alcuni Garanti hanno iniziato ad esprimersi sulla compatibilità fra questa tecnologia ed il GDPR. Soprattutto la caratteristica di immutabilità degli eventi passati, che contraddistingue le blockchain, sembra essere in contrasto con il diritto all’oblio, sancito dalla normativa europea. In questo intervento si tenta di sintetizzare quali sono le caratteristiche delle blockchain e di comprendere come possano integrarsi nel GDPR, alla luce delle posizioni prese sinora dalle Autorità europee e con un occhio di riguardo per l’applicazione negli Enti pubblici.
L’immagine ed il contratto. la funzione ‘informativa’ dell’icona alla luce del GDPR: il rapporto Avvocato-cliente. ⇧
Roberto Pusceddu (Università di Cagliari)
Il presente contributo ha ad oggetto il Regolamento UE n. 679/2016 e si sofferma, in particolare, sull’utilizzo del disegno (nella forma di “icone’) con riferimento alle misure appropriate per fornire all’interessato tutte le informazioni e le comunicazioni relative al trattamento in forma concisa, trasparente, intellegibile e facilmente accessibile mediante l’utilizzo di un linguaggio semplice e chiaro. Ciò che si pone in rilievo nel presente elaborato è il particolare rapporto che intercorre tra il disegno ed il diritto e, nello specifico, si indaga la funzione che le icone svolgono nella tutela e nella protezione dei dati personali. In altri termini, l’interessato deve essere messo nella condizione di poter comprendere sempre come dovranno essere trattati i suoi dati personali. Ci si soffermerà su una particolare tipologia di contratto che involge il trattamento di dati personali e, nello specifico, si porrà l’accento sul delicato rapporto intercorrente tra avvocato e cliente limitatamente alla tematica del trattamento dei dati personali e le modalità di informativa.
Digital signage: la nuova frontiera delle campagne marketing digitali all’esame privacy ⇧
L’esigenza per le aziende di creare contenuti ma ancor di più di distribuirli e di pianificare la loro programmazione sta rivoluzionando il loro modo di fare pubblicità. La nuova frontiera del marketing si chiama digital signage, una forma di comunicazione di prossimità basata sull’impiego di segnaletiche promozionali che, tramite un sistema di riconoscimento e tracciamento facciale, raccolgono ed elaborano dati delle persone che vi stazionano di fronte, tra cui la loro risposta emotiva al messaggio pubblicitario. Dalle immagini del volto degli interessati vengono estrapolate tramite un software una serie di informazioni utilizzate per effettuare analisi dell’audience pubblicitaria, quali la presenza di un volto umano nell’area ripresa, il tempo di permanenza di fronte alla pubblicità o di persistenza di un certo volto nel campo visivo del sensore, il livello di gradimento dei messaggi pubblicitari tramite analisi dell’espressione facciale, la distanza dello spettatore, ed altre ancora. Ma chi utilizza questi software di elaborazione in grado di estrarre dati di tipo statistico dalle immagini riprese in modo pressoché immediato deve accertarsi di rispettare la normativa in materia di protezione dei dati personali e sicurezza informatica. E gli aspetti da considerare non vanno sottovalutati.
Trattamento dei dati personali: la nascita del reclamo costituzionale in Germania ⇧
In tempi in cui si discute di riforme costituzionali, vorrei citare un esempio di democrazia diretta che ha preso le mosse da un problema relativo alla privacy ed al trattamento dei dati personali. Facebook fa un cattivo uso del suo potere: trasmissione di dati personali in modo poco trasparente, poco legale come nel caso di Cambridge Analitica ha sollevato numerose domande. A questo si aggiungono anche le problematiche relative alle fake news e al leak di dati. Ma non è solo questo che solleva ombre su tale azienda, ma la condotta della stessa nei confronti, per esempio, della Commissione Europea DG Competition. Difatti nel 2014 Facebook ottenne il nulla osta dal DG Competition per la fusione di Facebook con Whatsapp. Solamente in seguito emerse che tale nulla osta venne ottenuto omettendo informazioni alla stessa Commissione. Nel 2017 nel Caso M.8228 Facebook/Whatsapp Facebook venne condannata al pagamento di una sanzione pari ad Euro 110 milioni - ai sensi dell'art.3(1) EC/139/2004 – per aver omesso rilevanti informazioni relativamente alla possibilità di incrociare automaticamente i dati degli account Facebook con quelli di Whatsapp mediante il numero di telefono. Facebook ammise di aver omesso tali informazioni per aver interpretato in maniera restrittiva le domande poste dalla Commissione Europea. La circostanza che il singolo cittadino non sappia chi, come, dove, quando e a quale scopo vengano raccolti dati personali è in contrasto con i diritti e le libertà fondamentali, garantiti a livello costituzionale. A tal proposito la Corte Costituzionale in Germania, in una famosa decisione "Völkerzählungsurteil" del 1983, ha ribadito che è il singolo individuo a dover decidere se comunicare i propri dati personali e per quali usi gli stessi possano essere utlizzati e/o trasmessi. Ma tale decisione è nota anche per un altro motivo. La Corte Costituzionale venne investita della questione non nel modo tradizionale, ma attraverso numerosi "reclami costituzionali" – Verfassungsbeschwerden - inviati via posta dai cittadini, che avevano sollevato dubbi su alcuni aspetti della legge del 1983 sul censimento generale. Tali dubbi si concentravano sulla circostanza che il singolo cittadino non sapeva quali enti avrebbero avuto accesso ai dati personali del censimento, come sarebbero stati trattati tali dati e a quale scopo. La Corte Costituzionale ammise tali reclami per due ragioni: la legge del 1983 sul censimento aveva un impatto sui diritti e libertà fondamentali garantiti dalla Costituzione. Inoltre, una trattazione della questione di diritto da parte del tribunale amministrativo avrebbe richiesto troppo tempo, con il potenziale rischio che la Corte stessa avrebbe poi dovuto dirimire sentenze contrastanti rese dai vari tribunali amministrativi. Quello che i cittadini in Germania ottennero nel 1983 fu non solo una decisione sul merito, ma anche che il "reclamo costituzionale" fosse inserito nella Costituzione tedesca, agli art.93 comma 1 nr.4a e 4b, quale strumento eccezionale per adire direttamente la Corte Costituzionale in Germania, nel caso in cui le leggi incidano sulle libertà e diritti fondamentali, garantiti dalla Costituzione. Naturalmente è stata prevista una procedura per la trattazione delle questioni costituzionali sollevate in tal modo. In tempi in cui si discute di riforme costituzionali, questo è un esempio di democrazia diretta. E a questo si aggiunge un'ulteriore considerazione: la Corte di Giustizia Europea è competente a dover interpretare la normativa europea per fornire un'interpretazione uniforme. Ma se una norma europea o la sua applicazione pratica impatta su un diritto fondamentale del singolo cittadino, il poter adire la Corte Costituzionale direttamente è uno strumento utile anche in una visione sovranazionale.
Big Data Processing: dal Social Scoring di Stato al Consumer Scoring, il difficile equilibrio tra marketing tecnologico e privacy ⇧
Valentina Longo (Avvocato) e Massimo Burgio (Consulente online marketing)
Le odierne prassi di online marketing si basano ormai da tempo sul concetto di profilazione utente e oggi si orientano sempre di più, con l’ausilio di algoritmi di artificial intelligence e deep machine learning, verso soluzioni di consumer scoring. Dall’industria finanziaria che lo ha adottato come standard, sono sempre di più le aziende che scelgono di accedere a piattaforme che offrono servizi di profilazione avanzata e di consumer scoring. Con il supporto di testimonianze di esperti di online marketing, corporate law e artificial intelligence puntiamo lo sguardo sul difficile equilibrio tra marketing tecnologico e privacy degli individui.
La tutela della sfera privata on line: gli scenari del regolamento e-privacy, gli strumenti di tutela ai tempi del GDPR ⇧
Mauro Alovisio (Centro Studi di informatica Giuridica di Ivrea Torino)
La relazione è finalizzata a illustrare gli strumenti previsti a livello europeo per tutelare la protezione dei dati personali alla luce del nuovo regolamento e-privacy. rafforzare la fiducia dei cittadini nelle comunicazioni coomunicazioni elettroniche Quali sono gli strumenti che cittadini e associazioni possono utilizzare in materia di utilizzo di cookie, profilazione, traking sia pubblico che privato, quali sono i compiti e il ruolo dell'Autorità garante per la protezione dei dati personali alla luce del nuovo piano ispettivo del 2019 della Guardia di Finanza
La responsabilità dell'algoritmo di scoring ⇧
Mentre la maggior parte della dottrina giuridica sulla privacy si concentra sulla raccolta del dato, la vera minaccia è rappresentata dalla successiva fase di analisi che può rivelarsi fallace e discriminatoria. Tutti i dati ormai sono dati credito” - vale a dire che l'analisi predittiva può prendere praticamente qualsiasi frammento di informazione su una persona, analizzare se corrisponde ad una caratteristica di “meritevolezza del credito” e trarne conseguenze che vanno ad incidere sulla vita delle persone.
Big Brother Award ⇧
Hermes Center for Transparency and Digital Human Rights
Cos'e' il BBA Italia? E' un premio "in negativo" che ormai da anni viene assegnato in tutto il mondo a chi piu' ha danneggiato la privacy.
La maggioranza del Popolo della Rete sembra ormai convinta che parlare di liberta' e diritti civili in Rete sia un esercizio retorico e ripetitivo, e che il tecnocontrollo sociale sia ormai una realta' largamente accettata ed alla quale e' inutile opporsi.
Il BBA si propone di riportare l'attenzione del Popolo della Rete su coloro che attivamente o passivamente contribuiscono a questa situazione.
Anche in questa atmosfera cupa, il BBA rimane una iniziativa seria ma realizzata con allegria; tutto il BBA e' infatti permeato anche dalla voglia di divertirsi, non certo per sdrammatizzare la situazione, ma perche' fare le cose con allegria aiuta a farle bene.
E' quindi possibile che anche quest'anno alla cerimonia di assegnazione, qualche ospite nuovo ed imprevisto si faccia vedere ......
Anche le categorie dei premi sono state rese piu' snelle. Oltre all'immortale premio "Minaccia da una vita", assegnato automaticamente a chi riceve piu' nomination, le categorie sono "Rischio tecnologico", "Minaccia internazionale" e "Provocazione nazionale".
E' stato mantenuto il premio positivo "Paladino della privacy".
Black Mirror nel presente ⇧
Il talk commenterà alcuni episodi e tecnologie mostrate nella serie televisiva Black Mirror alla luce delle ultime notizie dal mondo. La serie apparirà meno distopica e dannatamente più attuale. Il problema è che la velocità di adozione delle nuove tecnologie è sempre più elevata al punto che la nostra capacità di gestirla e conoscerla è sempre più limitata. Ci stiamo avvicinando al punto di "singolarità" e con essa con la nostra totale incapacità di poterla gestire xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
Che succede? ⇧
Marco Ciurcina (StudioLegale.it)
Negli ultimi anni le applicazioni di instant messaging di maggior successo prevedono funzionalità che inducono gli utenti a condividere i dati della propria rubrica (i propri contatti) con il fornitore del servizio. Spesso, l'utente è fortemente indotto ad utilizzare questa funzionalità: alcune applicazioni funzionano oggettivamente male se l'utente si incaponisce ad evitare di utilizzare la funzionalità di condivisione dei propri contatti. Ma nella propria rubrica ci sono anche utenti che non usano quell'applicazione: e se alcuni di questi non volessero che i propri dati di contatto fossero comunicati a terzi? Quando il fornitore del servizio tratta i dati in qualità di titolare del trattamento il cerchio si chiude: l'utente è connivente con il fornitore del servizio ed indotto ad agire in modo immorale nei confronti dei propri contatti (anche se spesso in modo inconsapevole). L'intervento valuta i profili legali di questa pratica alla luce del GDPR.
La crittografia nella messaggistica istantanea ⇧
Edoardo Ferri (Studio Tecnico Ferri & Costantino)
WhatsApp, Telegram, Signal ma anche IRC, Jabber e Google Talk sono solo alcune delle applicazioni che utilizziamo per comunicare con i nostri contatti; davvero abbiamo la consapevolezza di come "garantiscono" la riservatezza delle conversazioni? Una breve panoramica sul funzionamento dei principali sistemi di crittografia utilizzati nei software di instant messaging: le orgini, le modalità di implementazione e il livello di sicurezza.
A spasso nel fediverso, la nostra esperienza con Mastodon ⇧
(è un nome collettivo) (è un nome collettivo) (Presunto Presupposto Collettivo Cisti)
Nell'ultimo periodo abbiamo assistito alla demistificazione del ruolo delle piattaforme come luoghi di partecipazione ed emancipazione collettiva.
Nel cercare di costruire una comunità attorno la necessità di rispondere alle nostre esigenze di libera partecipazione e tutela degli utenti abbiamo scoperto Mastodon, che fa parte di quei social media federati, dove ognuno può costruire un'istanza e farla comunicare col mondo esterno attraverso un protoccollo libero.
Nell'avere finalmente non solo il pieno controllo sui nostri dati, ma anche sul codice sorgente della piattaforma, abbiamo avuto modo di testare una serie di metodologie atte a disinibire alcune dinamiche tossiche proprie dei social media, allargare la partecipazione alla moderazione ed alla stesura della policy e sopratutto a cercare di ricostituire una comunità che si interfacciasse anche nel mondo reale, oltre che sull'istanza.
DISCLAIMER : Nel corso del talk non verrà abusata la parola "machine learning", o altre buzzwords affini
Facce, dati e ... Machine learning ⇧
Viviamo in un periodo in cui il machine learning (AI o IA per molti media) paiono farla da padroni, ma di cosa stiamo parlando ? Sentiamo che l'AI e' presente nel ns telefono per 'ritoccare' le foto. Il ns cellulare e' in grado di riconoscere la ns faccia. Ora come e' possibile fare cio'? Serve una struttura di macchine dedicate e gigantesche basi di dati con centinaia di operatori per mantenerle o, il machine learning e' qualcosa che puo' essere alla portata di piccole organizzazioni, o magari di singoli ? Per caso esistono prodotti 'in scatola' pronti ad essere usati per insaporire le nostre ricette informatiche ? La risposta a queste domande per l'autore e' positiva e, dopo aver mostrato degli interessanti casi d'uso, mostrera' come prendere confidenza con questi strumenti usando strumenti ancora gratuiti. E poi: ma e' solo l'uso delle immagini a minacciare la ns privacy ?
La importanza di un codice Etico per i professionisti ICT ⇧
Claudio Tancini (Informatica Solidale Onlus)
La responsabilità dei professionisti informatici cresce con lo sviluppo di tecnologie sempre più pervasive e critiche. La condivisione di un Codice Etico comune diventa fattore decisivo per poter impostare linee guida che ci evitino di diventare strumenti (consapevoli o meno) di abusi, o per avere un indirizzo su quali comportamenti possono uscire da un livello etico socialmente accettabile. Esistono molti documenti che si descrivono codici etici, che enfatizzano alcuni aspetti dell'argomento, ma non ne esiste uno che possa considerarsi la sintesi comune. La relazione proporra' uno strumento comune (documento in lavorazione) e la partecipazione ad un team che sta' sviluppando e implementando questo codice in modo sperimentale.
la teoria della fenice: la protezione dei dati può partire da dove si è arrivati in ambito sicurezza del lavoro ⇧
Christian Bernieri (DPO - Principal Consultant Bernieri Consulting)
La protezione dei dati (DP) è una materia relativamente nuova rispetto alla salute e alla sicurezza sul lavoro (HeS). Molti strumenti per la privacy sono nuovi e creativi, ma, visto dal punto di vista del know-how di HeS, può sembrare che tutti i professionisti della privacy stiano percorrendo una strada che già conosciamo. Esamineremo tutti gli strumenti/soluzioni classiche e innovative che possono essere semplicemente adattati alla protezione dei dati. Guardando all'evoluzione di HeS e alle frontiere possiamo accelerare l'evoluzione della protezione dei dati.