tag: privacy

Ostacoli alla privacy

Gli algoritmi per il riconoscimento facciale richiedono una potenza di calcolo che gli smartphone odierni, per quanto potenti, non hanno. Molti — Google, fra questi — caricano le foto online per poi analizzarle in remoto, con degli algoritmi di deep learning che girano su cloud.

Sul Machine Learning Journal, il team di “Computer Vision” di Apple racconta gli ostacoli che ha dovuto affrontare per riuscire a effettuare l’analisi delle facce sul dispositivo. iCloud cripta le foto in locale prima di caricarle sui suoi server; non è quindi possibile analizzarle altrove se non in locale:

We faced several challenges. The deep-learning models need to be shipped as part of the operating system, taking up valuable NAND storage space. They also need to be loaded into RAM and require significant computational time on the GPU and/or CPU. Unlike cloud-based services, whose resources can be dedicated solely to a vision problem, on-device computation must take place while sharing these system resources with other running applications. Finally, the computation must be efficient enough to process a large Photos library in a reasonably short amount of time, but without significant power usage or thermal increase.

PERMALINK COMMENTA TWEET

detect.location

Un’applicazione può — ottenendo accesso alla libreria fotografica di un iPhone — indirettamente, analizzando la geolocalizzazione delle foto, venire a conoscenza degli spostamenti di un utente negli ultimi anni.

Lo ha mostrato Felix Krause con una semplicissima applicazione:

Does your iOS app have access to the user’s image library? Do you want to know your user’s movements over the last several years, including what cities they’ve visited, which iPhones they’ve owned and how they travel? Do you want all of that data in less a second? Then this project is for you!

PERMALINK 1 COMMENTO TWEET

‘Ho chiesto a Tinder i miei dati — ho ricevuto 800 pagine dettagliate su di me’

Qualsiasi cittadino europeo può richiedere un resoconto dei dati che un servizio ha raccolto sul suo conto. Judith Duportail, del Guardian, l’ha fatto con Tinder:

Some 800 pages came back containing information such as my Facebook “likes”, my photos from Instagram (even after I deleted the associated account), my education, the age-rank of men I was interested in, how many times I connected, when and where every online conversation with every single one of my matches happened … the list goes on.

PERMALINK 1 COMMENTO TWEET

Ci abitueremo a venire osservati dallo smartphone?

Maciej Ceglowski, su Hacker News, si preoccupa di una conseguenza che Face ID potrebbe avere sulla privacy: di come possa venire normalizzata l’idea che un telefono scansioni il nostro volto ogni secondo durante l’uso.

Esattamente come nessuno di noi si pone più il problema di un telefono che in ogni istante sa dove ci troviamo, forse un giorno non ci preoccuperà più un telefono che costantemente ci osserva. Apple è molto attenta alla privacy dei suoi utenti, ma altre aziende — il cui modello di business è basato sulla pubblicità — potrebbero essere spinte a sfruttare il sensore per avere un resoconto ancora più dettagliato delle nostre reazioni e comportamenti:

When you combine this with business models that rely not just on advertising, but on promises to investors around novelty in advertising, and machine learning that has proven extremely effective at provoking user engagement, what you end up with is a mobile sensor that can read second-by-second facial expressions and adjust what is being shown in real time with great sophistication. All that’s required is for a company to close the loop between facial sensor and server.

PERMALINK 1 COMMENTO TWEET

Dati fra la polvere

Roomba, il robottino che pulisce la casa, oltre a raccogliere polvere raccoglie anche un bel po’ di dati interessanti sulla casa stessa — mappandola e facendosi un’idea di come sia organizzata grazie ai sensori laser che gli permettono di evitare gli ostacoli.

L’azienda che lo produce si è accorta che mentre la polvere non è redditizia, questi dati potrebbero tornare molto utili nello sviluppo di dispositivi ‘smart’ per la casa — e sta pensando di venderli a terzi:

That data is of the spatial variety: the dimensions of a room as well as distances between sofas, tables, lamps and other home furnishings. To a tech industry eager to push “smart” homes controlled by a variety of Internet-enabled devices, that space is the next frontier. […]

With regularly updated maps, Hoffman said, sound systems could match home acoustics, air conditioners could schedule airflow by room and smart lighting could adjust according to the position of windows and time of day.

PERMALINK 2 COMMENTI TWEET

Honest Shanghai

Shanghai ha lanciato un’app inquietante che assegna automaticamente un voto di comportamento ai cittadini, calcolato in base ai dati che ha aggregato, raccolti dal governo:

Here’s how the app works: You sign up using your national ID number. The app uses facial recognition software to locate troves of your personal data collected by the government, and 24 hours later, you’re given one of three “public credit” scores — very good, good, or bad.

Shao says Honest Shanghai draws on up to 3,000 items of information collected from nearly 100 government entities to determine an individual’s public credit score.

Una cosa simile è pericolosa, soprattutto se gli algoritmi che prendono queste decisioni restano opachi al cittadino.

PERMALINK 1 COMMENTO TWEET

La CIA ha sviluppato dei sistemi per accedere alle telecamere e ai microfoni di smartphone e Smart TV

Wikileaks ha rilasciato più di 8.000 documenti provenienti dalla CIA che descrivono la capacità dell’agenzia di accedere e prendere il controllo di microfoni e telecamere di smartphone, smart TV, computer, etc. senza che i loro utenti se ne accorgano.

Scrive il Washington Post:

In the case of a tool called “Weeping Angel” for attacking Samsung SmartTVs, Wikileaks wrote, “After infestation, Weeping Angel places the target TV in a ‘Fake-Off’ mode, so that the owner falsely believes the TV is off when it is on, In ‘Fake-Off’ mode the TV operates as a bug, recording conversations in the room and sending them over the Internet to a covert CIA server.”

Siccome questi malware riguardano il sistema operativo/device e non l’applicazione in uso dall’utente, tramite essi la CIA è riuscita praticamente a bypassare la sicurezza di Signal, WhatsApp, Weibo e Telegram.

Il tipo di attacco è differente in natura dai precedenti rivelati da Snowden: mentre quelli erano di mass surveillance — non relativi a una persona o a un device specifico —, quest’ultimi si focalizzano su device mirati.

In un certo triste modo, seppur in minima parte, il leak potrebbe anche non essere del tutto una notizia negativa: dimostra che il crittaggio end-to-end funziona, e che sta spingendo la CIA ad attacchi più mirati, verso persone specifiche, invece che a collezionare indiscriminatamente i dati dei cittadini.

PERMALINK COMMENTA TWEET

OverSight

Applicazione

OverSight

OverSight è una piccola utility sviluppata da Objective-See per monitorare l’uso e l’accesso alla videocamera e al microfono integrati nel Mac; l’app invia una notifica ogni volta che questi si attivano.

PERMALINK COMMENTA TWEET

Data Selfie

Un’estensione di Chrome che vi osserva mentre state su Facebook — per poi rivelarvi i dati che a sua volta Facebook colleziona su di voi, e come (in base a questi) vi classifica.

PERMALINK COMMENTA TWEET

Il trucco di Signal per aggirare la censura

Signal, applicazione per inviare messaggi ed effettuare chiamate criptate, sta venendo bloccata in Egitto e negli Emirati Arabi.

Il team dell’app ha trovato una via per aggirare il blocco, e far sì che i messaggi vengano inviati e ricevuti lo stesso:

Signal’s new anti-censorship feature uses a trick called “domain fronting,” Marlinspike explains. A country like Egypt, with only a few small internet service providers tightly controlled by the government, can block any direct request to a service on its blacklist. But clever services can circumvent that censorship by hiding their traffic inside of encrypted connections to a major internet service, like the content delivery networks (CDNs) that host content closer to users to speed up their online experience — or in Signal’s case, Google’s App Engine platform, designed to host apps on Google’s servers.

“Now when people in Egypt or the United Arab Emirates send a Signal message, it’ll look identical to something like a Google search,” Marlinspike says. “The idea is that using Signal will look like using Google; if you want to block Signal you’ll have to block Google.”

The trick works because Google’s App Engine allows developers to redirect traffic from Google.com to their own domain. Google’s use of TLS encryption means that contents of the traffic, including that redirect request, are hidden, and the internet service provider can see only that someone has connected to Google.com. That essentially turns Google into a proxy for Signal, bouncing its traffic and fooling the censors.

(Via Bruce Schneier)

PERMALINK COMMENTA TWEET

La Electronic Frontier Foundation ha comprato una pagina su Wired per invitare le aziende tecnologiche a prepararsi a Trump

Se volete farvi un regalo geek per Natale, sottoscrivete una donazione mensile alla EFF. Io l’ho fatto giusto un anno fa, di $10 mensili: vi spediscono pure una bellissima maglietta, per ringraziarvi.

(via Boing Boing)

PERMALINK COMMENTA TWEET

Per due anni, un malware nascosto nei pixel di banner pubblicitari ha collezionato dati personali

Cory Doctorow, su Boing Boing:

To do this, they made tiny alterations to the transparency values of the individual pixels of the accompanying banner ads, which were in the PNG format, which allows for pixel-level gradations in transparency. The javascript sent by the attackers would run through the pixels in the banners, looking for ones with the telltale alterations, then it would turn that tweaked transparency value into a character. By stringing all these characters together, the javascript would assemble a new program, which it would then execute on the target’s computer.

La pubblicità va bloccata non perché è brutta a vedersi, ma perché è l’unico modo di navigare il web che non comprometta la propria sicurezza e privacy.

PERMALINK COMMENTA TWEET

Il Regno Unito conserverà la cronologia di navigazione dei suoi cittadini per 12 mesi

Che bello, finalmente siamo tutti un po’ più al sicuro (a parte quei pochi stronzi che hanno cose da nasconderci). Esplodono cose ad ogni passo di questi giorni ed è dunque giusto, in maniera angosciata, affidarsi a uomini maschi forti e passare leggi che privano pian piano i cittadini della loro libertà, senza al contempo avere alcun effetto sulla sicurezza nazionale.

The Guardian:

The new surveillance law requires web and phone companies to store everyone’s web browsing histories for 12 months and give the police, security services and official agencies unprecedented access to the data.

It also provides the security services and police with new powers to hack into computers and phones and to collect communications data in bulk. The law requires judges to sign off police requests to view journalists’ call and web records, but the measure has been described as “a death sentence for investigative journalism” in the UK.

PERMALINK COMMENTA TWEET

Problemi tecnici da sistemare prima che sia troppo tardi

Electronic Frontier Foundation:

If Mr. Trump carries out these plans, they will likely be accompanied by unprecedented demands on tech companies to hand over private data on people who use their services. This includes the conversations, thoughts, experiences, locations, photos, and more that people have entrusted platforms and service providers with. Any of these might be turned against users under a hostile administration.

Dal permettere accesso anonimo a un sito (senza costringere durante la registrazione a utilizzare nome e cognome), al cancellare i dati raccolti in background durante la navigazione, se proprio debbono essere raccolti in primo luogo.

Suggerimenti simili li aveva dati Maciej Cegłowski, durante uno dei suoi talk.

PERMALINK COMMENTA TWEET

Firefox Focus: un browser privato per iOS

Firefox ha aggiornato Firefox Focus, precedentemente solo un content blocker, trasformandolo in un browser completamente privato per iOS:

Firefox Focus is set by default to block many of the trackers that follow you around the Web. You don’t need to change privacy or cookie settings.  You can browse with peace of mind, feeling confident in the knowledge that you can instantly erase your sessions with a single tap – no menus needed.

PERMALINK COMMENTA TWEET

Google ha silenziosamente iniziato a dare un nome e un cognome ai dati raccolti online

Quando nel 2007 Google acquistò il network pubblicitario DoubleClick, promise che i dati raccolti tramite l’ad tracking non sarebbero stati mischiati con gli altri dati che Google già ha sui propri utenti, grazie ai servizi che offre. In altre parole, Google promise che non avrebbe dato un nome e un cognome ai dati che avrebbe raccolto online: ai siti che visitiamo, o a come ci comportiamo e dove clicchiamo su questi siti.

Nel corso dell’estate, questa promessa è sparita dalla privacy policy:

But this summer, Google quietly erased that last privacy line in the sand – literally crossing out the lines in its privacy policy that promised to keep the two pots of data separate by default. In its place, Google substituted new language that says browsing habits “may be” combined with what the company learns from the use Gmail and other tools. […]

The move is a sea change for Google and a further blow to the online ad industry’s longstanding contention that web tracking is mostly anonymous. In recent years, Facebook, offline data brokers and others have increasingly sought to combine their troves of web tracking data with people’s real names. But until this summer, Google held the line.

La conseguenza è che ora, grazie alle pubblicità di DoubleClick sparse in giro per il web, e grazie a Gmail e agli altri servizi che l’azienda offre, Google può fornire pubblicità ancora più mirata e costruire profili dettagliati sui suoi utenti — basati su quello che scriviamo nelle email, sulle ricerche che facciamo e, ora, anche sui siti che visitiamo.

PERMALINK COMMENTA TWEET

Perché il leak di dati di LinkedIn riguarda tutti noi

Verso inizio giugno sono apparsi sul dark web i dati — inclusa password e email — di 117 milioni di account creati su LinkedIn, ottenuti durante l’attacco che LinkedIn subì nel 2012 (potete controllare se anche il vostro account venne compromesso su haveibeenpwned.com).

Come spiega Arstechnica, ogni volta che c’è un leak di queste dimensioni e entità (recentemente: Ashley Madison) gli hacker diventano un po’ più bravi a indovinare le nostre password su altri siti — dato che possono fare affidamento ai dati già collezionati (sia su noi stessi, preferenze e dettagli, sia sulle password), compilando così lunghissime liste di potenziali combinazioni e password:

Back in the early days of password cracking, we didn’t have much insight into the way people created passwords on a macro scale. Sure, we knew about passwords like 123456, password, secret, letmein, monkey, etc., but for the most part we were attacking password hashes with rather barbaric techniques—using literal dictionaries and stupid wordlists like klingon_words.txt. Our knowledge of the top 1,000 passwords was at least two decades old. We were damn lucky to find a password database with only a few thousand users, and when you consider the billions of accounts in existence even back then, our window into the way users created passwords was little more than a pinhole. […]

When you take both RockYou and LinkedIn and combine them with eHarmony, Stratfor, Gawker, Gamigo, Ashley Madison, and dozens of other smaller public password breaches, hackers will simply be more prepared than ever for the next big breach.

PERMALINK COMMENTA TWEET

Il settore tecnologico è responsabile della sorveglianza di massa futura

Maciej Ceglowski sul perché il settore tecnologico dovrebbe smetterla di collezionare quanti più dati possibili sui suoi utenti — evitando così che, per paura e terrore, in un futuro un governo possa richiedere di farne pessimo uso.

We tend to imagine dystopian scenarios as one where a repressive government uses technology against its people. But what scares me in these scenarios is that each one would have broad social support, possibly majority support. Democratic societies sometimes adopt terrible policies.

When we talk about the moral economy of tech, we must confront the fact that we have created a powerful tool of social control. Those who run the surveillance apparatus understand its capabilities in a way the average citizen does not. My greatest fear is seeing the full might of the surveillance apparatus unleashed against a despised minority, in a democratic country. […]

We have to stop treating computer technology as something unprecedented in human history. Not every year is Year Zero. This is not the first time an enthusiastic group of nerds has decided to treat the rest of the world as a science experiment. Earlier attempts to create a rationalist Utopia failed for interesting reasons, and since we bought those lessons at a great price, it would be a shame not to learn them.

There is also prior art in attempts at achieving immortality, limitless wealth, and Galactic domination. We even know what happens if you try to keep dossiers on an entire country.

PERMALINK COMMENTA TWEET

Cos’è la privacy differenziale

Craig Federighi ha spiegato al keynote di ieri che Apple userà tecniche di “privacy differenziale” per rendere privati e sicuri i dati degli utenti di cui ha bisogno per migliorare e offrire i suoi servizi. In tal modo, se un governo o un’entità terza dovesse entrare in possesso di questi dati non dovrebbe essere in grado di ottenere alcuna informazione certa su un individuo specifico:

We believe you should have great features and great privacy. Differential privacy is a research topic in the areas of statistics and data analytics that uses hashing, subsampling and noise injection to enable…crowdsourced learning while keeping the data of individual users completely private. Apple has been doing some super-important work in this area to enable differential privacy to be deployed at scale.

In termini molto semplici (e vaghi): invece di anonimizzare un dataset (cosa che non funziona, dato che spesso questi dataset vengono de-anonimizzati senza problemi) Apple introduce per esempio dei dati falsi al suo interno, rendendo così inaffidabili le risposte dei singoli utenti. I pattern generali d’uso emergono, ma i comportamenti specifici a un utente possono rivelarsi fasulli.

Spiega Wired:

Differential privacy, translated from Apple-speak, is the statistical science of trying to learn as much as possible about a group while learning as little as possible about any individual in it. With differential privacy, Apple can collect and store its users’ data in a format that lets it glean useful notions about what people do, say, like and want. But it can’t extract anything about a single, specific one of those people that might represent a privacy violation. And neither, in theory, could hackers or intelligence agencies. […]

As an example of that last method [noise injection], Microsoft’s Dwork points to the technique in which a survey asks if the respondent has ever, say, broken a law. But first, the survey asks them to flip a coin. If the result is tails, they should answer honestly. If the result is heads, they’re instructed to flip the coin again and then answer “yes” for heads or “no” for tails. The resulting random noise can be subtracted from the results with a bit of algebra, and every respondent is protected from punishment if they admitted to lawbreaking.

PERMALINK COMMENTA TWEET

Lo stato della sorveglianza, con Edward Snowden

Video

Lo stato della sorveglianza, con Edward Snowden

Il documentario, andato in onda su HBO, di Vice con Edward Snowden può essere guardato (deve!) su YouTube.

PERMALINK COMMENTA TWEET

Non ne hai avuto abbastanza?

Leggi altri post