Puoi fidarti della Big Tech centralizzata?

| 12 min read
Apple

Fonte: iStock/Nikada

Laurin Weissinger, Docente di sicurezza informatica, Università di Tufts.
____

Puoi fidarti della Big Tech Centralizzata?

Il piano di Apple di scansionare i telefoni e altri dispositivi dei clienti alla ricerca di immagini raffiguranti abusi sessuali su minori ha generato un contraccolpo sui problemi di privacy, che ha portato la società ad annunciare un ritardo.

Apple, Facebook, Google e altre società hanno a lungo scansionato le immagini dei clienti che vengono archiviate sui server delle società per questo materiale. La scansione dei dati sui dispositivi degli utenti è un cambiamento significativo.

Per quanto ben intenzionato e indipendentemente dal fatto che Apple sia disposta e in grado di mantenere le sue promesse di proteggere la privacy dei clienti, il piano dell’azienda evidenzia il fatto che le persone che acquistano iPhone non sono padrone dei propri dispositivi. Inoltre, Apple utilizza un complicato sistema di scansione difficile da controllare. Pertanto, i clienti affrontano una dura realtà: se usi un iPhone, devi fidarti di Apple.

In particolare, i clienti sono costretti a fidarsi di Apple per utilizzare questo sistema solo come descritto, eseguire il sistema in modo sicuro nel tempo e anteporre gli interessi dei propri utenti agli interessi di altre parti, inclusi i governi più potenti del pianeta.

Nonostante il piano finora unico di Apple, il problema della fiducia non è specifico di Apple. Anche altre grandi aziende tecnologiche hanno un notevole controllo sui dispositivi dei clienti e informazioni dettagliate sui loro dati.

Cos’è la fiducia?

La fiducia è “la volontà di una parte di essere vulnerabile alle azioni di un’altra parte“, secondo gli scienziati sociali. Le persone basano la decisione di fidarsi sull’esperienza, sui segni e sui segnali. Ma il comportamento passato, le promesse, il modo in cui qualcuno agisce, le prove e persino i contratti ti danno solo punti. Non possono garantire azioni future.

Pertanto, la fiducia è una questione di probabilità. In un certo senso, stai lanciando i dadi ogni volta che ti fidi di qualcuno o di un’organizzazione.

L’affidabilità è una proprietà nascosta. Le persone raccolgono informazioni sul probabile comportamento futuro di qualcuno, ma non possono sapere con certezza se la persona ha la capacità di mantenere la parola data, è veramente benevola e ha l’integrità – principi, processi e coerenza – per mantenere il proprio comportamento nel tempo, sotto pressione o quando si verifica l’imprevisto.

Fidati di Apple e Big Tech

Apple ha dichiarato che il suo sistema di scansione verrà utilizzato solo per rilevare materiale pedopornografico e ha molteplici forti protezioni della privacy. I dettagli tecnici del sistema indicano che Apple ha adottato misure per proteggere la privacy degli utenti a meno che il materiale di destinazione non venga rilevato dal sistema. Ad esempio, gli umani esamineranno il materiale sospetto di qualcuno solo quando il numero di volte in cui il sistema rileva il materiale mirato raggiunge una certa soglia. Tuttavia, Apple ha fornito poche prove su come funzionerà in pratica questo sistema.

Dopo aver analizzato l’algoritmo “NeuralHash” su cui Apple sta basando il suo sistema di scansione, i ricercatori della sicurezza e le organizzazioni per i diritti civili avvertono che il sistema è probabilmente vulnerabile agli hacker, contrariamente a quanto affermato da Apple.

I critici temono anche che il sistema venga utilizzato per cercare altro materiale, come indicazioni di dissenso politico. Apple, insieme ad altri attori della Big Tech, ha ceduto alle richieste dei regimi autoritari, in particolare della Cina, per consentire la sorveglianza governativa degli utenti della tecnologia. In pratica, il governo cinese ha accesso a tutti i dati degli utenti. Cosa sarà diverso questa volta?

Va anche notato che Apple non gestisce questo sistema da solo. Negli Stati Uniti, Apple prevede di utilizzare i dati e segnalare materiale sospetto al National Center for Missing and Exploited Children senza scopo di lucro. Quindi, fidarsi di Apple non è abbastanza. Gli utenti devono anche fidarsi che i partner dell’azienda agiscano con benevolenza e integrità.

Il track record tutt’altro che incoraggiante di Big Tech

Questo caso esiste in un contesto di regolari invasioni della privacy di Big Tech e si muove per ridurre ulteriormente le libertà e il controllo dei consumatori. Le aziende si sono posizionate come parti responsabili, ma molti esperti di privacy affermano che c’è troppa poca trasparenza e scarse prove tecniche o storiche per queste affermazioni.

Un’altra preoccupazione sono le conseguenze indesiderate. Apple potrebbe davvero voler proteggere i bambini e allo stesso tempo proteggere la privacy degli utenti. Tuttavia, la società ha ora annunciato – e ha puntato la sua affidabilità su – una tecnologia adatta a spiare un gran numero di persone. I governi potrebbero approvare leggi per estendere la scansione ad altro materiale ritenuto illegale.

Apple, e potenzialmente altre aziende tecnologiche, sceglierebbero di non seguire queste leggi e potenzialmente di ritirarsi da questi mercati, o si conformerebbero a leggi locali potenzialmente draconiane? Non si può dire del futuro, ma Apple e altre aziende tecnologiche hanno già scelto di accettare regimi oppressivi. Le aziende tecnologiche che scelgono di operare in Cina sono costrette a sottoporsi alla censura, per esempio.

Valutare se fidarsi di Apple o di altre società tecnologiche

Non esiste una risposta univoca alla domanda se ci si possa fidare di Apple, Google o dei loro concorrenti. I rischi sono diversi a seconda di chi sei e di dove ti trovi nel mondo. Un attivista in India affronta minacce e rischi diversi rispetto a un avvocato difensore italiano. La fiducia è una questione di probabilità e i rischi non sono solo probabilistici ma anche situazionali.

È una questione di quale probabilità di fallimento o inganno puoi accettare, quali sono le minacce e i rischi rilevanti e quali protezioni o mitigazioni esistono. La posizione del tuo governo, l’esistenza di forti leggi locali sulla privacy, la forza dello stato di diritto e la tua capacità tecnica sono fattori rilevanti. Tuttavia, c’è una cosa su cui puoi contare: le aziende tecnologiche in genere hanno un ampio controllo sui tuoi dispositivi e dati.

Come tutte le grandi organizzazioni, le aziende tecnologiche sono complesse: dipendenti e dirigenti vanno e vengono e le normative, le politiche e le dinamiche di potere cambiano.

Un’azienda può essere affidabile oggi, ma non domani.

Big Tech ha mostrato comportamenti in passato che dovrebbero indurre gli utenti a dubitare della loro affidabilità, in particolare quando si tratta di violazioni della privacy. Ma hanno anche difeso la privacy degli utenti in altri casi, ad esempio nel caso della sparatoria di massa di San Bernardino e nei successivi dibattiti sulla crittografia.

Ultimo ma non meno importante, Big Tech non esiste nel vuoto e non è onnipotente. Apple, Google, Microsoft, Amazon, Facebook e altri devono rispondere a varie pressioni e poteri esterni. Forse, considerando queste circostanze, una maggiore trasparenza, controlli più indipendenti da parte di giornalisti e persone di fiducia nella società civile, un maggiore controllo degli utenti, più codice open source e un dialogo genuino con i clienti potrebbero essere un buon inizio per bilanciare obiettivi diversi.

Sebbene sia solo un primo passo, i consumatori sarebbero almeno in grado di fare scelte più informate su quali prodotti utilizzare o acquistare.

The Conversation

Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l’articolo originale.

Apple’s plan to scan customers’ phones and other devices for images depicting child sexual abuse generated a backlash over privacy concerns, which led the company to announce a delay.

Apple, Facebook, Google and other companies have long scanned customers’ images that are stored on the companies’ servers for this material. Scanning data on users’ devices is a significant change.

However well-intentioned, and whether or not Apple is willing and able to follow through on its promises to protect customers’ privacy, the company’s plan highlights the fact that people who buy iPhones are not masters of their own devices. In addition, Apple is using a complicated scanning system that is hard to audit. Thus, customers face a stark reality: If you use an iPhone, you have to trust Apple.

Specifically, customers are forced to trust Apple to only use this system as described, run the system securely over time, and put the interests of their users over the interests of other parties, including the most powerful governments on the planet.

Despite Apple’s so-far-unique plan, the problem of trust isn’t specific to Apple. Other large tech companies also have considerable control over customers’ devices and insight into their data.

What is trust?

Trust is “the willingness of a party to be vulnerable to the actions of another party,” according to social scientists. People base the decision to trust on experience, signs and signals. But past behavior, promises, the way someone acts, evidence and even contracts only give you data points. They cannot guarantee future action.

Therefore, trust is a matter of probabilities. You are, in a sense, rolling the dice whenever you trust someone or an organization.

Trustworthiness is a hidden property. People collect information about someone’s likely future behavior, but cannot know for sure whether the person has the ability to stick to their word, is truly benevolent and has the integrity – principles, processes and consistency – to maintain their behavior over time, under pressure or when the unexpected occurs.

Trust in Apple and Big Tech

Apple has stated that their scanning system will only ever be used for detecting child sexual abuse material and has multiple strong privacy protections. The technical details of the system indicate that Apple has taken steps to protect user privacy unless the targeted material is detected by the system. For example, humans will review someone’s suspect material only when the number of times the system detects the targeted material reaches a certain threshold. However, Apple has given little proof regarding how this system will work in practice.

After analyzing the “NeuralHash” algorithm that Apple is basing its scanning system on, security researchers and civil rights organizations warn that the system is likely vulnerable to hackers, in contrast to Apple’s claims.

Critics also fear that the system will be used to scan for other material, such as indications of political dissent. Apple, along with other Big Tech players, has caved to the demands of authoritarian regimes, notably China, to allow government surveillance of technology users. In practice, the Chinese government has access to all user data. What will be different this time?

It should also be noted that Apple is not operating this system on its own. In the US, Apple plans to use data from, and report suspect material to, the nonprofit National Center for Missing and Exploited Children. Thus, trusting Apple is not enough. Users must also trust the company’s partners to act benevolently and with integrity.

Big Tech’s less-than-encouraging track record

This case exists within a context of regular Big Tech privacy invasions and moves to further curtail consumer freedoms and control. The companies have positioned themselves as responsible parties, but many privacy experts say there is too little transparency and scant technical or historical evidence for these claims.

Another concern is unintended consequences. Apple might really want to protect children and protect users’ privacy at the same time. Nevertheless, the company has now announced – and staked its trustworthiness to – a technology that is well-suited to spying on large numbers of people. Governments might pass laws to extend scanning to other material deemed illegal.

Would Apple, and potentially other tech firms, choose to not follow these laws and potentially pull out of these markets, or would they comply with potentially draconian local laws? There’s no telling about the future, but Apple and other tech firms have chosen to acquiesce to oppressive regimes before. Tech companies that choose to operate in China are forced to submit to censorship, for example.

Weighing whether to trust Apple or other tech companies

There’s no single answer to the question of whether Apple, Google or their competitors can be trusted. Risks are different depending on who you are and where you are in the world. An activist in India faces different threats and risks than an Italian defense lawyer. Trust is a matter of probabilities, and risks are not only probabilistic but also situational.

It’s a matter of what probability of failure or deception you can live with, what the relevant threats and risks are, and what protections or mitigations exist. Your government’s position, the existence of strong local privacy laws, the strength of rule of law and your own technical ability are relevant factors. Yet, there is one thing you can count on: Tech firms typically have extensive control over your devices and data.

Like all large organizations, tech firms are complex: Employees and management come and go, and regulations, policies and power dynamics change.

A company might be trustworthy today but not tomorrow.

[Over 100,000 readers rely on The Conversation’s newsletter to understand the world. Sign up today.]

Big Tech has shown behaviors in the past that should make users question their trustworthiness, in particular when it comes to privacy violations. But they have also defended user privacy in other cases, for example in the San Bernadino mass shooting case and subsequent debates about encryption.

Last but not least, Big Tech does not exist in a vacuum and is not all-powerful. Apple, Google, Microsoft, Amazon, Facebook and others have to respond to various external pressures and powers. Perhaps, considering these circumstances, greater transparency, more independent audits by journalists and trusted people in civil society, more user control, more open-source code and genuine discourse with customers might be a good start to balance different objectives.

While only a first step, consumers would at least be able to make more informed choices about what products to use or buy.The Conversation

This article is republished from The Conversation under a Creative Commons license. Read the original article.

_____

Seguici sui nostri canali social: 

Telegram: https://t.me/ItaliaCryptonews

Twitter: https://twitter.com/cryptonews_IT
 _______

Clicca sui nostri link di affiliazione:

– Per acquistare le tue criptovalute su PrimeXBT, la piattaforma di trading di nuova generazione

– Per proteggere le tue criptovalute su portafogli come Ledger e Trezor

– Per effettuare transazioni in modo anonimo con NordVPN

___
Per saperne di più:
– L’Insider Trading mostra i vantaggi della decentralizzazione 
– Come si misura la decentralizzazione nelle criptovalute? 
– Il Web 3.0 è in arrivo e le criptovalute saranno essenziali 
– Facebook investe 50 milioni USD nel Metaverso

Turn Your Own Bitcoin Node, Urge Bitcoiners as Chainalysis Reportedly Set a Trap 
How Countries Use Digital ID to Exclude Vulnerable People