Presto Apple scansionerà tutte le foto presenti nel vostro iPhone
A partire dal prossimo autunno le foto presenti nel vostro iPhone non saranno più private. Pur restando di vostra proprietà, le foto saranno costantemente scansionate da un software Apple.
L'algoritmo di Apple le ispezionerà, cercando potenziali abusi sui bambini e foto di nudo problematiche. Questo dovrebbe essere fonte di preoccupazione per i fotografi di tutto il mondo. Attenzione!
Da un lato è una grande cosa. Come ci insegna la storia dell'ex Rappresentante USA Katie Hill, che ha dovuto dimettersi dal suo incarico dopo che sono state condivise foto di lei nuda mentre faceva cose che non voleva rendere pubbliche. Il revenge porn è un terribile effetto collaterale della rivoluzione digitale.
E chiunque usi i propri telefoni per sfruttare i bambini e scambiare immagini pedopornografiche non merita commenti.
Ma guardiamo la cosa dal punto di vista del fotografo: Non va bene e potrebbe portare all'ispezione governativa della nostra proprietà - le nostre foto. L'algoritmo sta per prendere decisioni sulle vostre immagini e non c'è modo di dare un risvolto positivo alla cosa.
Quelle innocenti foto di vostro figlio che risiedono sul vostro smartphone potrebbero mettervi nei guai, anche se Apple dice che non succederà. La tradizione del nudo nell'arte e nella fotografia risale a secoli fa. Potrebbe una foto presente nel vostro telefono essere segnalata e inviata alle autorità?
Queste sono solo alcune delle domande assillanti che permangono dall'annuncio di Apple, che è una sorpresa sconvolgente dal momento che viene da una società che si è spesso vantata di essere un'azienda pro-privacy; l'anti-Facebook e Google. Queste due aziende, naturalmente, sono note per tracciare ogni vostra mossa per aiutare a vendere più pubblicità.
I cambiamenti diventeranno effettivi con il rilascio dei sistemi operativi aggiornati, iOS15 per iPhone, e gli aggiornamenti per iPad, Apple Watch, e computer Mac. Se i cambiamenti vi preoccupano, non aggiornate. Ma alla fine, perderete questa battaglia, e scoprirete che i vostri dispositivi non funzioneranno se non fate l'aggiornamento. Mi dispiace.
Diamo un'occhiata un po' più da vicino:
iMessages:
Se inviate un messaggio di testo, generato su iPhone, iPad, Apple Watch o su un computer Mac, e avete un account iCloud familiare, Apple avrà nuovi strumenti "per avvertire i bambini e i loro genitori quando ricevono o inviano foto sessualmente esplicite".
Pro: Niente più bullismo adolescenziale quando i ragazzi, facendo una scelta sbagliata, si lasciano fotografare nudi. Perché tutto ciò sembra incorrere in problemi al di là del soggetto e del fotografo. Ci sono troppe storie di immagini del genere che vengono condivise e diventano virali.
Contro: Apple controlla il contenuto delle foto presenti nel vostro telefono. Come fa a sapere l'età effettiva dei partecipanti nella foto? E una volta che si inizia a scendere lungo questo pendio scivoloso, dove si va a finire? I governi stranieri vorranno il diritto di ispezionare le foto per altre ragioni?
Soluzione: dovrebbe essere ovvio, ma la soluzione è non avere foto di nudo vostro iPhone, in quanto potrebbe mettervi nei guai.
Monitoraggio degli abusi sui minori
Con l'aggiornamento del software, le foto e i video memorizzati sul backup online iCloud di Apple saranno monitorati in cerca di potenziale pedopornografia e, se rilevati, segnalati alle autorità. Apple dice che il tutto può essere rilevato utilizzando un database di "hash di immagini" di abusi sui minori, invece di ispezionare l'immagine stessa. Apple insiste che il suo sistema è quasi infallibile, con "meno di una possibilità su un trilione all'anno di segnalare erroneamente" un dato account.
Fate sapere ad Apple cosa ne pensate del nuovo programma. Fatevi sentire su Twitter. Resistete ai messaggi assillanti di Apple per aggiornare il vostro software in autunno. Non scattate nudi sul vostro iPhone. Memorizzate le tue foto online e fate molti backup, ma non su iCloud.