Diciamo la verità: quanti di noi leggono davvero, e fino in fondo, il documento “Termini e Condizioni” di tutti i servizi che usiamo sul nostro personal computer o sul nostro smartphone?
Se faccio un rapido conto posso dire di avere una trentina di applicazioni installate sul mio telefono e più o meno un centinaio sul mio personal computer. Al giorno d’oggi, giustamente, la lunghezza di un documento di quel tipo è mediamente compresa tra le 15 e le 30 pagine.
Questo significa che per essere tranquillo mi sarei dovuto leggere qualcosa come 3300 pagine di documenti per essere sicuro di cosa posso fare, o non fare, di quali sono i miei diritti, quali i miei doveri e capire come vengono maneggiati i dati dalla applicazione.
No, non lo ho mai fatto.
A questo punto vi consiglierei di dirigervi verso il sito di ProPublica e leggere questo articolo: “How Facebook Undermines Privacy Protections for Its 2 Billion WhatsApp Users“. Diciamo che dovreste avere almeno una mezz’ora di tempo per arrivare fino in fondo e metabolizzarlo.
Se siete arrivati fino in fondo andate sulla home page web di WhatsApp. Scorretela e troverete questo:
Come fa osservare ProPublica nel documento di Termini e Condizioni viene scritto questo:
E’ chiaro che le due cose non sembrano parlarsi molto tra di loro.
Da quello che si capisce dal report di ProPublica WhatsApp ha a disposizione uno strumento di Intelligenza Artificiale che si occupa della scansione dei messaggi e dei metadati degli utenti ed in parallelo un team di persone che si occupano di analizzare le segnalazioni ricevute da un lato dallo strumento di cui sopra e dall’altro delle segnalazioni ricevute dagli utenti.
A questo punto sembra che in entrambi i casi il povero cristiano che è costretto per otto ore al giorno a leggere le fesserie degli utenti riceve gli ultimi cinque messaggi della chat incriminata per poi prendere una decisione sul da farsi.
E’ ben evidente che non tutto il male viene per nuocere. Se due delinquenti, per essere gentili, si scambiano online fotografia di pornografia infantile sono ben felice che il signor Zuckerberg gli mandi a casa una squadra SWAT armata di tutto punto e pronta a fare fuoco ma il tema rimane comunque delicato.
Potremmo quindi dire che nel caso di un crimine il tema della privacy decade a favore del bene comune. Questa la compro e mi sembra ragionevole.
Rimangono due elementi da considerare: la fallibilità dell’algoritmo di IA e la segnalazione da parte degli utenti.
Partiamo con il primo caso. Diciamo che sono una mamma che ha appena partorito l’erede così tanto atteso. Ho portato a casa l’infante e sto tempestando l’universo creato con le immagini del pupo. Diciamo anche che sto organizzando una festicciola a casa mia e lo scrivo ai nonni. Subito dopo avere mandato quel messaggio il pupo deve fare il bagnetto e tutti sappiamo che il bagno si fa senza vestiti. Colta da pulsione irrefrenabile mando ai nonni la foto del bagnetto del bimbo. L’algoritmo pensa che tu possa essere un pedofilo e segnala. L’omino che deve controllare il post si rende conto che si tratta invece di una cosa innocente e non procede a nessuna azione. Peccato che questo omino abbia avuto accesso ai cinque messaggi precedenti e che ora conosca l’indirizzo di casa della mamma.
Non mi sembra una cosa del tutto trascurabile.
Il secondo caso potrebbe portare a situazioni del tutto simili al primo.
Shameless self promotion ahead…
Nel caso non ve ne foste accorti qui in giro c’è anche un podcast con il quale potrete intrattenervi.
Quello di seguito è l’ultimo episodio.
Qui, invece tutti gli episodi pubblicati sino ad ora: Parole Sparse – Il Podcast