Chikena/Shutterstock.com

Selon des rapports crédibles, Apple prévoit de commencer à installer un logiciel sur les iPhones aux États-Unis qui analysera automatiquement les photos locales à la recherche d’images d’abus d’enfants. Apple ne numériserait que les photos téléchargées sur iCloud avec cette technologie, du moins dans un premier temps.

Mettre à jour: Apple a confirmé une grande partie de ces rapports dans un document détaillé.

Que fait Apple ?

Les rapports sur les plans d’Apple proviennent du Financial Times et du professeur de l’Université Johns Hopkins Matthieu Vert, deux sources généralement fiables. Bien sûr, jusqu’à ce qu’Apple confirme que c’est le cas, il y a toujours une chance que cela ne se produise pas. Apple aurait démontré le plan à certains universitaires américains plus tôt cette semaine.

Selon les rapports, Apple utilisera un système appelé « neuralMatch » pour analyser les iPhones américains à la recherche d’images d’abus d’enfants.

Essentiellement, un système automatisé alerterait une équipe d’examinateurs humains s’il pense que des images illégales sont détectées. À partir de là, un membre de l’équipe examinerait les images et contacterait les forces de l’ordre.

Techniquement, ce n’est pas nouveau : les systèmes de stockage de photos basés sur le cloud et les réseaux sociaux effectuent déjà ce type de numérisation. La différence ici est qu’Apple le fait au niveau de l’appareil. Selon Matthew Green, il ne numérisera initialement que les photos téléchargées sur iCloud, mais il effectuera cette analyse sur le téléphone de l’utilisateur. « Initialement » est le mot clé ici, car il pourrait très bien être utilisé pour numériser toutes les photos localement à un moment donné.

Publicité

Cela est censé rendre le système moins invasif, car la numérisation est effectuée sur le téléphone et renvoyée uniquement s’il y a une correspondance, ce qui signifie que toutes les photos que vous téléchargez ne sont pas soumises aux yeux d’étrangers.

Selon les personnes présentes au briefing, chaque photo téléchargée sur iCloud reçoit un « bon de sécurité », indiquant si elle est suspecte ou non. Lorsqu’un certain nombre d’images sont marquées comme suspectes, Apple les déchiffre et les envoie aux autorités si quelque chose impliquant de la maltraitance d’enfants est découvert.

Comment le système fera-t-il la différence entre les images d’abus d’enfants et les autres images ? Selon le rapport, il a été testé sur 200 000 images d’abus sexuels collectées par le National Center for Missing and Exploited Children, un organisme américain à but non lucratif.

Les images sont converties en une chaîne de nombres par hachage, puis comparées aux images de la base de données.

Après tout cela, Apple a refusé de commenter le Financial Times sur ce qui se passe. Cependant, nous supposons que la société travaille sur une déclaration officielle avant que le message concernant cette décision ne devienne incontrôlable.

Cela crée un précédent dangereux

Nous n’avons probablement pas besoin de vous dire à quel point cela pourrait être effrayant. Les personnes qui maltraitent les enfants devraient être arrêtées et punies, mais il est facile de voir comment quelque chose comme cela pourrait être utilisé à des fins beaucoup plus envahissantes.

Publicité

Une technologie similaire sera-t-elle déployée sur d’autres plates-formes, comme les Mac, les PC Windows et les téléphones Android ? Des pays comme la Chine pourraient-ils l’utiliser pour détecter des images subversives sur les téléphones de leurs citoyens ? S’il devient largement accepté, l’industrie du droit d’auteur pourrait-elle l’utiliser pour commencer à rechercher du contenu piraté dans quelques années ?

Et, même si cela fonctionne comme annoncé : des innocents seront-ils pris entre deux feux ?

Espérons que ce ne soit pas aussi préoccupant qu’il y paraît.

3

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici