Apparemment, l’intelligence artificielle en a appris suffisamment sur l’humanité. Il est temps pour elle d’oublier quelque chose, à savoir les données personnelles des gens. L’humanité cherche une solution à ce problème avec un nouveau domaine de connaissances appelé désapprentissage des machines. Voyons de quoi il s’agit, comment il contribuera à étouffer dans l’œuf le soulèvement des machines et si l’humanité aura le temps de développer un désapprentissage efficace des machines avant qu’il ne soit trop tard.
Quel type de désapprentissage ?
Si l’IA fait des choses utiles (comme compter les éléphants), elle a aussi de nombreuses activités effrayantes. Le domaine scientifique appelé “désapprentissage des machines” existe depuis un certain temps et son objectif est de trouver des moyens d’induire une amnésie sélective dans l’intelligence artificielle et de lui retirer absolument toutes les informations concernant des personnes spécifiques. Bien entendu, cela doit être fait d’une manière qui n’affecte pas les performances.
Si ce problème est résolu, les gens auront davantage de contrôle sur leurs données, et donc sur leur vie. Bien qu’aujourd’hui les utilisateurs puissent déjà demander à certains services de supprimer leurs données personnelles, ils ne savent généralement pas quels algorithmes ont été utilisés pour les configurer ou les former. Par conséquent, on ne sait pas si leurs données restent à l’intérieur de ces algorithmes (c’est très probable). Ainsi, le désapprentissage automatique peut permettre aux gens d’empêcher autant que possible les entreprises de tirer profit de leurs informations privées.
Initiative du sommet
Si les entreprises technologiques ne développent pas elles-mêmes les outils de désapprentissage automatique, les autorités de réglementation ne tarderont pas à poser les exigences correspondantes. Et les premières mesures en ce sens sont déjà en place. Par exemple, tout récemment, la Commission européenne a déclaré qu’elle interdirait l’utilisation “inacceptable” des systèmes d’intelligence artificielle.
Par exemple, elle interdira l’utilisation de systèmes d’intelligence artificielle qui représentent “une menace claire pour la sécurité, les moyens de subsistance ou les droits de l’homme”, ou la manipulation du comportement. Il est également prévu de renforcer les règles relatives à l’utilisation de la biométrie. Par exemple, l’utilisation des systèmes de reconnaissance faciale par les forces de l’ordre sera restreinte.
Le sérieux des intentions est confirmé par le montant des amendes pour non-conformité – elles atteignent des milliards d’euros. Margrethe Vestager Hansen, vice-présidente de la Commission européenne, a déclaré que dans le domaine de l’intelligence artificielle, “la confiance est une nécessité, pas une belle petite chose”. “Nos règles orientées vers l’avenir et l’innovation seront en place là où c’est strictement nécessaire, car la sécurité et les droits fondamentaux des citoyens de l’UE sont en jeu”, a-t-elle également déclaré.
Par ailleurs, il est souligné que les règles ne régiront que l’utilisation de la technologie. Toutes les autres questions sont laissées au fabricant. Les systèmes fonctionnant dans des zones à haut risque devront faire l’objet de contrôles supplémentaires. Ces domaines comprennent les infrastructures, l’éducation, l’emploi, la finance et l’application de la loi. Il est amusant de constater que l’obligation de notifier les personnes sous une forme explicite est énoncée, alors que le dialogue dans le salon de discussion est mené par une machine, mais pas par une personne vivante. Nous avons écrit précédemment sur la façon dont les tentatives pour faire d’Internet un endroit plus agréable ont abouti (spoiler : rien).
Des choses similaires se produisent dans d’autres pays. Par exemple, au Royaume-Uni, les régulateurs ont averti les entreprises que certains systèmes d’apprentissage automatique pourraient être soumis aux exigences du GDPR, à savoir la suppression des données. Plus tôt cette année, la Federal Trade Commission américaine a forcé la startup de reconnaissance faciale Paravision à supprimer une collection de visages humains et d’algorithmes d’apprentissage automatique formés sur eux.
Rohit Chopra, porte-parole de la Federal Trade Commission du pays, a déclaré que l’entreprise a été contrainte de “perdre les fruits de sa tromperie” parce que les photos ont été téléchargées sans l’autorisation des utilisateurs et que ceux-ci n’ont pas été informés que les photos seraient utilisées pour créer les algorithmes.