3 QUESTION A Benoît Rottembourg, responsable du projet-pilote Regalia à l’INRIA, partenaire du Pôle d’expertise en régulation numérique du ministère des finances. Il audite les algorithmes pour vérifier qu’il n’y a pas de dysfonctionnements pour le public

1 – Quels champs couvrent aujourd’hui les algorithmes ?

Les premiers algorithmes auxquels on pense sont ceux du quotidien. Tout d’abord les plateformes en ligne : les réseaux sociaux, les applications de livraison, les sites d’achat, de vidéos etc. Ils sont très fréquents et efficaces, ce sont des algorithmes d’avant-dernière génération qui tournent dans ces plateformes. Leur travail c’est de me présenter des produits que j’ai envie d’aimer pour pousser la consommation.

On a une autre famille d’algorithmes plus cachée mais très présente comme les caméras des péages d’autoroute ou de parking. Il surveillent, détectent, reconnaissent les personnes parfois, etc. On a toute une partie de la société qui en a besoin pour fonctionner.

Ensuite, il y a des algorithmes, enfouis, moins connus, qui aident les personnes à travailler efficacement comme pour détecter des fraudes pour les impôts (une piscine non déclarée) ou faciliter la saisie d’un formulaire. Puis, il y a le très spécifique comme dans le domaine le médical : la détection d’une tumeur sur une radio par exemple.

Sans parler de la dernière génération d’algorithmes dits d’Intelligence Artificielle générative, comme ChatGPT et ses équivalents, qu’il n’est plus besoin de présenter.

2 – Pourquoi faut-il les réguler ces algorithmes ?

Je pense que la régulation arrive toujours un peu trop tard. C’est-à-dire qu’on les régule parce qu’il y a eu des problèmes. Ces algorithmes ont dérapé car ils ont été mal utilisés.

Un algorithme qui va détecter une tumeur sur la peau est censé être fiable. Mais imaginez que l’algorithme soit mal entraîné : il est bon pour les peaux blanches ou pâles et mauvais pour les peaux noires. Mais il n’y a rien sur le « mode d’emploi » qui l’indique. Donc, il ne fait pas bien son travail et il est déloyal envers la population de peau noire qui par exemple sera moins bien soignée.
On va donc devoir l’auditer car il n’est pas au point. Cela est fréquent quand un algorithme a été déployé très rapidement.

Certains peuvent même tricher de manière intentionnelle. Un algorithme peut nous dire de nous dépêcher d’acheter des billets de train parce que les prix montent et qu’ils ne restent plus que « 2 places à ce prix-là ». Mais c’est parfois faux. Et cela peut s’avérer être une manipulation pour nous influencer.

Que cela soit intentionnel ou de la négligence, les algorithmes sont, de temps en temps, en infraction avec la loi. On doit donc réguler les algorithmes, leur imposer des règles, des bonnes pratiques, pour protéger le consommateur des dangers.

3 – Que peut apporter la recherche face à ces enjeux de régulation ?

Si on veut être vraiment certain que l’algorithme se comporte bien ou pour prouver qu’il est négligent, on doit faire un travail d’enquête. Pour cela, on doit mobiliser de l’expertise pour auditer l’algorithme. C’est une sorte de police des algorithmes qu’on met en place et elle doit trouver le problème et produire des conclusions correctes.

Identifier des biais ou des manipulations demande des protocoles expérimentaux rigoureux. C’est très compliqué car l’auditeur manque d’informations. Si on audite une administration publique, elle va être transparente car elle veut sincèrement éviter les problèmes. Si on audite les mastodontes numériques des Big tech, on ne sera pas aiguillés. En face de nous, on a des acteurs qui n’ont pas envie de nous faciliter la tâche et qui protègent, parfois à juste titre, leur secret industriel.

Dès 2020, nous avons senti que les dérapages des algorithmes étaient de plus en plus fréquents. Et INRIA, qui a beaucoup œuvré à développer ces algorithmes (pensons à la librairie Scitkit-learn, une des premières librairies d’intelligence artificielle au monde) a décidé de participer à leur auditabilité. C’est l’objet du projet Regalia que je pilote.

On regarde les algorithmes des Big tech mais aussi des entreprises ou des administrations qui font appel à nous. On a décidé de travailler sur des cas concrets pour identifier des fonctionnements étranges. Puis, selon nos découvertes, de nourrir les autorités (CNIL, autorité de la concurrence, la répression des Fraudes, la Commission européenne) de nos réflexions et de nos méthodes.

Propos recueillis par Alexandre Marsat

Avec le soutien du ministère de l’enseignement supérieur, de la recherche et de l’innovation

Fermer la popup
?>