Retour aux articles

Franck Sangaré, étudiant à l’école 42 : « Pour s’assurer de la loyauté des algorithmes, il faudrait coder les lois d’Asimov et les figer »

Civil - Responsabilité
08/02/2017
À l’heure où le développement des algorithmes pose tellement de questions (responsabilité des concepteurs, respect des droits fondamentaux, transparence sur l’utilisation des données, loyauté des plateformes, etc.), revenons sur ce que sont les algorithmes, préalable nécessaire à une bonne compréhension des enjeux qu’ils soulèvent. Entretien avec Franck Sangaré, actuellement étudiant à l’école 42 et directeur de projet informatique. 

Revue Lamy Droit civil : Pouvez-vous expliquer ce qu’est un algorithme ?

Franck Sangaré : Je vais reprendre la définition que l'on peut trouver sur Wikipedia à savoir que c'est une suite (finie) d'instructions permettant de résoudre un ou des problèmes. C’est donc l’intellectualisation d’un problème, au départ utilisée pour la résolution de problèmes mathématiques. Leur usage s’est ensuite démultiplié. L'étude des algorithmes s'appelle l'algorithmique.

Ce qu'il faut retenir : c'est une science inventée au IXe siècle par un savant arabe. C'est donc une démarche intellectuelle très antérieure à l'invention de l'informatique qui est donc totalement indépendante du langage utilisé (en particulier informatique).

De nombreux sujets peuvent être analysés de manière algorithmique. L'exemple le plus couramment donné est celui de la recette de cuisine. Les inputs ou entrées nécessaires étant les plats, couverts et ingrédients. Le problème à résoudre étant le plat finalement obtenu. Les instructions permettant la résolution étant les étapes de la recette. 

Les algorithmes sont présents partout. Lorsque vous prenez un ascenseur, c’est un algorithme qui optimise son utilisation. Lorsque vous naviguez sur Internet, c’est encore un algorithme qui vous propose les publicités les plus en phase avec votre profil, déterminé en fonction des données récoltées sur les sites que vous avez visités.

De manière générale, il est fait un distinguo entre le machine learning (intervention humaine dans l'apprentissage) et le deep learning (véritable auto-apprentissage). Ce dernier amène un programme à faire évoluer son résultat en fonction de l'expérience (fin janvier dernier, un programme de poker a appris à bluffer, en fonction des réactions des autres joueurs, Carnegie mellon artificial intelligence beats top poker pros, https://www.cmu.edu/news/stories/archives/2017/january/AI-beats-poker-pros.html, Le Huffington Post, Une intelligence artificielle vient de battre quatre champions de poker (on s'y attendait, mais pas si tôt), 31 janv. 2017). Par ailleurs, une version encore plus élaborée de logiciels sera même amenée à faire évoluer elle-même une partie de sa programmation.

RLDC : La CNIL vient d’ouvrir, en janvier, un débat sur la transparence des algorithmes. Comment peut-on rendre un algorithme transparent ?

F. S. : Historiquement les premiers ordinateurs étaient vendus avec des logiciels dont les codes sources étaient librement accessibles et modifiables par les clients finaux. Les choses ont évolué assez rapidement, de sorte que les sources n'étaient plus accessibles simplement ou même plus du tout.

La réponse la plus organisée à ce problème a été la création de la communauté "open source". Les logiciels développés dans ce cadre avaient des codes sources librement accessibles et modifiables.

La transparence sera plus ou moins facile à évaluer. Actuellement, même sans connaissance du code source, les programmes se comportent toujours de la même manière face à un même problème. Il suffit donc de tester un programme pour savoir ce qu'il en est. Concrètement, on teste avec un jeu de données l’algorithme et l’on apprécie les résultats. C'est ce qui s'est passé pour trouver le problème du logiciel embarqué des voitures d’un certain constructeur qui, à l’occasion de tests d'homologation, avait publié des résultats frauduleux sur le taux d’émissions polluantes.

Les programmes intégrant de l'apprentissage auront, pour leur part, des réactions qui évolueront en fonction de l'expérience accumulée. Le code source ne représentera alors qu'une partie du programme que l'on aura en face de soi. Avec le deep learning, en effet, les logiciels ne vont plus simplement auto-apprendre, mais ils vont pouvoir également dans un deuxième temps s’auto-reconfigurer. Comment évaluer, alors, cette transparence ?

À titre personnel, je ne sais pas ce que signifiera alors la notion de transparence du code, en dehors de pouvoir démontrer que celui-ci comporte bien des garde-fous à un comportement non souhaité du logiciel.

RLDC : Existe-t-il des principes généraux éthiques qui s’appliqueraient aux codeurs ?

F. S. : C'est un sujet qui reste ouvert et engendre encore beaucoup d'échanges et de discussions.
Cela pourrait passer par l’élaboration d’un code moral ou par le fait de figer certaines lignes de code. Ces lignes ne pourraient plus être modifiées, afin d’empêcher la machine fonctionnant en deep-learning de contourner elle-même ces lignes. En quelque sorte, pour s’assurer de la loyauté des algorithmes, il faudrait coder par exemple les lois d’Asimov et les figer.

Nous avons, par exemple, aujourd'hui, au sein de l'école 42, une conférence sur le sujet. Pour ma part, je pense qu'il faudrait effectivement avoir un code juridique ou une charte éthique, partagé au niveau international, car, actuellement, le principal garde-fou aux éventuelles dérives s'appuie sur la moralité individuelle des concepteurs.

Par ailleurs cette morale ou éthique existante est totalement culturelle. Nous sommes donc sous l'influence de la morale des populations les plus en pointe dans le domaine informatique.

Ce questionnement de l'adéquation de ces nouveaux programmes avec la loi, l'éthique ou la morale se pose avec acuité, y compris pour des personnalités très en pointe quant aux évolutions technologiques et informatiques possibles, telles que Bill Gates (Microsoft) et Elon Musk (Tesla) qui se sont associés dans une entreprise à but non lucratif appelé Open AI. Celle-ci s'appuie sur les règles suivantes : ils (les membres de cette structure) « chercheront à garantir que les technologies d'IA bénéficient au plus grand nombre », « s'engageront dans une recherche ouverte et un dialogue sur les implications éthiques, sociales, économiques et légales de l'IA » ou « s'assureront que la recherche et la technologie sont robustes, fiables et dignes de confiance ». Ils s'opposent également à une utilisation de l'intelligence artificielle (IA) qui serait « contraire aux conventions internationales sur les droits de l'homme ». 


Propos recueillis par Gaëlle Marraud des Grottes

La version intégrale de cette interview sera publiée dans la Revue Lamy Droit civil de mars 2017 (RLDC 2017/146)

Source : Actualités du droit