Le député de l’Essonne et mathématicien Cédric Villani dévoile jeudi 29 mars son rapport parlementaire sur l’intelligence artificielle, fruit d’un long travail de consultation auprès d’experts, d'entrepreneurs, de politiques et de citoyens. Au menu, une volonté affirmée de faire de la France et de l’Europe une place forte de l’IA, moyennant un investissement dans la recherche et une politique de mise en commun des données, sous la tutelle et la protection de l’État.

Usbek & Rica : Ces derniers mois, on entend beaucoup parler d’intelligence artificielle, mais il existe presque autant de définitions de ce terme que d’experts du sujet… Comment avez-vous abordé cette question sensible de la définition de l’IA dans votre rapport ?

Cédric Villani : Ma définition a évolué au fil de notre travail. Au début, quand on a commencé à travailler, j’avais en tête une définition assez technique. Et puis, au fur et à mesure, j’ai évolué vers une définition plus générale : on peut appeler IA toute technique algorithmique sophistiquée cherchant à être très efficace dans une situation complexe. Certains diront « si efficace qu’on pourrait croire qu’il faut un humain pour faire ce travail »... Après, je pense que la définition de l’IA reste subjective et évolutive.

En quoi l’intelligence artificielle est-elle un sujet passionnant ? Qu’est-ce qui vous a le plus stimulé dans cette mission ?

Sans conteste, c’est la partie théorique que je trouve la plus fascinante, d’autant qu’elle est relativement floue. Nous avons fait des progrès considérables en matière d’efficacité de l’IA au cours des dix - et même des cinq - dernières années, mais nous n’avons pas tellement progressé sur ses ressorts théoriques. C’est le renversement d’un certain « ordre naturel ». L’informatique, par exemple, a été utilisée pour faire des calculs complexes sur des choses dont on maîtrisait la théorie - sa première application étant la résolution d’équations différentielles.

« Avec l’IA, les algorithmes marchent extrêmement bien mais on ne connaît pas vraiment les raisons sous-jacentes de cette efficacité. C’est ce mystère qui m’intéresse. »

Avec l’IA, c’est le contraire : les algorithmes marchent extrêmement bien mais on ne connaît pas vraiment les raisons sous-jacentes de cette efficacité. Or un scientifique est convaincu que quand il y a une récurrence, une coïncidence, un truc incroyable, il y a toujours une raison derrière. C’est ce mystère qui m’intéresse.

Comprenez-vous tous les fantasmes et les craintes autour de l’IA ? Par exemple, que répondez-vous aux voix qui s’élèvent pour dire qu’il s’agit de la première révolution industrielle qui ne créera pas d’emplois ?

C’est vrai qu’il y a beaucoup de fantasmes sur le sujet... Déjà, l’intelligence, c’est ce dont on est le plus fier et ce qui est le plus sensible. L’intelligence fascine. On a en tête cette idée que ce qui différencie l’humain de toute autre chose, animée ou inanimée, c’est son intelligence. Alors, avec l’intelligence artificielle, on se dit que ce qui va être créé va être aussi intelligent que nous, voire plus, et finir par s’attaquer à ce que nous avons de plus caractéristique.

Cédric Villani © Fabien Rouire

Cette question a été analysée à longueur de contes, de récits mythologiques et d’œuvres d’anticipation dans lesquels le sort de l’humanité est engagé, du Golem à Matrix. La question s’est déplacée ensuite sur le plan économique, avec l’idée que l’IA est l’outil le plus puissant et le plus « disrupteur » jamais inventé. Le problème, c’est qu’on a tendance à mélanger l’intelligence artificielle et l’intelligence humaine : on a peur qu’un jour on puisse entrer dans notre cerveau et le manipuler… Or il ne s’agit pas du tout de ça : le développement des neurosciences et celui de l’intelligence artificielle sont assez indépendants. Les fantasmes ne fonctionnent pas en fonction de critères rationnels, mais plutôt par associations d’idées.

« Tous les experts qui travaillent vraiment sur le sujet n’évoquent pas la singularité technologique comme une option qui les empêche de dormir »

Je n’ai pas peur de la singularité technologique parce que tous les experts qui travaillent vraiment sur le sujet n’évoquent pas cette option comme une possibilité qui les empêche de dormir.

La ligne de force de votre rapport, c’est la place de l’État, ou plus exactement de la puissance publique. Sur un sujet aussi vertigineux que l’IA, on a besoin de plus d’État, de plus d’institutions, de plus de garanties publiques, c’est ça le message clé de votre rapport ?

L’axe de la souveraineté est l’un des principaux messages de notre rapport, mais pas le seul. Et j’entends « l’État » au sens de structures politiques fortes. La souveraineté, c’est la façon dont l’État s’implique : comment il joue son rôle de « tiers de confiance » et facilite les émergences dans certains domaines.

« Beaucoup des recommandations formulées sont destinées à l’État pour lui permettre de se positionner comme protecteur et facilitateur de la transition »

C’est aussi un État mieux informé et qui protège le citoyen contre la malversation d’un acteur privé incontrôlable ou contre telle politique menée sur autre continent. Après, il y a un biais, c’est que ce rapport s’adresse au gouvernement. Beaucoup des recommandations formulées sont destinées à l’État pour lui permettre de se positionner comme protecteur et facilitateur de la transition.

Est-ce qu’on a vraiment besoin d’un État fort pour faire contrepoids face aux acteurs privés de la Silicon Valley ?

J’en suis convaincu. La structure politico-économique des Etats-Unis et de l’Europe est radicalement différente : ce qu’un GAFA peut faire grâce à son gigantisme, aucun acteur privé en Europe ne peut se le permettre, et il se passera beaucoup de temps avant que ça soit possible. D’ailleurs, peut-être que ça n’arrivera jamais… Là où les GAFA ont remporté la mise de manière spectaculaire au cours de la phase d’émergence de l’IA qu’on vient de vivre, c’est dans le domaine des données personnelles et des usages personnels de l’IA. Mais dans les différents secteurs professionnels, il y a encore une certaine compétition.

Vous me dites que la Silicon Valley, c’est un point chaud, mais c’est un point chaud en partie parce qu'ils savent faire buzzer, qu’ils communiquent beaucoup et qu’ils ont un sens de la compétition sans pareil : c’est requin contre requin ! Mais en termes de compétence pure et dure, en ce qui concerne la recherche de pointe, le différentiel avec l’Europe n’est pas du tout le même. Nous sommes très compétents, sinon les grands acteurs américains n’investiraient pas des sommes faramineuses en Europe et n’ouvriraient pas des laboratoires à Paris, Londres ou Zurich… En tout cas, certaines questions doivent être prises en compte au niveau de l’État, comme les applications médicales de l’IA. Qui collecte les données de santé ? Qui assure ça ? Pour moi, c’est impossible de faire ça sans l’État.

« On veut dire aux entreprises que pour exploiter des données, elles n’ont pas besoin d’aller chercher des cerveaux à Palo Alto : on a les mêmes à la maison ! »

C’est l’un des grands axes de votre rapport : garder les talents ici, en France, pour éviter la fuite des cerveaux…

Il faudrait au moins que ces talents aient le choix, que des échanges puissent se mettre en place pour que ça ne fonctionne pas dans un seul sens. Moi-même, je suis allé travaillé aux Etats-Unis, à Berkeley et c’était une expérience très enrichissante. Mais j’ai pu revenir, il y avait des possibilités ici, il y avait des postes. Il faut que ce soit pareil pour l’IA. On veut dire aux entreprises que pour exploiter des données, elles n’ont pas besoin d’aller chercher des cerveaux à Palo Alto : on a les mêmes à la maison ! Des gens qui sont compétents, avec qui elles sauront nouer des partenariats.

La ligne politique que vous défendez - une puissance publique plus forte, plus d’investissements publics – n’est-elle pas contradictoire avec l’orthodoxie gouvernementale et la volonté de réduire les dépenses de l’État, notamment dans l’enseignement supérieur et la recherche ?

La « ligne » de l’État, c’est un mélange de pratiques libérales et d’interventionnisme. Pour l’instant, la politique économique est plutôt libérale, avec l’idée de réduire les contraintes, d’accorder pas mal de place à l’investissement privé et d’inciter les investissements privés en modifiant la politique fiscale - je pense notamment à la flat tax et à la disparition de l’ISF. Mais regardez la politique d’investissement qui a été annoncée dans l’armée ! Vous voyez que quand il s’agit de sujets régaliens, l’État n’hésite pas à dépenser des sommes considérables. Or l’IA est un domaine dans lequel la notion de souveraineté est centrale, du point de vue de la recherche comme de celui des applications. Et je suis certain qu’en haut lieu, cette idée a été bien comprise et qu’il y a la volonté d’agir, en particulier sur la question des données. Il s’agit de ne pas se faire aspirer tous nos cerveaux et toutes nos données !

J’insiste, mais la tendance n’est pas du tout à la hausse des crédits pour la recherche…

Une baisse a été annoncée à l’été 2017, mais le budget 2018 a fait plus que compenser cette baisse. Je vous accorde que ce n’est pas spectaculaire, mais c’est une petite hausse quand même.

On peut identifier une tension dans votre rapport entre, d’une part, la volonté d’avoir un État fort, et, d’autre part, une grande précaution sur le risque de produire trop de lois et de « freiner l’innovation »…

C’est exactement ça : on est persuadé que l’État a un rôle important à jouer mais que s’il est trop présent, ça va tout tuer. On a éprouvé cette tension, cette dialectique, quand on a voté la révision de la loi sur la CNIL pour nous mettre en conformité avec le règlement RGPD. Il nous fallait une protection forte, avec des grands principes pour les données des citoyens, mais une trop grande protection aurait tué les initiatives personnelles.

Pour prendre un exemple, pendant le vote de cette loi, on a rectifié la copie du gouvernement en retoquant des amendements qui visaient à apporter encore plus de protection sur les projets d’IA en médecine. Une procédure, notamment, demandait à ce que tous les projets dans ce secteur passent devant l’Institut national des données de santé, et ça on l’a retoqué. Parce que ça allait dans le sens de plus de contraintes, et qu’on voulait insister sur la réduction des contraintes en faveur de l’innovation.

Vous évoquez le RGPD. Le positionnement européen sur la question des données vous semble-il équilibré justement ? Certains jugent qu’il peut entraver l’innovation, notamment des professionnels du secteur de l’Internet des objets.

Sur l’Internet des objets je pense que le cadre est encore trop peu contraignant. Il y a des risques de cybersécurité phénoménaux, qui s’accompagnent de risques de prolifération et de transferts d’informations considérables. Il faut donc plus de réglementation. Pour en revenir au contexte européen, je le trouve globalement trop contraignant, trop compliqué et il manque globalement de moyens. L’Europe a annoncé un programme de supercalcul à hauteur de 1 milliard d’euros ? Je suis persuadé que ce n’est pas assez. Et le mode de gouvernance envisagé est trop centralisé.

« Quand Elon Musk appelle à la disparition de Facebook, on voit à quel point la Silicon Valley agit "en mode requin" »

Sur les données, la question centrale, finalement, c’est celle de la confiance citoyenne. Or cette confiance, qu’il s’agisse de l’État ou des plateformes privées, est profondément érodée, non ? Je pense notamment à l’affaire Snowden ou au récent scandale Cambridge Analytica…

La confiance est clairement battue en brèche par toutes ces affaires. On est en train d’assister à une perte de confiance à grande vitesse envers Facebook. On voit aussi comment la Silicon Valley agit « en mode requin » quand Elon Musk appelle à la disparition de Facebook et supprime ses pages sur le réseau social. Il n’y a aucune solidarité entre les géants. Donc oui, c’est une énorme question de confiance.

Elon Musk, PDG de Tesla Motors et Space X © OnInnovation

La question du partage des données, et plus précisément celle des « réseaux de confiance » sera cœur de l’organisation de l’IA dans le futur. On en revient ici à la place de l’État, un acteur dans lequel tout le monde veut avoir confiance en Europe - et c’est une différence majeure par rapport aux Etats-Unis.

Mais à la lumière de l’affaire Snowden ou de partenariats qui posent question, comme ceux noués par la France avec la société Palantir, il y a tout de même un gros travail à faire pour que l’État devienne le « tiers de confiance » dont vous parlez…

Ça veut dire qu’on a besoin d’un État mieux organisé et mieux informé. On parle, dans le rapport, de « transformations nationales ». On évoque notamment l’idée d’avoir un coordinateur national pour l’IA. On part de loin : il y a encore trois ans, personne au gouvernement ne pouvait dire à quoi ça ressemblait, l’IA, ni pourquoi c’était un sujet important…

« Les citoyens, en ce moment, n’ont guère confiance en l’Union Européenne. Or sans cette confiance, on ne pourra rien faire »

Un Etat bien organisé et bien informé, c’est un Etat auquel on fait davantage confiance. C’est aussi un Etat qui s’organise de façon honnête pour faire attention à ne pas être rongé par les lobbies. Il y a un gros travail à faire sur l’Europe parce que les citoyens, en ce moment, n’ont guère confiance en l’Union Européenne. Or sans cette confiance, on ne pourra rien faire. Il ne faut pas baisser la garde ,mais aussi se rappeler que c’est en Europe que les citoyens sont aujourd'hui les mieux protégés par rapport à l’utilisation de leurs données. Sur cette question, on veut vraiment que l’Europe surnage.

Dans le rapport, vous plaidez pour la constitution de « communs de la donnée ». Ça consiste en quoi exactement ?

La bonne échelle, c’est l’échelle européenne, pour fédérer les actions nationales. Et il faudra sûrement du temps avant de structurer cette échelle. Sur les communs, on va apprendre en faisant.

Certains grands acteurs américains ont déjà favorisé une telle approche, dans certains cas parce qu’ils y croient vraiment et dans d’autres cas parce que ça redore leur image ; dans d’autres cas encore parce qu’ils ont conscience qu’ils doivent s’appuyer sur le poids du nombre, la force du collectif. Il n’y a pas de formule magique, mais il y aura des expérimentations.

Cela sous-entend d’inviter les acteurs privés à libérer leurs données ?

Oui, ça sous-entend une participation des acteurs privés.

« Je ne pense pas que cela soit une bonne idée de laisser les individus vendre leurs propres données »

Mais ces données sont au cœur de leur modèle économique. Comment inviter Facebook ou Google à partager leurs données ? C’est la même question que celle de la transparence des algorithmes…

Économiquement, c’est très dur de comprendre où et comment la valeur se crée. La taxation sur le chiffre d’affaires, intellectuellement, c’est un pis-aller, ça n’est pas satisfaisant du tout. Je suis convaincu que la valeur n’est pas identifiable au niveau de l’individu, et c’est pour ça que je ne pense pas que cela soit une bonne idée de laisser les individus vendre leurs propres données.

On veut rejeter aussi l’idée que la donnée personnelle, qui est une partie de nous, soit vendue ou utilisée pour faire du profit privé. Si chacun de nous accepte de vendre ses données, cela s’apparente à du mercenariat : j’accepte de laisser une partie de moi contre finance. C’est oublier l’idée qu’il y a de la solidarité dans le partage de données. Ceci étant dit, ces questions doivent s’inviter dans le dialogue social, avec un défi qu’on peut résumer ainsi : si une part de plus en plus importante de notre économie, de nos activités - et donc de notre valeur ajoutée - est mécanisée, il faut fatalement qu’il y ait redistribution de la richesse créée vers la partie moins mécanisée, plus humaine, celle des métiers qui sont plus dans l’empathie et le contact. On a besoin d’empathie, on a besoin de contact, on a besoin d’humain pour encore longtemps.

« Quand on auditera un algorithme, on n’aura pas besoin de connaître tous ses secrets mais de savoir quelles données il utilise et s’il comporte des biais »

Certes, mais comment s’y prendre pour inviter les grands acteurs du numérique à partager leurs données ou à lever le secret de leurs algorithmes ?

Les algorithmes devront être contrôlés, audités. Après, la question de la transparence, de « l’explicabilité », on a tendance à se focaliser un peu trop dessus. Quand on auditera un algorithme, on n’aura pas besoin de connaître tous ses secrets mais de savoir quelles données il utilise et s’il comporte des biais. Il faudra évidemment être attentif aux questions de concurrence, d’espionnage et de secret industriel. Un audit peut se faire de façon assermentée, dans le respect de la concurrence. Il nous faudra être pragmatique.

Une fois le rapport dévoilé, quelle est la suite ? Sur quoi ce texte va-t-il déboucher concrètement ?

Il va falloir faire vivre la réflexion et le débat après la remise de ce rapport, c’est certain. Nous allons travailler sur la publication d’une version grand public. Les médias s’emparent bien du sujet. Après, il va falloir un suivi énorme de la part de l’État. Par exemple, on veut tripler les formations dans le champ de l’IA. Mais le plus gros enjeu qui vient, c’est le réveil de l’Europe. Et c’est un enjeu compliqué. Et à titre personnel, j’espère vraiment qu’un jour, on aboutira à un « État européen » plus fort et plus structuré, avec une organisation fédérale.

SUR LE MÊME SUJET :

> IA super intelligente : un risque faible mais « cataclysmique »

> « Il faut désenfumer le débat sur l'intelligence artificielle »

> « On peut être contre l'intelligence artificielle par principe »

> Faut-il avoir peur de l'intelligence artificielle ?

Photographie à la une : © Fabien Rouire