Une feuille de route pour la politique de l’intelligence artificielle

Le développement rapide des technologies de l’intelligence artificielle dans le monde entier a conduit à des appels de plus en plus nombreux en faveur d’une politique d’IA robuste : des lois qui permettent à l’innovation de prospérer tout en protégeant les personnes contre les violations de la vie privée, la surveillance par exploitation, les algorithmes biaisés, etc.
Mais la rédaction et l’adoption de ces lois n’ont pas été faciles.
C’est un problème très complexe », a déclaré Luis Videgaray, directeur du projet « AI Policy for the World » du MIT, lors d’une conférence mercredi après-midi. « Ce n’est pas quelque chose qui sera résolu dans un seul rapport. Il doit s’agir d’une conversation collective, et cela prendra un certain temps. Il faudra des années pour le réaliser ».
Tout au long de son intervention, M. Videgaray a exposé une vision ambitieuse de la politique d’AI dans le monde, une vision sensible aux dynamiques économiques et politiques, et fondée sur l’équité matérielle et la délibération démocratique.
« La confiance est probablement le problème le plus important que nous ayons », a déclaré M. Videgaray.
L’exposé de M. Videgaray, « Des principes à la mise en œuvre : The Challenge of AI Policy Around the World », faisait partie de la série de débats publics du Starr Forum sur des sujets d’intérêt mondial. Le Starr Forum est organisé par le Centre d’études internationales du MIT. M. Videgaray s’est adressé à une foule de plus de 150 personnes dans le bâtiment E25 du MIT.
M. Videgaray, qui est également maître de conférences à la Sloan School of Management du MIT, a été ministre des finances du Mexique de 2012 à 2016, et ministre des affaires étrangères du Mexique de 2017 à 2018. Videgaray a également beaucoup travaillé dans le domaine de la banque d’investissement.
Le décalage de l’information et le battage médiatique
Dans son exposé, M. Videgaray a commencé par exposer plusieurs « thèmes » liés à l’IA qu’il pense que les décideurs politiques devraient garder à l’esprit. Il s’agit notamment de l’utilisation de l’IA par les gouvernements, des effets de l’IA sur l’économie, y compris la possibilité qu’elle puisse aider les entreprises technologiques géantes à consolider leur pouvoir de marché, des questions de responsabilité sociale, telles que la vie privée, l’équité et les préjugés, et des implications de l’IA pour la démocratie, à une époque où les robots peuvent influencer le débat politique. M. Videgaray a également noté une « géopolitique » de la réglementation de l’IA – des efforts globaux de la Chine pour contrôler la technologie aux méthodes plus souples utilisées aux États-Unis.
M. Videgaray a fait remarquer qu’il est difficile pour les régulateurs de l’IA de se tenir au courant de la technologie.
« Il y a un décalage dans l’information », a déclaré M. Videgaray. « Les choses qui préoccupent les informaticiens aujourd’hui pourraient devenir les préoccupations des décideurs politiques dans quelques années ».
De plus, a-t-il noté, le battage médiatique peut fausser la perception de l’IA et de ses applications. Ici, M. Videgaray a mis en contraste le récent rapport de la Task Force du MIT sur l’avenir du travail, qui constate l’incertitude quant au nombre d’emplois qui seront remplacés par la technologie, avec un récent documentaire télévisé présentant une image de véhicules automatisés remplaçant tous les conducteurs de camions.
« Il est clair que les preuves sont loin d’indiquer que tous les emplois dans le secteur de la conduite de camion, sur longue distance, vont être perdus », a-t-il déclaré. « Ce n’est pas le cas. »
Compte tenu de ces questions générales, que devraient faire les décideurs politiques à propos de l’IA maintenant ? Videgaray a fait plusieurs suggestions concrètes. Pour commencer : Les décideurs politiques ne devraient plus se contenter de définir des principes philosophiques généraux, ce qui a été fait à maintes reprises, avec une convergence générale des idées.
« Travailler sur des principes a un rendement marginal très, très faible », a déclaré M. Videgaray. « Nous pouvons passer à la phase suivante… les principes sont une condition nécessaire mais non suffisante de la politique d’IA. Parce que la politique consiste à faire des choix difficiles dans des conditions incertaines ».
En effet, a-t-il souligné, il est possible de faire plus de progrès en faisant en sorte que de nombreuses décisions politiques en matière d’IA soient spécifiques à des industries spécifiques. Lorsqu’il s’agit, par exemple, de diagnostics médicaux, les décideurs politiques veulent que la technologie « soit très précise, mais vous voulez aussi qu’elle soit explicable, vous voulez qu’elle soit juste, sans parti pris, vous voulez que l’information soit sûre … il y a de nombreux objectifs qui peuvent entrer en conflit les uns avec les autres. Donc, tout est question de compromis ».
Dans de nombreux cas, a-t-il dit, les outils d’IA basés sur des algorithmes pourraient passer par un processus de test rigoureux, comme cela est exigé dans certaines autres industries : « Les tests avant la mise sur le marché ont un sens », a déclaré M. Videgaray. « Nous faisons cela pour les médicaments, les essais cliniques, nous faisons cela pour les voitures, pourquoi ne ferions-nous pas des tests de pré-commercialisation pour les algorithmes ? »
Mais si M. Videgaray voit l’intérêt d’une réglementation spécifique à l’industrie, il n’est pas aussi enthousiaste à l’idée qu’un patchwork de lois sur l’intelligence artificielle au niveau des États soit utilisé pour réglementer la technologie aux États-Unis.
« Est-ce un problème pour Facebook, pour Google ? Je ne pense pas », a déclaré M. Videgaray. « Ils disposent de suffisamment de ressources pour naviguer dans cette complexité. Mais qu’en est-il des start-ups ? Qu’en est-il des étudiants du MIT, de Cornell ou de Stanford qui essaient de démarrer quelque chose et qui devraient passer, à l’extrême, par 55 [textes de] lois » ?
Une conversation collaborative
Lors de l’événement, M. Videgaray a été présenté par Kenneth Oye, professeur de sciences politiques au MIT qui étudie la régulation technologique, et qui a posé des questions à M. Videgaray après la conférence. Entre autres choses, M. Oye a suggéré que les États américains pourraient servir de laboratoire utile pour l’innovation réglementaire.
« Dans un domaine caractérisé par une incertitude, une complexité et une controverse importantes, l’expérimentation peut être bénéfique, car elle permet de poursuivre différents modèles dans différents domaines pour voir lequel fonctionne le mieux ou le moins bien », a suggéré M. Oye.
M. Videgaray n’était pas nécessairement en désaccord, mais il a souligné l’intérêt d’une éventuelle convergence des réglementations. Le secteur bancaire américain, a-t-il noté, a également suivi cette trajectoire, jusqu’à ce que « finalement, la réglementation que nous avons pour la finance [devienne] fédérale », plutôt que déterminée par les États.
Avant son intervention, M. Videgaray a salué certains membres de l’auditoire, notamment son conseiller de thèse de doctorat au MIT, James Poterba, le professeur d’économie Mitsui, que M. Videgaray a qualifié de « l’un des meilleurs enseignants, non seulement en économie mais aussi sur beaucoup de choses dans la vie ». Le consul général du Mexique à Boston, Alberto Fierro, a également assisté à l’événement.
En fin de compte, M. Videgaray a souligné devant l’auditoire que l’avenir de la politique en matière d’AI sera fondé sur la collaboration.
Vous ne pouvez pas aller dans un laboratoire d’informatique et dire : « Ok, trouvez-moi une politique d’IA », a-t-il souligné. « Cela doit être une conversation collective. »