L’installation d’art dans le MIT pour habiliter un public exigeant

Des vidéos trafiquées par l’intelligence artificielle, culturellement connues sous le nom de » deepfakes « , sont créées et partagées par le public à un rythme alarmant. Grâce à l’utilisation de l’infographie et du traitement audio avancés pour émuler de façon réaliste la parole et les maniérismes, les imitations profondes ont le pouvoir de déformer la réalité, d’éroder la vérité et de répandre la désinformation. Dans un exemple troublant, des chercheurs du monde entier ont tiré la sonnette d’alarme en affirmant qu’ils ont le potentiel significatif d’influencer les électeurs américains lors des élections de 2020.
Alors que les entreprises technologiques s’efforcent de mettre au point des moyens de détecter et de contrôler les deepfakes sur les plateformes de médias sociaux et que les législateurs cherchent des moyens de les réglementer, une équipe d’artistes et d’informaticiens dirigée par le MIT Center for Advanced Virtuality a conçu une installation artistique pour donner au public les moyens de distinguer eux-mêmes la réalité des deepfakes, en lui apprenant à la reconnaître.
« La désinformation informatique est un défi mondial « , déclare Fox Harrell, professeur de médias numériques et d’intelligence artificielle au MIT et directeur du MIT Center for Advanced Virtuality. « Nous sommes galvanisés pour avoir un large impact sur l’alphabétisation du public, et nous nous engageons à utiliser l’IA non pas pour la désinformation, mais pour la vérité. Nous sommes heureux de pouvoir compter sur des gens comme notre nouvelle directrice de création XR, Francesca Panetta, pour nous aider à faire avancer cette mission. »
Panetta est directrice de « In Event of Moon Disaster », avec la codirectrice Halsey Burgund, membre du MIT Open Documentary Lab. Nous espérons que notre travail suscitera une prise de conscience critique de la part du public « , dit-elle. Nous voulons qu’ils soient conscients de ce qu’il est possible de faire avec la technologie d’aujourd’hui, qu’ils explorent leur propre susceptibilité et qu’ils soient prêts à remettre en question ce qu’ils voient et entendent alors que nous entrons dans un avenir plein de défis sur la question de la vérité. »
Avec « In Event of Moon Disaster », qui s’est ouvert vendredi au Festival International du Documentaire d’Amsterdam, l’équipe a réimaginé l’histoire de l’alunissage. Installé dans un salon des années 1960, le public est invité à s’asseoir sur des meubles anciens entourés de trois écrans, dont un téléviseur d’époque. Les écrans diffusent un montage d’images anciennes de la NASA, emmenant le public dans un voyage du décollage vers l’espace et la lune. Puis, à la télévision centrale, Richard Nixon lit un discours d’urgence écrit pour lui par son rédacteur, Bill Safire, « en cas de désastre lunaire » qu’il devait lire si les astronautes d’Apollo 11 n’avaient pu revenir sur Terre. Dans cette installation, Richard Nixon lit ce discours du Bureau ovale.
Pour recréer cette élégie émouvante qui ne s’est jamais produite, l’équipe a utilisé des techniques d’apprentissage profond et les contributions d’un acteur vocal pour construire la voix de Richard Nixon, produisant un discours synthétique en collaboration avec la société ukrainienne Respeecher. Ils ont également travaillé avec la société israélienne Canny AI pour utiliser des techniques de remplacement du dialogue vidéo pour étudier et reproduire le mouvement de la bouche et des lèvres de Nixon, donnant l’impression qu’il lit ce même discours du Bureau ovale. La vidéo qui en résulte est très crédible et met en évidence les possibilités de la technologie de la contrefaçon profonde aujourd’hui.
Les chercheurs ont choisi de créer une représentation en profondeur de ce moment historique pour un certain nombre de raisons : L’espace est un sujet très apprécié, qui peut donc intéresser un large public ; la pièce est apolitique et moins susceptible de s’aliéner, contrairement à beaucoup de désinformation ; et, comme l’alunissage de 1969 est un événement largement accepté par le grand public comme ayant eu lieu, les éléments de faux fond seront tout à fait évidents.
Pour compléter l’expérience éducative, « In Event of Moon Disaster » fournit des informations transparentes sur les possibilités offertes par les technologies actuelles et sur l’objectif d’accroître la sensibilisation du public et sa capacité à identifier les informations erronées sous la forme de contrefaçons profondes. Ce sera sous la forme de journaux écrits spécialement pour l’exposition qui détaillent la réalisation de l’installation, comment repérer un faux profond, et les travaux les plus récents en matière de détection algorithmique. Les participants de l’auditoire seront encouragés à l’enlever.
Notre objectif était d’utiliser les techniques d’intelligence artificielle les plus avancées disponibles aujourd’hui pour créer le résultat le plus crédible possible, puis de le montrer du doigt et de dire : » C’est faux ; voici comment nous l’avons fait ; et voici pourquoi nous l’avons fait « , dit Burgund.
Alors que l’installation physique ouvrira ses portes en novembre 2019 à Amsterdam, l’équipe est en train de construire une version Web qui devrait être mise en service au printemps 2020.