Faire entrer l’intelligence artificielle dans les salles de classe, les laboratoires de recherche et au-delà

L’intelligence artificielle remodèle notre façon de vivre, d’apprendre et de travailler, et l’automne dernier, les étudiants du MIT ont pu explorer et exploiter certains des outils et des résultats des laboratoires de recherche du MIT. Par le biais de la Programme d’opportunités de recherche pour les étudiants de premier cycle (UROP), les étudiants ont travaillé avec des chercheurs du MIT Quest for Intelligence et d’ailleurs sur des projets visant à améliorer les connaissances en IA et l’enseignement de la maternelle à la terminale, à comprendre la reconnaissance des visages et la façon dont le cerveau forme de nouveaux souvenirs, et à accélérer les tâches fastidieuses comme le catalogage de nouveaux documents de bibliothèque. Six projets sont présentés ci-dessous.
Programmer Jibo pour forger un lien émotionnel avec les enfants
Nicole Thumma a rencontré son premier robot à l’âge de 5 ans, dans un musée. « C’était incroyable que je puisse avoir une conversation, même une simple conversation, avec cette machine », dit-elle. « Cela m’a fait penser que les robots sont la chose la plus compliquée fabriquée par l’homme, ce qui m’a donné envie d’en savoir plus sur eux. »
Aujourd’hui en dernière année au MIT, Thumma a passé l’automne dernier à écrire des dialogues pour le robot social Jibo, l’invention de Laboratoire médiatique du MIT Professeur associé Cynthia Breazeal. Dans un projet UROP co-conseillé par Breazeal et un chercheur Le parc de Hae WonLes élèves sont invités à participer à des exercices d’apprentissage en compagnie de leurs camarades de classe, par le biais d’un dialogue adapté à l’humeur du thumma, pour aider Jibo à créer des liens avec les élèves.
Parce que les émotions sont compliquées, Thumma a fait appel à un ensemble de sentiments de base dans son dialogue – heureux/triste, énergisé/fatigué, curieux/enragé. Si Jibo se sentait triste, mais énergique et curieuse, elle pourrait le programmer pour dire : « Je me sens déprimée aujourd’hui, mais ce qui me remonte toujours le moral, c’est de parler avec mes amis, alors je suis contente de jouer avec vous. Un Jibo fatigué, triste et ennuyé pourrait dire, en penchant la tête, « Je ne me sens pas très bien. C’est comme si mes fils étaient tout mélangés aujourd’hui. Je pense que cette activité m’aidera à me sentir mieux ».
Dans ces brèves interactions, Jibo montre son côté vulnérable et apprend aux enfants comment exprimer leurs émotions. À la fin d’une interaction, les enfants peuvent donner à Jibo un jeton virtuel pour connaître son humeur ou son niveau d’énergie. « Ils peuvent voir l’impact qu’ils ont sur les autres », dit Thumma. En tout, elle a écrit 80 lignes de dialogue, une expérience qui l’a conduite à rester au MIT pour un MEng en robotique. Les Jibos qu’elle a aidé à construire sont maintenant dans les classes de maternelle en Géorgie, offrant un soutien émotionnel et intellectuel lorsqu’ils lisent des histoires et jouent à des jeux de mots avec leurs compagnons humains.
Comprendre pourquoi les visages familiers se distinguent
D’un coup d’œil rapide, les visages des amis et des connaissances se détachent de ceux des étrangers. Comment le cerveau s’y prend-il ? Nancy Kanwisherdans le laboratoire de l Département des sciences du cerveau et de la cognition (BCS) construit des modèles de calcul pour comprendre le processus de reconnaissance des visages. Deux conclusions essentielles : le cerveau commence à enregistrer le sexe et l’âge d’un visage avant de reconnaître son identité, et la perception des visages est plus robuste pour les visages familiers.
Cet automne, Joanne Yuan, étudiante en deuxième année, a travaillé avec le postdoctorat Katharina Dobs pour comprendre pourquoi il en est ainsi. Lors d’expériences antérieures, les sujets ont reçu de multiples photographies de visages familiers de célébrités américaines et de visages inconnus de célébrités allemandes, tandis que leur activité cérébrale était mesurée par magnétoencéphalographie. Dobs a constaté que les sujets traitaient l’âge et le sexe avant l’identité des célébrités, que le visage soit familier ou non. Mais ils étaient bien meilleurs pour déballer le genre et l’identité des visages qu’ils connaissaient, comme Scarlett Johansson, par exemple. Dobs suggère que l’amélioration de la reconnaissance du genre et de l’identité des visages familiers est due à un mécanisme de feed-forward plutôt qu’à une extraction descendante des informations de la mémoire.
Yuan a exploré les deux hypothèses avec un type de modèle, les réseaux neuronaux convolutifs (CNN), désormais largement utilisé dans les outils de reconnaissance des visages. Elle a formé une CNN sur les images de visages et a étudié ses couches pour comprendre ses étapes de traitement. Elle a constaté que le modèle, comme les sujets humains de Dobs, semblait traiter le sexe et l’âge avant l’identité, ce qui suggère que les CNN et le cerveau sont préparés à la reconnaissance des visages de la même manière. Dans une autre expérience, Yuan a formé deux CNN sur des visages familiers et inconnus et a constaté que les CNN, encore une fois comme les humains, étaient plus aptes à identifier les visages familiers.
Yuan dit qu’elle a aimé explorer deux domaines – l’apprentissage machine et les neurosciences – tout en apprenant à apprécier le simple fait de reconnaître les visages. « C’est assez compliqué et il y a encore beaucoup à apprendre », dit-elle.
Explorer la formation de la mémoire
Les dendrites ramifiées des cellules du cerveau sont des nœuds microscopiques qui se développent et changent de forme au fur et à mesure que les souvenirs se forment. L’amélioration des techniques d’imagerie a permis aux chercheurs de se rapprocher de ces nœuds, ou épines, situés au plus profond du cerveau pour en savoir plus sur leur rôle dans la création et la consolidation des souvenirs.
Susumu TonegawaLe professeur Picower de biologie et de neurosciences a mis au point une technique pour marquer des groupes de cellules cérébrales, appelées « cellules d’engramme », qui sont liées à des mémoires spécifiques chez la souris. Grâce au conditionnement, les chercheurs entraînent une souris, par exemple, à reconnaître un environnement. En suivant l’évolution des épines dendritiques dans des cellules liées à une seule trace de mémoire, avant et après l’épisode d’apprentissage, les chercheurs peuvent estimer où les mémoires peuvent être physiquement stockées.
Mais cela prend du temps. L’étiquetage manuel des épines dorsales dans une pile de 100 images peut prendre des heures – plus, si le chercheur doit consulter des images des jours précédents pour vérifier qu’un nœud épineux en est bien un, explique Timothy O’Connor, ingénieur en logiciel de BCS qui participe au projet. Avec 400 images prises au cours d’une session typique, l’annotation des images peut prendre plus de temps que leur collecte, ajoute-t-il.
O’Connor a contacté la Quête Pont pour voir si le processus pourrait être automatisé. L’automne dernier, les étudiants Julian Viera et Peter Hart ont commencé à travailler avec Katherine Gallagher, ingénieur en IA de Bridge, pour former un réseau de neurones permettant de repérer automatiquement les épines. La forme et la taille des épines étant très variables, apprendre à l’ordinateur ce qu’il faut rechercher est un grand défi que l’équipe doit relever à mesure que le travail se poursuit. En cas de succès, l’outil pourrait être utile à une centaine d’autres laboratoires dans tout le pays.
« C’est passionnant de travailler sur un projet qui pourrait avoir un énorme impact », déclare Viera. « C’est aussi cool d’apprendre quelque chose de nouveau en informatique et en neurosciences ».
Accélérer le processus d’archivage
Chaque année, les Collections distinctives des bibliothèques du MIT reçoivent un grand nombre de lettres personnelles, de notes de cours et d’autres documents provenant de donateurs à l’intérieur et à l’extérieur du MIT qui racontent l’histoire du MIT et documentent l’histoire des sciences et des technologies. Chacun de ces articles uniques doit être organisé et décrit, une boîte typique de matériel prenant jusqu’à 20 heures pour être traitée et mise à la disposition des utilisateurs.
Pour accélérer le travail, Andrei Dumitrescu et Efua Akonor, respectivement diplômés du MIT et du Wellesley College, travaillent avec Katherine Gallagher de Quest Bridge pour développer un système automatisé de traitement des archives données au MIT. Leur objectif : développer un pipeline d’apprentissage automatique capable de classer et d’extraire des informations à partir d’images scannées des documents. Pour accomplir cette tâche, ils se sont tournés vers la Bibliothèque du Congrès américain (LOC), qui a numérisé une grande partie de ses vastes collections.
L’automne dernier, les étudiants ont tiré des images d’environ 70 000 documents, dont des correspondances, des discours, des notes de cours, des photographies et des livres conservés au LOC, et ont formé un classificateur pour distinguer une lettre d’un discours, par exemple. Ils utilisent désormais la reconnaissance optique de caractères et un outil d’analyse de texte pour extraire des détails clés comme la date, l’auteur et le destinataire d’une lettre, ou la date et le sujet d’une conférence. Ils intégreront bientôt la reconnaissance d’objets pour décrire le contenu d’une photographie, et sont impatients de tester leur système sur les données numérisées des bibliothèques du MIT.
L’un des points forts du projet a été l’apprentissage de l’utilisation de Google Cloud. « C’est le monde réel, où il n’y a pas de directions », dit Dumitrescu. « C’était amusant de se débrouiller tout seul. »
Inspirer la prochaine génération d’ingénieurs en robotique
Des smartphones aux haut-parleurs intelligents, un nombre croissant d’appareils vivent en arrière-plan de notre vie quotidienne, aspirant les données. Ce que nous perdons en matière de protection de la vie privée, nous le gagnons en termes de recommandations et de services personnalisés qui nous font gagner du temps. C’est l’un des compromis définis par Amnesty International que les enfants devraient comprendre, selon Pablo Alejo-Aguirre, étudiant en troisième année. « L’IA nous apporte de belles et élégantes solutions, mais elle a aussi ses limites et ses préjugés », dit-il.
L’année dernière, Alejo-Aguirre a travaillé sur un projet d’alphabétisation sur l’IA, co-conseillé par Cynthia Breazeal et un étudiant de troisième cycle Randi Williams. En collaboration avec l’association à but non lucratif i2 ApprentissageLe laboratoire de Breazeal a développé un programme d’IA autour d’un robot nommé Gizmo qui apprend aux enfants comment former leur propre robot avec un microcontrôleur Arduino et une interface utilisateur basée sur Scratch-X, un langage de programmation glisser-déposer pour les enfants.
Pour rendre Gizmo accessible aux élèves de troisième année, Alejo-Aguirre a développé des blocs de programmation spécialisés qui donnent au robot des commandes simples comme « tourner à gauche pendant une seconde » ou « avancer pendant une seconde ». Il a ajouté le Bluetooth pour contrôler Gizmo à distance et a simplifié son assemblage, en remplaçant les vis par des plaques en acrylique qui glissent et s’enclenchent en place. Il a également donné aux enfants le choix entre des visages de lapin et de grenouille sur le thème de Gizmo. « Le nouveau design est beaucoup plus épuré et plus propre, et les bords sont plus adaptés aux enfants », dit-il.
Après avoir construit et testé plusieurs prototypes, Alejo-Aguirre et Williams ont fait une démonstration de leur création l’été dernier dans un camp de robotique. L’automne dernier, Alejo-Aguirre a fabriqué 100 robots qui se trouvent maintenant dans deux écoles à Boston et une troisième dans l’ouest du Massachusetts. « Je suis fier des avancées techniques que j’ai réalisées en concevant, programmant et construisant le robot, mais je suis tout aussi fier des connaissances qui seront partagées grâce à ce programme d’études », dit-il.
Prévoir le cours des actions avec l’apprentissage machine
A la recherche d’une application pratique d’apprentissage par machine pour en savoir plus sur le domaine, les étudiants de deuxième année Dolapo Adedokun et Daniel Adebi se sont lancés dans la cueillette de bétail. « Nous savons tous qu’il faut acheter, vendre ou conserver », dit Adedokun. « Nous voulions trouver un défi facile auquel tout le monde puisse s’identifier, et développer un guide sur la façon d’utiliser l’apprentissage machine dans ce contexte ».
Les deux amis ont approché le pont Quest avec leur propre idée pour un projet UROP après avoir été refusés par plusieurs laboratoires en raison de leur expérience limitée en programmation, explique Adedokun. L’ingénieur des ponts Katherine Gallagher, cependant, était prête à prendre des novices. « Nous construisons des outils d’apprentissage automatique pour les non spécialistes de l’IA », dit-elle. « J’étais curieux de voir comment Daniel et Dolapo allaient aborder le problème et la raison à travers les questions qu’ils rencontraient. »
Adebi voulait en savoir plus sur l’apprentissage par renforcement, la technique d’IA par essais et erreurs qui a permis aux ordinateurs de surpasser les humains aux échecs, au Go et à une liste croissante de jeux vidéo. Ainsi, Adedokun et lui ont travaillé avec Gallagher pour structurer une expérience visant à voir comment l’apprentissage par renforcement se comparerait à une autre technique d’IA, l’apprentissage supervisé, dans la prévision des cours boursiers.
Dans l’apprentissage par renforcement, un agent est relâché dans un environnement non structuré avec un seul objectif : maximiser un résultat spécifique (dans ce cas, les profits) sans qu’on lui dise explicitement comment le faire. L’apprentissage supervisé, par contre, utilise des données étiquetées pour atteindre un objectif, un peu comme un ensemble de problèmes avec les bonnes réponses incluses.
Adedokun et Adebi ont formé les deux modèles sur sept ans de données sur les cours des actions, de 2010 à 17 ans, pour Amazon, Microsoft et Google. Ils ont ensuite comparé les profits générés par le modèle d’apprentissage du renforcement et un algorithme de négociation basé sur les prévisions de prix du modèle supervisé pour les 18 mois suivants ; ils ont constaté que leur modèle d’apprentissage du renforcement produisait des rendements plus élevés.
Ils ont développé un carnet Jupyter pour partager ce qu’ils ont appris et expliquer comment ils ont construit et testé leurs modèles. « C’était un exercice précieux pour nous tous », déclare M. Gallagher. « Daniel et Dolapo ont acquis une expérience pratique des principes fondamentaux de l’apprentissage machine, et j’ai eu un aperçu des types d’obstacles auxquels les utilisateurs avec leurs antécédents peuvent être confrontés lorsqu’ils essaient d’utiliser les outils que nous construisons au Pont ».