Intelligence artificielle: comment l'odorat vient aux machines

De plus en plus, les machines montrent toute l'étendue des possibilités de l'intelligence artificielle (IA). Elles peuvent battre les plus grands champions d'échecs, remporter un jeu télévisé, aider à diagnostiquer le cancer et bientôt, elles auront l'odorat d'un nez humain. Aperçu de l'IA et de ce qui nous attend.

En 2011, Watson, un programme d'intelligence artificielle développé par IBM, participait à une édition spéciale du jeu télévisé américain «Jeopardy!» Ce quiz, qui met l'accent sur la pensée latérale, la compréhension du langage et la rapidité semblait exiger des compétences trop complexes pour une intelligence artificielle. Pourtant, Watson l'emporta face aux deux plus grands champions de l'histoire de ce jeu, soulevant cette question: serions-nous entrés dans l'ère de la véritable intelligence artificielle?

L'expression «intelligence artificielle» a été inventée dans les années 1950 par le chercheur en sciences cognitives John McCarthy, qui la décrit comme la science et l'ingénierie pour rendre les machines intelligentes. Aujourd'hui, l'IA décrit la capacité des ordinateurs et des programmes informatiques à présenter un comportement intelligent, une quête qui occupe les chercheurs depuis un demi-siècle.

L'optimisme des débuts quant au potentiel de l'IA n'a pas été égalé par le progrès technologique. Bien qu'il y ait eu dans les années 1970 des ordinateurs capables de démontrer des théorèmes mathématiques, de jouer aux dames ou même de parler, ces résultats restaient limités. En réalité, ces machines ne faisaient que répéter l'information fournie par leurs programmateurs humains: il n'en ressortait que ce qui avait été programmé.

La loi de Moore et la croissance exponentielle

Mais les avancées technologiques des années 1980 dans le domaine du matériel informatique ont permis à la recherche en intelligence artificielle de franchir un cap. Ces progrès ont été prédits en 1965 par les observations de l'ingénieur électricien (et fondateur d'Intel Corporation) Gordon Moore. La loi de Moore, appellation sous laquelle ces observations sont connues, concerne la capacité de traitement des circuits intégrés: elle postule que le nombre de transistors par circuit intégré (et donc la puissance de calcul du circuit) double tous les ans. Cette prédiction s'est avérée exacte jusqu'à aujourd'hui, illustrant la croissance et la portée exponentielles des ordinateurs et de l'industrie numérique dans son ensemble.

Dans le domaine de l'IA, la principale contribution de la loi de Moore concerne l'évolution de l'apprentissage automatique (machine learning): la capacité à développer et exécuter des algorithmes (les ensembles de règles régissant les activités de calcul et de résolution de problème des ordinateurs) capables de réellement apprendre à partir de données perceptuelles brutes plutôt que d'une information préalablement délimitée. La sophistication de Watson, capable de résoudre des énigmes linguistiques afin de gagner «Jeopardy!», offre un aperçu de cette aptitude.

Big Data: créer du contexte

L'apprentissage automatique est à son tour facilité par l'usage du Big Data: des volumes considérables de données qui résistaient jusqu'à présent à l'analyse et à l'interprétation du fait de l'absence d'outils de traitement des données adaptés. Uwe Neumann, Senior Credit Analyst au Credit Suisse, explique que le Big Data permet l'apparition de nouveaux outils sophistiqués de valorisation de l'information. «Pour résumer, le Big Data est l'analyse de données structurées et non structurées», explique Uwe Neumann. Les données structurées, délimitées par des paramètres prédéfinis (rappelez-vous les programmateurs humains des premières machines à intelligence artificielle) offrent une applicabilité limitée pour la résolution de problèmes. Mais l'utilisation de l'analyse prédictive et de techniques d'extraction de données, permises par le progrès technologique, a doté les ordinateurs d'outils perfectionnés d'analyse, d'évaluation et de classement des données non structurées. «Il est aujourd'hui possible d'exploiter des données qui sont placées non plus dans une structure, mais dans un contexte», souligne Uwe Neumann. Un grand pas en avant vers une IA fonctionnelle.

De l'apprentissage profond à l'odorat: un nez artificiel

Si l'IA consiste, si l'on s'en tient à sa définition, à faire penser des machines comme des humains, il s'agit aussi de doter les machines d'aptitudes humaines: la capacité à interagir avec l'environnement comme des humains, à analyser, traiter et évaluer des données pour alimenter des processus de prise de décision, domaine dans lequel les hommes restent supérieurs aux machines. Lavi Secundo, chercheur au département de neurobiologie à l'Institut Weizmann des Sciences, en Israël, et son équipe travaillent sur un drôle de projet d'IA: la création d'un nez artificiel.

Il existe des machines, utilisées principalement dans des dispositifs de sécurité, capables d'analyser l'environnement et de détecter la présence de certaines substances chimiques dans l'atmosphère: une version primitive de l'odorat. Mais le projet de l'Institut Weizmann est bien plus complexe puisqu'il s'agit de développer une machine capable de «sentir» des molécules volatiles et de récréer la perception des odeurs. «Ce que nous essayons de développer, c'est un vocabulaire d'odeurs, pour entraîner le nez artificiel à décrire l'environnement avec des termes génériques, sans recourir à la description moléculaire», explique Lavi Secundo. Il s'agit de recréer la complexité olfactive du nez humain, de doter les machines d'aptitudes qui vont au-delà de la simple reconnaissance de substances chimiques. Ce projet est en partie rendu possible, ajoute-t-il, par le développement simultané de l'apprentissage profond: l'utilisation par les ordinateurs d'algorithmes permettant de hauts niveaux d'abstraction des données. Les algorithmes analysent les données de façon non linéaire, mais efficace, surmontant les obstacles qui entravaient jusque-là l'IA.

L'avenir de l'IA? Ou celui des humains?

L'IA est déjà à l'origine d'importants gains de productivité et d'efficacité, tant au travail que dans les loisirs. Une question se pose pourtant: si ces avancées reflètent les progrès exponentiels de la technologie qui a donné naissance à l'IA, en viendra-t-on un jour à se passer des humains? Pour Uwe Neumann, il est impossible pour l'heure de répondre à cette question. «Si les machines se mettent à apprendre plus vite que le cerveau humain, on aura atteint un tournant», déclare-t-il. «Pour l'instant, l'IA n'est qu'un outil utilisé pour collecter et interpréter des données financières. Elle pourrait mettre au chômage les analystes comme moi», plaisante-t-il.

Mais cela va bien au-delà. Sous une forme ou une autre, l'IA est déjà présente dans toute une série de professions, du droit à la médecine, en passant (même si cela nous coûte de l'admettre) par le journalisme. Si la loi de Moore continue de se vérifier, et même si le rythme du progrès technologique ralentit par rapport à ce qu'il est aujourd'hui, il se pourrait bien que dans un avenir pas si lointain les ordinateurs atteignent un niveau de sophistication qui leur permette de remplacer les humains.

Gains de productivité, hausse des inégalités

Mais ces évolutions ont peut-être été un peu rapides. Pour Erik Brynjolfsson et Andrew McAfee, professeurs au MIT et auteurs en 2014 d'un ouvrage influent intitulé «The Second Machine Age» (le deuxième âge des machines), la question n'est pas tant de savoir si les ordinateurs remplaceront les humains, mais plutôt comment nous réagirons à l'indubitable valeur ajoutée que l'intelligence artificielle et d'autres avancées technologiques apporteront à nos vies. En particulier, ils mettent en avant le fossé entre l'avantage économique des gains de productivité apportés par la technologie (le «Bounty» ou la prime) et la concentration dudit «Bounty» entre les mains d'un pourcentage très limité de la population (le «Spread» ou la répartition), qui constitue pour eux le défi immédiat. «Les technologies que nous créons nous donnent plus que jamais le pouvoir de changer le monde, écrivent-ils, mais au final, notre avenir dépend des choix que nous faisons.»

Intelligence artificielle, ingéniosité humaine

L'intelligence artificielle, on le devine, reflétera au final les usages auxquels nous la destinons. Le nez artificiel de Secundo, par exemple, sera d'une aide précieuse pour la profession médicale, fournissant un substitut plus sophistiqué et sensible que les tests de diagnostic existants. Il contribuera certainement à améliorer notre qualité de vie. Et Watson, alors? Notre ordinateur intelligent vainqueur de jeu télévisé? Lui et sa technologie sont désormais utilisés comme outil diagnostique au Memorial Sloan-Kettering Cancer Centre, à New York. Il aide médecins et infirmiers à filtrer la masse d'études, de données génétiques, de procédures et de médicaments intervenant dans le traitement du cancer. Il ne remplacera pas les médecins: au lieu de cela, il propose une série d'options précises, s'appuyant sur les données utilisées pour arriver à ses conclusions. Il semble que l'IA, si elle est bien utilisée, devrait devenir une force au service du bien.