L'intelligence artificielle et les systèmes experts sont moins à la mode en 2014 qu'en 1974 mais leur développement n'a jamais cessé et la puissance de calcul des ordinateurs leur ouvre des perspectives toujours plus vastes. De la même façon que la robotisation bouleverse les usines, l'essor des systèmes experts change la donne pour de nombreux métiers qualifiés dans les bureaux. Certains sont transformés, d'autres vont disparaître. Avec eux, c'est l'existence même des classes moyennes, cœur de l'économie moderne, qui est mise en question. Mais la messe n'est pas dite, car parallèlement l'idée même d'expertise évolue aujourd'hui très vite.

La définition du système expert ne s’est jamais stabilisée. L’idée est apparue dans les années 1960 avec les premiers pas de l’intelligence artificielle. Le tout premier système expert, Dendral, date de 1965 : ce programme permettait d’identifier les constituants chimiques d’un matériau à partir de spectrométrie de masse et de résonance magnétique nucléaire. Il s’agit alors, selon l’informaticien américain Edward Feigenbaum, de systèmes « conçus pour raisonner habilement à propos de tâches dont on pense qu’elles requièrent aujourd’hui une expertise humaine considérable ».

Ces systèmes, qui prennent leur essor dans les années 1970, accomplissent des tâches de plus en plus complexes mais sollicitent toujours une intervention humaine. Depuis les années 1990, on préfère ainsi parler de « systèmes interactifs d’aide à la décision », une façon de réintégrer l’homme dans la boucle de décision de l’ordinateur. Ces systèmes experts deviennent complexes et font appel à des connaissances éclatées qu’aucun moteur ne peut reproduire sans la capitalisation des savoirs opérationnels humains. En somme, plus la machine est sophistiquée, plus sa production nécessite, pour être utile, un décryptage et un tri de la part d’un cerveau humain particulièrement bien formé.

Des outils et des usages
Les systèmes experts sont promis à un bel avenir dans tous les domaines où la prise de décision nécessite de prendre en compte un grand nombre de données.

Dans les entreprises, les managers, dont une partie des fonctions s’apparente au « travail de la connaissance », peuvent se faire, sinon remplacer, du moins aider par des systèmes experts pour collecter, consolider, modéliser et restituer des données. Ce qu’on appelle l’« informatique décisionnelle » démultiplie la capacité visionnaire du manager en lui donnant accès à des hypothèses et à des configurations qu’il n’aurait pas imaginées ou formulées seul. Le manager public est également preneur : au Canada, il a été envisagé de recourir à un système expert pour automatiser la détermination de l’admissibilité à l’assurance-chômage.

Les militaires en sont friands. Le champ de bataille moderne fourmille d’informations de toute nature qu’il faut traiter instantanément. Les décideurs militaires savent que sur un théâtre, une synthèse ergonomique peut représenter un avantage comparatif décisif. L’industrie de l’armement a pris le pli depuis longtemps et de nombreux groupes de défense ont développé avec succès des systèmes de décision rapide pour situations critiques, fondés sur l’utilisation intensive de l’informatique et de systèmes de communication intégrant des quantités considérables de données.

Dans le domaine de la sécurité, les systèmes experts font l’objet de jugements contrastés. Ils ont fait depuis longtemps irruption dans l’aviation, notamment à travers le pilotage automatique. Les progrès apportés ne font aucun doute. Le pilote automatique a contribué à l’amélioration de la sécurité des vols. Il réduit la fatigue des pilotes, avertit ces derniers de la possibilité d’un incident et il peut garder un avion en vol même si l’équipage est incapacité. En dépit de ces progrès, un bon nombre de spécialistes de l’aviation expriment des doutes, tout particulièrement à la suite de certaines catastrophes aériennes. À leurs yeux, l’automation érode l’expertise des pilotes et émousse leurs réflexes, ce qui risque de conduire à ce que les ergonomes appellent une déqualification de l’équipage. Pour ces critiques, la baisse globale du nombre d’accidents masque l’irruption récente d’une catégorie d’accidents spectaculaires. Raja Parasuraman, professeur de psychologie à l’Université George Mason et spécialiste en matière d’automation, explique qu’en cas de dysfonctionnement du pilote automatique, le pilote, ramené à une responsabilité exprimée trop rarement, commet des erreurs. La Federal Aviation Administration (FAA) américaine a d’ailleurs mis en garde contre une dépendance excessive à l’automation et recommandé aux compagnies aériennes de faire voler plus souvent leurs pilotes en manuel.

La médecine et la biologie sont très demandeuses. Les assistants virtuels intelligents (IVA) sont des systèmes experts qui analysent les données d’un patient pour dépister le plus en amont possible les symptômes d’une éventuelle maladie. L’IVA est un système expert qui associe les principes du « Quantified Self » (chacun analyse ses propres données biologiques) et les prouesses du « Big Data ».

Le sport est un autre secteur qui exploite des systèmes experts. Le monitoring physiologique des athlètes collecte des données biologiques en temps réel pendant l’effort et s’efforce de détecter des vulnérabilités ou des blessures en devenir, ce qui permet au coach sportif de prendre des décisions informées. Mais surtout, le sport est demandeur de systèmes experts capables de détecter les talents, ces ressources rares sur lesquelles repose toute l’économie du secteur. En la matière, le système le plus célèbre avait été mis au point dans les années 2000 par l’entraîneur Billy Beane. Il s’agissait d’un logiciel analysant la performance des joueurs en fonction d’indicateurs quantifiés parfaitement objectifs, à l’abri des préjugés inhérents au milieu du base ball. Le manager avait mis en œuvre une approche modélisée pour détecter et acheter pour son équipe des joueurs sous-évalués sur le marché par rapport à leurs performances réelles. Cela lui a permis non seulement de classer régulièrement son équipe à des niveaux très supérieurs à ce que son budget pouvait laisser espérer, mais aussi de tirer d’importants profits de son activité de « trading » de joueurs.

Menaces sur l’emploi ?
Tout en accompagnant les progrès de l’économie, l’automation a toujours provoqué des inquiétudes sociales. Dans le textile et l’agriculture, par exemple, le métier à tisser et le tracteur ont automatisé de nombreuses taches effectuées auparavant par des hommes et des femmes, décuplant la productivité. Dans l’industrie, les robots sont devenus une des clés de la performance et en médecine, d’autres robots procèdent quotidiennement à des interventions avec une précision et une régularité dont l’homme n’est pas physiquement capable. À chaque fois, l’automation a créé à la fois un choc de productivité et un traumatisme social proportionnel au nombre d’emplois qui sont remplacés par les automates.

Dans les phases d’automation, les salariés remplacés par les machines sont souvent, en effet, des individus qui, pour décrocher un emploi « moderne », avaient acquis avec difficulté et au prix fort, des compétences rares demandées par le marché du moment. La promesse faite aux remplacés, c’est qu’ils pourront désormais se former à des tâches plus valorisantes. Mais il s’agit là d’une promesse qui met parfois plusieurs générations avant d’être honorée, de façon souvent spectaculaire il est vrai. Pour reprendre l’exemple de la robotisation agricole qui avait causé d’immenses inquiétudes au début du XXe siècle, impossible, à l’époque, de deviner qu’un siècle plus tard, la santé, la finance, les technologies de l’information, l’électronique grand public, l’hôtellerie et les loisirs fourniraient beaucoup plus d’emplois que l’ancienne agriculture n’en avait perdus.

Depuis les années 1970, la réduction du coût du calcul informatique par un facteur de l’ordre de mille milliards a naturellement incité les employeurs à remplacer, partout où c’était possible, une main d’œuvre coûteuse par des ordinateurs qui étaient de leur côté de moins en moins chers. Les ordinateurs excellent dans les tâches de routine : l’organisation, le stockage, la récupération et la manipulation de l’information, ou l’exécution de mouvements physiques insérés avec précision dans les processus de production. Ces tâches correspondent à des emplois semi-spécialisées comme la comptabilité, le travail de bureau et le contrôle qualité. L’informatisation a réduit la demande pour ces emplois, mais elle a stimulé la sollicitation des travailleurs effectuant les tâches non routinières qui parachèvent les activités automatisées. Il se trouve que ces activités « survivantes » se trouvent aux deux extrémités de l’échelle des compétences professionnelles.

aintelli

Les activités survivantes
À une extrémité, on trouve les tâches abstraites qui nécessitent la résolution de problèmes complexes, l’intuition, la persuasion et la créativité. On les retrouve dans les métiers où dominent la gestion et la création, comme le droit, la médecine, la science, l’ingénierie, la publicité ou le design. Dans ces secteurs, les professionnels ont généralement des niveaux d’éducation élevés, une capacité autonome d’analyse et ils utilisent des ordinateurs qui facilitent la transmission, l’organisation et le traitement des informations.

Pour David Autor, professeur d’économie au MIT, les autres activités qui perdureront malgré l’informatisation sont certaines tâches manuelles, celles qui exigent l’adaptabilité situationnelle, la reconnaissance visuelle et vocale et l’interaction en personne. Préparer un repas, conduire un camion au milieu du trafic urbain, nettoyer une chambre d’hôtel, ces activités représentent pour les ordinateurs des défis trop complexes. Mais elles sont simples pour des humains, requérant des capacités innées comme la dextérité, la vue, la capacité à parler une langue, ainsi qu’une formation sommaire. Ces travailleurs ne peuvent pas être remplacés par des robots. Leurs compétences sont abondantes et correspondent à des salaires faibles.

L’informatisation a donc favorisé une polarisation de l’emploi, avec une croissance concentrée à la fois sur les professions les plus qualifiées et sur les métiers les moins bien payés. L’informatisation ne réduit pas la quantité des emplois, mais elle dégrade la qualité des emplois pour une population important de salariés. Les travailleurs hautement qualifiés trouvent à s’employer dans les tâches abstraites à haute valeur ajoutée dont la croissance est ferme, mais les détenteurs de diplômes de qualité moindre se retrouvent orientés vers des emplois manuels comme les services de restauration, de nettoyage et de sécurité, qui offrent des salaires faibles et peu d’opportunités de promotion.

En résumé, l’informatisation a contribué à accroître les inégalités – qui ont crû depuis une vingtaine d’années dans des proportions rarement atteintes dans le passé. Les économistes se déchirent sur les causes de cette distorsion : politiques fiscales, politiques salariales ? À côté des décisions managériales et des choix politiques, on ne peut ignorer cette tendance de fond qui tend à faire perdre de leur valeur économique à un certain nombre de compétences professionnelles. L’intelligence artificielle concurrence et défie de plus en plus l’intelligence humaine. C’était la thèse, pour les Etats-Unis, d’Average is Over, le livre retentissant de l’économiste Tyler Cowen, paru fin 2013.

Et demain ?
Mais l’histoire ne s’arrête pas là. De plus en plus puissantes et intelligentes, les machines peuvent prétendre à des tâches de plus en plus qualifiées. Un rapport publié en 2013 par le McKinsey Global Institute (MGI) contient de quoi semer une réelle inquiétude au sein des classes moyennes supérieures dans le monde. Pour le cabinet de conseil en stratégie, les avancées de l’intelligence artificielle et des systèmes experts vont entraîner avant 2025 la destruction de 100 à 140 millions d’emplois de « travailleurs de la connaissance », c’est-à-dire tous ceux qui « utilisent un ordinateur pour réaliser des tâches exigeant une analyse complexe, des jugements subtils et des modes de résolution créatifs ».

On pourrait toutefois apporter des nuances à cette vision.

Tout d’abord, l’extension des réseaux sociaux et des procédures d’appel à l’intelligence collective relativisent le pouvoir des experts dans tous les domaines : créer des automates sur le modèle des experts d’hier soulève dès lors quelques interrogations. L’intelligence des foules reste supérieure à celle des ordinateurs même les plus puissants, comme le suggérait récemment une expérience menée par un chercheur de Mines ParisTech travaillant sur ce qu’on nomme parfois le « calcul humanoïde » (human computation).

Par ailleurs, la plupart des systèmes experts fonctionnent selon une logique formelle privilégiant le raisonnement déductif : ils sont programmés pour connaître une règle, vérifier si les conditions sont réunies pour qu’elle s’applique, et l’appliquer. Or on assiste aujourd’hui au développement de formes de raisonnement nouvelles par essais/erreurs, bien différent des approches hypothético-déductives qui caractérisaient les modèles cognitifs des experts. Si le Big Data apparaît certes comme l’une des voies par excellence de cet essor des formes inductives de la logique, les systèmes experts « traditionnels » sont encore plus démunis que les humains.

En même temps, les machines sont en train de changer de nature. Jusqu’au milieu des années 2010, la capacité d’un ordinateur à accomplir une tâche rapidement et à moindre coût dépendait de la capacité d’un programmeur humain de coder des procédures pour que la machine prenne les décisions correctes face à des éventualités répertoriées. À l’avenir, branchées sur les bases de données du « Big Data », capables d’apprendre et de se réparer elles-mêmes, les machines seront elles plus aptes à prendre les bonnes décisions que les humains ? Cette question s’impose en raison de plusieurs évolutions : l’augmentation rapide de la puissance de calcul des ordinateurs, l’apprentissage automatique et la simplification de la relation entre les machines et les hommes.

Nouveauté essentielle : la progression d’une machine dépendra de moins en moins de l’algorithme créé par un ingénieur. Elle pourra ajuster et modifier ses propres algorithmes en fonction de son analyse des données, et identifier des corrélations invisibles pour un cerveau humain. Le principe : plus elles brassent d’immenses quantités de données, plus elles raffinent leur algorithme. L’installation de telles machines pourrait provoquer, au sein des professions à forte valeur ajoutée intellectuelle, une saignée comparable à celle qu’a connue la population des ouvriers manufacturiers au XXe siècle. Son impact économique est estimé par le MGI entre 5200 et 6700 milliards de dollars à l’échelle de la planète.

References

BOOKS

More on paristech review

By the author

  • Biologie de synthèse: quelles perspectives industrielles?on September 6th, 2016
  • L’État-plateforme, ou comment l’open innovation aide à moderniser l’administrationon June 20th, 2016
  • Mobilité durable: le secteur automobile accélèreon April 26th, 2016