L’IA n’est ni une question unifiée, ni une discipline. Elle réfère tant au fantasme actuel de « supplantation de l’humain par les machines » qu’à sa réalité scientifique et technologique – les statistiques et la catégorisation.
On appelle d’ailleurs ces « IA » des classifieurs. Leur rôle est de répartir des informations choisies en entrée dans des catégories, choisies également, dites « de sortie ». Par exemple, on cherchera à déterminer si une forme dans image (une masse de pixels) est une personne, un chien, un laptop, un camion, etc. Ce à quoi on ajoutera un degré d’identification probable : cette forme est un chien à 88%, un camion à 22%, etc. En somme, les classifieurs classifient des données pré-données dans des classes prédéterminées. L’humain est partout présent et les IA sont des opérateurs de classification par probabilité.
Son implémentation, variablement complexe, dans les segments de l’industrie et de la supply chain en particulier est récente et massive – 1,3 $TRN de création de valeur annuelle en découlerait. Lorsqu’il en va de l’IA cependant, on ne sait jamais bien si l’on parle de robotique, de réalité virtuelle, de trajectoires optimisées, d’automatisation, de calcul pour le jeu (go, échecs), etc. Le discours général est ambigu.
Pourtant, l’IA n’est pas une question récente : les chaines de Markov dont on se saisit souvent sont apparues en 1906, les (très mal-nommés) « réseaux de neurones » informatiques – qui n’ont de commun avec les neurones physiologiques que la vague compréhension qu’on en avait il y a 55 ans – ont connu des pics d’intérêts scientifiques dans les années 60 puis 80, et ré-émergent depuis peu par le biais du monde entrepreneurial. Marvin Minsky, fondateur du laboratoire d’IA du MIT, déclarait finalement « AI has been brain dead since the 70s », écho fracassant de la déclaration de Luc Julia en 2017 [père de Siri sur iOS/Mac OS] « l’IA n’existe pas ».
Face tant au buzz naïf (mais enthousiaste et positif) qu’à la défiance rigoriste, clarifier s’impose et l’on peut aisément distinguer les sciences de l’ingénieur des sciences cognitives. Dans un cas, on tentera de modéliser et rendre opérante une action qui nécessiterait classiquement l’intervention d’un humain à partir d’outils informatiques et/ou mécaniques (ce que l’on appelle « IA faible »). Dans l’autre, on s’intéressera à la nature de la cognition humaine – entendre la connaissance et la mémoire, notamment.
Dans l’histoire des idées scientifiques, les sciences de l’ingénieur et les sciences cognitives se sont séparées rapidement. La première école/époque des sciences cognitives se méprenait sur la nature « computationnelle » (similaire à un ordinateur) de la cognition et proposait dès les années 60 des modèles alternatifs : les plus récents sont les modèles incarnés, distribués, situés, externalistes, qui reconnaissent le rôle constitutif du corps, de l’environnement, des objets techniques alentour et amenuisent généralement la centralité du cerveau.
Dans ce contexte, il est plus juste de reconnaître à la fois la puissance opérationnelle de l’outil (mal)nommé « IA » et la légitimité des sciences cognitives (non entièrement naturalistes) à décrire l’attitude et la pensée humaine. En somme, continuons de nous saisir de la force des statistiques pour l’optimisation industrielle, tout en tâchant de bien le distancier des débats éthiques qui souvent relèvent d’une mécompréhension de sa nature : il n’existe pas d’IA forte aujourd’hui, et ce n’est pas une augmentation en puissance (de calcul) qui changera la donne mais une variation en nature. En attendant, parlons de l’IA non comme Intelligence Artificielle (il n’y a pas moins réflexif qu’un réseau de neurones) mais bien comme Intelligence (humaine) Augmentée par l’outil statistique.
Jean-Baptiste Guignard, co-fondateur de Clay, est Fellow Researcher de l’école des Mines de Paris et Associate Professor de l’UTC-Sorbonne Universités.
Consulter tous les articles « Avis d’expert » sur le blog de SprintProject