Un statisticien qui s’engage sans compter
Son domaine, c’est la statistique. Dont il reconnaît le « pouvoir » d’aide à la décision, mais pas sans rigueur et pas pour tout. À l’heure où le marché de la technologie numérique vend l’intelligence artificielle comme une super puissance qui va pouvoir vous assister sur tout, voire décider pour vous, ce professeur émérite, expert de ce domaine, n’a de cesse d’alerter sur les fantasmes qui entourent cette technologie et les fausses promesses qui vont avec. Une position qui a guidé ses choix de carrières, ses recherches et son enseignement…

Colloque « Intelligence artificielle et société » de lancement de l’Observatoire de l’Intelligence artificielle de Paris 1 Panthéon-Sorbonne
« Avec le déferlement des IA génératives [dont ChatGPT est une illustration, ndlr], les débats, notamment sur les réseaux, sont devenus assez délirants depuis 8 mois ». Le contexte est posé d’entrée de jeu. Philippe Besse, professeur émérite à l’INSA Toulouse n’y va pas par quatre chemins quand il s’agit d’aborder le thème de l’IA. Raison qui l’a motivé à co-signer une tribune sur le sujet dans Le Point, le 27 juin dernier, avec d’autres chercheurs et professionnels intéressés aussi par ces questions (lire l’encadré). « Le terme d’ IA, polysémique, s’est propagé depuis les années 1950 dans le langage courant à la faveur d’un intense marketing (…). Il embarque avec lui une somme de représentations, parfois totalement fantasmatiques, nous divertissant de la teneur exacte des objets dont nous devons assurer un bon usage », écrivent les auteurs.
Cela fait des années que ce professeur émérite milite sur cette nécessité d’ assurer un bon usage de ces « objets », les algorithmes d’apprentissage statistique, produits pour fournir des aides à la décision. « Il faut en finir avec ces faux débats sur l’intelligence humaine vs l’intelligence artificielle qui dépasserait la première et qui occultent les vrais problèmes des utilisations au quotidien et des risques de discrimination ou d’exacerbation des inégalités : au travail, pour l’accès à l’emploi, l’assurance, le crédit, la santé… », martèle ainsi l’enseignant-chercheur.

Colloque « Intelligence artificielle et société » de lancement de l’Observatoire de l’Intelligence artificielle de Paris 1 Panthéon-Sorbonne
« Avec le déferlement des IA génératives [dont ChatGPT est une illustration, ndlr], les débats, notamment sur les réseaux, sont devenus assez délirants depuis 8 mois ». Le contexte est posé d’entrée de jeu. Philippe Besse, professeur émérite à l’INSA Toulouse n’y va pas par quatre chemins quand il s’agit d’aborder le thème de l’IA. Raison qui l’a motivé à co-signer une tribune sur le sujet dans Le Point, le 27 juin dernier, avec d’autres chercheurs et professionnels intéressés aussi par ces questions (lire l’encadré). « Le terme d’ IA, polysémique, s’est propagé depuis les années 1950 dans le langage courant à la faveur d’un intense marketing (…). Il embarque avec lui une somme de représentations, parfois totalement fantasmatiques, nous divertissant de la teneur exacte des objets dont nous devons assurer un bon usage », écrivent les auteurs.
Cela fait des années que ce professeur émérite milite sur cette nécessité d’ assurer un bon usage de ces « objets », les algorithmes d’apprentissage statistique, produits pour fournir des aides à la décision. « Il faut en finir avec ces faux débats sur l’intelligence humaine vs l’intelligence artificielle qui dépasserait la première et qui occultent les vrais problèmes des utilisations au quotidien et des risques de discrimination ou d’exacerbation des inégalités : au travail, pour l’accès à l’emploi, l’assurance, le crédit, la santé… », martèle ainsi l’enseignant-chercheur.
Une carrière guidée par des valeurs fortes
L’engagement qui anime Philippe Besse sur ce sujet depuis les années 2000 est un marqueur important de sa personnalité. Celui-ci a aussi guidé sa carrière autour de valeurs fortes qui s’inscrivent dans la lignée de celle-ci. Ainsi, il aime souligner que le choix de devenir universitaire, plutôt que d’ « aligner du code » dans une entreprise – après avoir obtenu son diplôme d’ingénieur ENSEEIHT avec la spécialité informatique en 1976 puis celui de docteur en mathématiques appliquées en 1979 à l’Université Toulouse III Paul Sabatier – a été motivé par un désir de « liberté » : celui qui l’ouvrirait à une diversité d’applications possibles et le mènerait à des rencontres multiples, de biologistes, d’industriels, etc.
S’il va surfer sur toutes les vagues successives du domaine mathématiques appliquées – statistiques – informatique (analyse des données, computational statistics, data mining et machine learning, bioinformatique, big data et data science et IA), ce sera toujours « en conscience », comme il aime le souligner.
Mettre ses compétences d’informaticien et de statisticien au service de l’industrie plutôt que de la finance et du commerce
C’est ce qui lui fera rallier en 2006 l’INSA Toulouse après notamment 20 ans passés à l’Université Toulouse III Paul Sabatier. L’enseignant-chercheur souhaitait en effet mettre la transmission de son savoir au service de la formation de profils qui allaient plus tard, non pas mettre leurs compétences au service de besoins mercantiles, mais au service de causes utiles et non susceptibles d’avoir « un impact négatif sur les humains ».
« Auparavant, je formais des étudiants statisticiens dont l’essentiel d’entre eux allaient trouver des débouchés dans le data mining appliqué au domaine bancaire (scores de crédit) ou dans le marketing quantitatif, au service de la gestion de la relation client (faire du profilage, du ciblage, prévoir un acte d’achat, etc.). Je n’étais pas fan de les former exclusivement à ces débouchés. D’où l’envie de faire entrer plutôt ces algorithmes dans le monde industriel pour aider à détecter des défaillances, mettre en place de la maintenance prédictive, etc. ».
Cette introduction du machine et du deep learning et des technologies associées – tout ce qui fait l’IA actuelle -, rencontrera un « succès » à l’INSA, alors que la crise des subprimes en 2008 allait mettre un terme aux débouchés de la finance de marché et que l’explosion du big data allait faire prendre conscience aux dirigeants de l’intérêt qu’il y aurait à valoriser les masses considérables de données accumulées.
Des dérives possibles dans certains domaines
Outre encadrer plusieurs thèses sur ces sujets, notamment en contrats CIFRE (Conventions industrielles de formation par la recherche), il développera des enseignements, avec la casquette de directeur du département Génie Mathématique et Modélisation de 2007 à 2013, et en collaboration avec Béatrice Laurent qui prendra sa succession à la direction, qui aboutiront aux créations récentes du mastère spécialisé Valdom (Valorisation des Données Massives) et à la filière par apprentissage ModIA (Modélisation Intelligence Artificielle).
En parallèle, il va aussi œuvrer dès 2008 à dénoncer les mauvais usages qui peuvent être faits de la statistique, suite au scandale du Médiator, affaire où une « utilisation dévoyée des résultats d’outils statistiques » permit de le faire rentrer dans la liste des produits remboursés par la Sécurité sociale. Il introduira un chapitre « déontologie scientifique et statistique » dans tous ses enseignements puis informera des professionnels (de la CNIL, de la DREES, le service statistique du ministère de la Santé et de la Prévention, la Défenseure des Droits, Etalab…) sur les limites et les risques des usages des algorithmes pour établir des diagnostics ou des profils dans certains domaines. La santé en est un exemple. Certes, explique-t-il, « des applications, telles que celles qui aident des radiologues à lire leur imagerie, commencent à bien fonctionner. Mais d’autres ne fonctionnent pas du tout, à l’instar de celles développées pour essayer de prédire des risques de maladies multifactorielles à partir de données génomiques et génétiques. Car ici, on touche ici à la complexité du vivant, à la « malédiction » de la dimension : ce sont des milliers de gènes qui peuvent être en interaction et avec des environnements extrêmement différents », prévient le chercheur (lire l’article publié dans The Conversation).
Au-delà de ces risques d’erreurs, non négligeables, l’IA a aussi des impacts « discriminatoires » (lire l’article paru dans Statistique et Société). Comme avoir par exemple des répercussions sur l’assurance santé et faire tendre cette dernière vers un schéma qui consisterait à définir une assurance adaptée au coût « prévisionnel » de la personne, à l’encontre du principe fondamental de mutualisation des risques.
Beaucoup de travail pour des effets limités sur la société civile ?
Aujourd’hui, s’il défend toujours ces valeurs, ce professeur a décidé néanmoins de « lever le pied » sur ces interventions et ces prises de position. Parce qu’elles lui semblent demander « beaucoup de travail pour des effets limités sur la société civile ». Même s’il continuera, malgré tout, reconnaît-il, à prendre beaucoup de plaisir à rencontrer des gens intéressés par ces questions et à échanger sur ce sujet.
Il aime souligner aussi le plaisir qu’il a eu à travailler à l’INSA Toulouse.
« J’aime faire les choses en conscience. L’INSA met cette culture en avant : on la retrouve dans l’accompagnement qu’il offre à ses étudiants, l’engagement des enseignants, les enseignements, etc. Cet environnement pédagogique qui correspond à mes valeurs fait que je m’y suis senti très à l’aise. »
Lire la tribune « Oublions l’intelligence artificielle ! »
Publiée le 27 juin 2023 dans Le Point.fr
Co-signée avec Raja Chatila, professeur émérite d’intelligence artificielle et de robotique à Sorbonne Université, Yannick Meneceur, maître de conférences associé à l’université de Strasbourg, Nathalie Nevejans, maître de conférences HDR en droit, titulaire de la Chaire IA Responsable, directrice du DU Responsable de l’éthique de l’IA, Université d’Artois et Sabine Van Haecke Lepic, docteur en droit, enseignant à Sciences Po, avocate, médiateur et arbitre.
Rédaction : Camille Pons, journaliste

INSA Toulouse
135 avenue de Rangueil
31077 Toulouse cedex 4
Tél : 05 61 55 95 13
Fax : 05 61 55 95 00

Dans un souci d'alléger le texte et sans aucune discrimination de genre, l'emploi du genre masculin est utilisé à titre épicène.