« Je ne vois pas comment on pourrait remplacer les humains par de l’IA ». Entretien avec Jean-Luc Laurent

JeanLucLaurent2018Paysage
Suite et fin de nos échos à la 5e édition des Smart Days à travers le témoignage du directeur des Activités Big Data chez Segula Technologies. Il revient sur l’apport de l’intelligence artificielle dans les métiers de l’ingénierie.

- Si vous deviez pour commencer par donner votre vision de l’IA ?

De prime abord, je dirai que c’est l’ensemble des algorithmes capables d’accompagner l’humain dans des tâches de plus en plus complexes et nombreuses. Mais comme cela a été rappelé, l’IA est un sujet ancien : on a commencé à en parler dès les années 50. Le vœu de ses pionniers, à commencer par Marvin Lee Minsky, c’était de pouvoir confier à des machines des facultés aussi sophistiquées que la perception, l’apprentissage, le raisonnement, l’autocritique… Aujourd’hui, nous en sommes encore loin. On dispose d’algorithmes pour faire de la perception, autrement dit de la reconnaissance d’images, mais leurs capacités sont encore limitées. Un algorithme conçu pour reconnaître ceci (un chat, par exemple) ou cela (un chien) sera bien en peine d’identifier tout autre animal, s’il n’a pas été entraîné pour cette tâche.
En matière de gestion de la mémoire, nous n’avons guère progressé – au sens où nous nous appuyons encore sur les modèles de von Neumann. On ne dispose pas non plus d’algorithmes à même de permettre à une machine de s’auto-évaluer. De manière générale, si l’IA se montre performante, c’est dans un environnement fermé. C’est plus difficile dans un environnement ouvert, du fait de la masse des variables à gérer, sans compter tous les aléas qui peuvent survenir.

- Manière de dire que l’IA n’est pas prête à se substituer à l’humain ?

Si tant est que ce soit sa finalité. Selon moi, on gagne davantage à l’envisager plutôt comme venant en appui à l’intelligence humaine. Chez Segula Technologies, nous parlons d’ailleurs plus en termes d’ « assistant intelligent ».

- Dans quelle mesure néanmoins l’entrée dans l’ère du Big Data (que les pionniers n’avaient pas anticipé) ne change-t-elle pas la donne ?

L’entrée dans cette ère du Big Data change indéniablement la donne. Et c’est elle, qui a d’ailleurs relancé la recherche dans l’IA. Les algorithmes que nous utilisons dans ce domaine ont été conçus pour la plupart dans les années 80 à partir des travaux de Yann LeCun et Yoshua Bengio et Geoffrey Hinton. S’il y a un changement majeur, il tient au fait de pouvoir disposer de données massives pour alimenter les algorithmes, mais aussi de la puissance de calcul nécessaire pour les traiter. Tant et si bien qu’on ne peut plus guère dissocier Big Data et IA. Si on peut faire de l’analyse de données sans IA (au moyen d’algorithmes statistiques), on a forcément besoin de données massives pour faire de l’IA. Certes, on commence à faire du few shot learning (i.e. de l’apprentissage à partir d’un minimum d’exemples), mais c’est encore compliqué.

- Pour autant, le Big Data ne suffit pas, ainsi que vous l’expliquiez lors de votre keynote : il faut aussi des compétences proprement humaines…

Parfaitement. Les compétences humaines ou métiers, pour le dire autrement, sont nécessaires pour identifier les bonnes données, en faire un usage pertinent. A juste titre, on souligne le besoin d’experts, des data scientists, que les entreprises s’arrachent à prix d’or, mais les grands comptes disposent aussi en interne de compétences, qu’ils pourraient valoriser en les formant à l’analyse de data.

- Qu’est-ce que l’IA change dans vos propres métiers et votre offre en ingénierie ?

Dans nos métiers, il est nécessaire de garantir à nos clients – pour l’essentiel, des constructeurs automobiles, aéronautiques ou navals – la qualité en temps et en heure. Ce qu’on appelle dans le jargon le « First Time Right » (FTR) et le « On Time Delivery ». Pour l’heure, le FTR n’est pas encore optimisé automatiquement – on doit remettre parfois notre travail à deux ou trois reprises sur le métier avant de parvenir à une réponse optimale. Dans un avenir proche, grâce aux outils de l’IA et de l’analyse de données, nous serons en mesure d’identifier les points de blocage et lever les indéterminations. Ces outils nous aideront en effet à anticiper et diminuer les risques d’erreurs. Les nôtres, comme celles de nos clients ou partenaires.
De manière générale, grâce aux flux de données recueillies et traitées, l’IA va changer la manière de gérer les projets. En l’absence de données réelles, chiffrées, on en est encore trop souvent réduit à des appréciations subjectives, pour interpréter une situation, analyser les causes d’un échec.. Le fait d’en disposer permettra de concevoir des algorithmes qui feront office de juge de paix, en indiquant ce qui s’est réellement passé.

- Une autre illustration au passage de la manière dont l’IA vient en appui de l’humain et non pour se substituer à lui…

Une fois encore, je ne vois pas comment on pourrait remplacer les humains par de l’IA, aujourd’hui et même demain. C’est envisageable pour des tâches spécifiques et des données particulières, mais pas au-delà d’une certaine complexité. Un algorithme ne peut prétendre prendre une bonne décision tout seul. On aura toujours besoin de l’intelligence humaine, car de par son expertise et son expérience, une personne est seule en mesure de valider les résultats d’un algorithme sinon de les interpréter. En disant cela, je ne pense pas qu’aux experts. Je pense aussi aux opérateurs qui, affectés aux lignes de production, effectuent toujours les mêmes gestes. Si leur activité pourra être assurée en grande partie par des robots, il ne s’agira pas pour autant de les remplacer totalement. L’enjeu sera de les transformer en superviseurs ou, si vous voulez, en gestionnaires d’algorithmes. Un robot n’étant pas fiable à 100%, la présence humaine restera indispensable. La valeur ajoutée de cette présence humaine s’en trouvera augmentée par l’IA, et non l’inverse.

- Précisons que l’entretien se déroule au Challenger – Bouygues Construction, à l’occasion du Tech The Future / Smart Days, qui draine des personnes venues de l’écosystème Paris-Saclay et de bien au-delà, pour assister à des keynotes et des rencontres B to B qualifiées. Une illustration du fait que, même à l’heure de l’IA, il y a nécessité pour les experts et autres professionnels de se rencontrer, d’échanger en direct…

En effet. Pour ce qui me concerne, c’est la première fois que je participe à cet événement. Je peux témoigner de son intérêt : on y rencontre des gens passionnants, que ce soit dans les PME, les start-up ou les grands groupes. Cette émulation permet de nourrir nos réflexions et d’ouvrir des perspectives en termes de collaboration, y compris dans la recherche. On gagne toujours à prendre le temps de se rencontrer et de se confronter à d’autres personnes, surtout si elles ont des visions différentes de la sienne !

- Un mot encore sur l’autre parti de cet événement, à savoir s’adresser justement aussi bien aux grands comptes qu’aux start-up, mais aussi aux TPE/PME…

C’est essentiel, ne serait-ce que pour tordre le coup à des idées reçues. Les TPE/PME qui abordent l’IA peuvent avoir l’impression que c’est cher, compliqué, que cela exige des compétences qu’elles n’ont pas les moyens d’acquérir. Un événement comme celui-ci leur montre que c’est tout le contraire : elles peuvent commencer à le faire, avec un minimum de données. Surtout, elles peuvent gagner à collaborer avec de grands comptes sinon une autre PME. Car si une PME a une idée, elle n’aura pas les moyens de faire toute la R&D seule. En revanche, rien ne l’empêche de recruter conjointement un doctorant, pendant trois ans, le temps d’une thèse. Un cercle vertueux peut ainsi s’enclencher entre PME, chercheurs et grands comptes…

- Moyennant une relation de « confiance ». Je souligne cela d’autant plus que ce mot a été évoqué par Bertrand Braunschweig, le directeur de recherche Inria Saclay –Ile-de-France, comme une condition sine qua non du succès de l’IA….

Oui, et c’était important de le dire. Comment faire confiance aux machines connectées ? C’est faute de savoir répondre à cette question, qu’on risque d’entrer dans ce que Bertrand Braunschweig appelle le 3e hiver de l’IA, c’est-à-dire une période de remise en cause (les deux précédents « hivers » étant davantage dus à des freins technologiques). De fait, si on n’a pas confiance dans la fiabilité des véhicules autonomes, on peut douter qu’il se généralise. On lui refusera un niveau de risque qu’on tolère dans le comportement des humains. Il lui faudra donc faire preuve d’un haut niveau de fiabilité. Cela vaudra aussi pour les algorithmes de conseil, qui devront surmonter un premier mouvement de défiance. Aujourd’hui, Google Talk ou Siri vous donnent un itinéraire, la météo, etc. Demain, ils fourniront des informations encore plus pertinentes, mais qui requerront davantage de confiance. Au-delà de ce constat, il y a un vrai enjeu culturel : l’IA, ce sont d’autres interfaces et, donc, d’autres relations entre l’homme et la machine.

- De là, au passage, l’intérêt de l’apport des sciences sociales et humaines (SHS)…

Oui, en effet. C’est quelque chose dont l’ingénieur de formation que je suis est convaincu.

- Des SHS qui sont justement présentes dans l’écosystème de Paris-Saclay. A ce propos, dans quelle mesure celui-ci fait-il sens pour vous ?

Nous en faisons pleinement partie. Pour mémoire, Segula Technologies dispose d’un site à Trappes. Paris-Saclay est à la pointe en matière d’IA et concentre de nombreux spécialistes du domaine. Plusieurs de nos partenaires académiques comme l’ENSTA ParisTech ou Télécom ParisTech, etc. – y sont présents. C’est un gage d’efficacité et un formidable booster ! à l’heure du numérique, la relation de proximité reste primordiale : pour la bonne marche de projets collaboratifs entre industriels et chercheurs, il faut impérativement se voir et échanger de manière informelle – on y revient. Bien plus, un écosystème comme Paris-Saclay permet de tester des démonstrateurs à grande échelle.
Pour l’heure, les GAFAM ont encore une longueur d’avance : leur puissance de calcul. Elle est telle que les tests réalisés sur leurs algorithmes sont non reproductibles. La seule reproduction d’un algorithme Deep Brain (Google) exige plusieurs mois de travail sur les machines classiques disponibles sur le marché. C’est dire si l’annonce de la création prochaine d’un supercalculateur de 1000 GPU, avec le soutien de la Région Ile-de-France, est une très bonne nouvelle. Cela nous permettra de combler notre retard, en plus d’attester d’une mobilisation générale, y compris des pouvoirs publics.

A lire aussi le récit que nous avons fait de l’événement (pour y accéder, cliquer ici) et l’entretien avec Milie Taing, la fondatrice de Lili.ia, une start-up, qui a l’ambition de mettre l’IA au service d’une gestion de projets mieux maîtrisée (cliquer ici).

2 commentaires à cet article
  1. Ping : De l’IA au service d’une gestion maîtrisée des projets. Entretien avec Milie Taing | Paris-Saclay

  2. Ping : Ce qu’on sait et ce qu’on ne sait pas (encore) faire avec l’IA. Retour sur la 5e édition des Smart Days | Paris-Saclay

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>