Publié dans "Dossier"

Les 6 et 7 juin dernier, les spécialistes français de l’intelligence artificielle avaient rendez-vous à la Cité Universitaire de Paris pour le congrès AI Paris 2017. Cet événement a été l’occasion de mesurer la vitesse à laquelle les technologies progressent actuellement pour rendre les machines intelligentes. Une tendance qui présage de profonds bouleversements.

L’émulation était communicative et les échanges allaient bon train durant ces deux journées de congrès, rythmées par 40 interventions d’acteurs clés de l’écosystème français. Il est vrai que l’intelligence artificielle – l’IA, pour les initiés – semble aujourd’hui aussi prometteuse que pouvait l’être Internet il y a 20 ans. Ouvrant les deux jours de congrès par une intervention consacrée à l’état de l’art, Alexandre Lebrun, Engineering Manager chez Facebook AI Research, a rappelé que cette notion a commencé à être évoquée au moment de l’après-guerre, en particulier lorsqu’Alan Turing a proposé son fameux test (voir encadré en bas de page). Il a aussi expliqué que l’ambition de rendre les machines intelligentes avait été relativement mise en sommeil entre 1990 et 2012. « À cette période, les Français étaient quasiment les seuls à travailler sur l’IA. Sans doute parce qu’ils ignoraient que plus personne, à part eux, ne s’y intéressait réellement, a-t-il ironisé. Mais aujourd’hui, cela vaut à notre pays et à ses chercheurs d’être en pointe sur un sujet qui fait l’objet d’un engouement marqué depuis 4 ou 5 ans ». Selon Forbes, 38 % des entreprises utilisent déjà les technologies de l’IA et, dès 2018, elles seront 62 % à avoir franchi le pas.

Une bonne conjonction de planètes

Pourquoi un tel décollage ? Parce que l’IA se trouve à la croisée de trois évolutions considérées comme absolument majeures : l’émergence du Big Data, c’est-à-dire les immenses quantités de données générées par la “digitalisation du monde”, la possibilité d’utiliser des infrastructures informatiques toujours plus puissantes et économiques, et les progrès spectaculaires que ne cessent d’accomplir les algorithmes en matière de capacité et de vitesse de calcul.

Sur ce dernier point, tous les experts s’accordent à dire que l’essor de l’IA est étroitement lié à celui des technologies dites de Machine Learning et de Deep Learning(1), qui révolutionnent la façon dont les ordinateurs traitent les données et apprennent à devenir intelligents. De plus, si l’IA est devenue un enjeu de business crucial dans d’innombrables secteurs de l’économie, tant pour le grand public que pour des applications industrielles et scientifiques, c’est aussi parce qu’elle fait partie intégrante des avancées de la robotique, de la biométrie, des interfaces homme-machine, des objets connectés…

Des domaines d’études assez distincts

La lecture et l’interprétation d’images fixes ou animées (à partir des pixels et de leur agencement) font partie des disciplines historiques explorées par les chercheurs en IA. Mais beaucoup de travaux portent également sur la reconnaissance et la synthèse vocale, ainsi que sur les interactions homme-machine en langage naturel. Les systèmes prédictifs (prévoir ce qui pourrait ou va se passer en analysant ce qui s’est passé) entrent aussi dans le champ de l’IA, comme l’analyse linguistique et sémantique. Elle permet, entre autres, d’obtenir des données “utiles” à partir de sources écrites et orales de toutes natures, comme par exemple des flux d’emails ou des conversations téléphoniques enregistrées.

Applications : du jeu de go à la vidéosurveillance

Quant aux déclinaisons concrètes de ces avancées, elles se déclinent de façon tout aussi variée. Les plus parlantes, jusqu’ici, étaient celles qui consistent à faire jouer des ordinateurs contre des hommes. En 1997, un super-ordinateur d’IBM battait pour la première fois le champion du monde d’échecs Garry Kasparov (à la faveur, toutefois, d’un coup surprenant qui serait, en fait, dû à un bug…). Mais c’est surtout le jeu de go, dont le codage reste beaucoup plus complexe que celui des échecs avec son nombre quasi infini de possibilités, qui est devenu un domaine test pour différentes méthodes d’IA. Un cap a été franchi en mars 2016 lorsqu’une machine est parvenue, grâce aux avancées du Deep Learning, à battre le multi-champion de go Lee Sedol.

Du côté de l’analyse et du traitement des images, les algorithmes accomplissent également des prouesses étonnantes : outils de classement automatiques de photos de plus en plus puissants et démocratisés, systèmes de vidéosurveillance aptes à détecter toute gestuelle agressive… Sans oublier la réalité augmentée, qui s’appuie sur une lecture précise de l’environnement pour pouvoir y insérer des éléments virtuels.

Lors du congrès AI Paris 2017, il a été beaucoup question d’assistants virtuels et autres Chatbots (ou agents conversationnels) capables de dialoguer avec des hommes en langage naturel. Et ce, de façon pertinente sur la forme comme sur le fond, c’est-à-dire en pouvant converser de façon fluide et sensée, tout en délivrant des informations fiables et adéquates, voire même effectuer des transactions. Comment ? En allant les chercher dans le système d’information de l’entreprise, quitte à consulter pour cela une quantité immense et très hétérogène de documents et de sources. Car les entreprises expérimentent actuellement de multiples façons d’exploiter sous forme de données utiles leur “Big Data textuel” écrit et/ou oral.

L’IA et la 4e révolution industrielle

Patrick Bastard, VP Engineering ADAS Autonomous Driving – Electronics Technology du Groupe Renault, a expliqué en quoi l’automobile s’appuie sur l’IA pour intégrer de plus en plus d’aide à la conduite et tendre vers la conduite autonome, avec tout ce que cela signifie en termes de bouleversement du business model et de la chaîne de valeur de cette industrie. Son intervention a été très suivie, tout comme celle de Thierry Beauvais, VP for Research – Technology and Innovation for Processing – Cognition and Control de Thales, qui a montré comment ce fleuron de l’industrie française explore de multiples domaines d’application de l’IA. Les solutions évoquées par Thierry Beauvais allaient de l’optimisation des outils d’aiguillage aérien à la cybersécurité en passant par l’interprétation de l’imagerie spatiale. C’est aussi devant un auditoire attentif que Christophe Dubus, directeur de l’accompagnement du changement chez Mr Bricolage, a expliqué comment la start-up Vekia a aidé l’enseigne à mettre au point un outil de prévision des ventes qui optimise de façon significative la gestion des approvisionnements et des stocks de chaque magasin.

Un enjeu crucial est évidemment sous-tendu : la production, et plus largement, l’emploi. En quoi l’IA constitue-t-elle un moteur de la 4e révolution industrielle ? Comment et quand va-t-elle, dans les ateliers et les usines, rendre de plus en plus intelligents les robots et autres cobots, ces machines qui assistent l’homme et augmentent ses possibilités ? Au-delà de la “maintenance prédictive”, quels métiers sont amenés à évoluer, voire à disparaître à plus ou moins long terme ? Ce volet s’avère encore assez prospectif et les industries aéronautiques et spatiales sont les plus à l’avant-garde pour expérimenter les applications de l’intelligence artificielle dans le manufacturing. Mais une transformation profonde est amorcée. Après avoir sondé plusieurs centaines d’experts du Machine Learning, des chercheurs de l’université d’Oxford ont publié, quelques jours avant l’événement parisien, une étude selon laquelle tous les emplois d’aujourd’hui pourraient être automatisés d’ici 120 ans. Sur ce sujet, clairement, il y a encore matière à réfléchir…

(1) Le Machine Learning (ou apprentissage automatique) consiste à mettre au point des algorithmes capables d’apprendre par l’exemple et de prévoir des résultats, tendances, et comportements futurs à partir de données existantes, et sans être explicitement programmés. Le Deep Learning (ou apprentissage profond) est une forme spécifique de Machine Learning basée sur un modèle de réseau neuronal et présentant une forme de similitude avec le fonctionnement du cerveau humain. À titre d’exemple, Google Maps utilise cette technologie pour déchiffrer le texte présent dans les paysages, notamment les numéros de rues. De son côté, Apple l’intègre à Siri, l’assistant virtuel des IPhones, afin d’en augmenter les performances.

Le test de Turing remis en cause ?

Alan Turing vers 1938

Le mathématicien britannique Alan Turing est l’un des pionniers de l’intelligence artificielle. En 1950, il imagine ce qu’il a appelle le « jeu de l’imitation », communément baptisé test de Turing. Le défi lancé à la machine : se faire passer pour un être humain auprès de juges (humains, eux) à travers des échanges de textes. Après avoir discuté pendant cinq minutes “à l’aveugle” avec une machine et un autre humain, chaque juge estime si ses interlocuteurs sont ou non des machines. Considéré, depuis lors, comme le meilleur moyen de jauger l’intelligence d’un ordinateur, cet exercice a toutefois montré ses limites, et les experts cherchent aujourd’hui à le compléter, voire à le remplacer. Reste qu’il a le mérite de la simplicité… et qu’aucune machine n’a encore réussi à le passer avec succès, en tout cas de façon incontestée.

Point du vue

« Associer les métiers d’aujourd’hui aux évolutions de demain »

Isabelle Galy,
C.O.O. Learning Lab Human Change / CNAM.

« L’avènement de l’intelligence artificielle représente une transformation très importante qui va inéluctablement bouleverser le partage des rôles et du travail dans l’entreprise. Mais si cette mutation n’est pas accompagnée sur le plan humain, elle risque de se heurter à des résistances naturelles, d’autant que l’IA peut être perçue par les salariés comme destructrice d’emplois.

Plutôt que de tomber dans le travers de l’automatisation totale des processus, les organisations ont intérêt à envisager chaque étape et chaque chantier de transformation en associant étroitement les collaborateurs à leurs réflexions, en procédant de façon “agile”, participative et expérimentale. Comment le travail se répartira-t-il entre humains et machines ? Comment optimiser les complémentarités ?

S’il y a peut-être, actuellement, une forme de surinvestissement des entreprises sur les aspects technologiques de l’IA, les impacts humains ne sont sans doute pas aussi anticipés et accompagnés qu’ils le devraient. »

la newsletter du club inhouse

chaque mois, le meilleur de l’actu RH et du secteur industriel

s'inscrire