11/03/2018

L'intelligence artificielle: nouvelle révolution industrielle...





     L’année 2018 va voir encore se multiplier un grand nombre d’applications opérationnelles de l’Intelligence Artificielle (IA). Marketing, maintenance, surveillance, logistique, humaines… toutes les activités seront concernées. Voilà quelques informations pour ne pas passer à côté de cette révolution.
     Même si certains historiens font remonter les origines de l’intelligence artificielle à l’Antiquité, avec les premiers automates et les premières tentatives de représenter le raisonnement humain sous une forme mécanique, cette discipline est toute jeune. Elle s’est constituée sous ce nom durant l’été 1956, lorsqu’une vingtaine de spécialistes de la cybernétique (l’étude des « communications et de leurs régulations dans les systèmes naturels et artificiels »), du traitement complexe de l’information, des réseaux neuronaux formels (machines cherchant à imiter le fonctionnement du cerveau), de la théorie des automates ou des modèles de prise de décision, se réunirent au Dartmouth College, une université privée de Hanover (New Hampshire), aux Etats-Unis. Depuis, l’IA a multiplié les approches : réseaux de neurones artificiels (conceptualisés dès 1943), arbres de décision représentant un ensemble de choix sous la forme graphique d’un arbre (1963), systèmes experts capables de modéliser la connaissance d’un expert (1965), fouille de données (le « data mining », apparu dans les années 1990)… « Il n’y a pas une IA mais des IA, résume Cécile Wendling, directrice de la prospective du groupe AXA.

1)L’intelligence artificielle à l’assaut des entreprises :

« En libérant les salariés d’un certain nombre de tâches répétitives et automatisables, l’IA va leur permettre de devenir plus productifs mais aussi plus créatifs : elle devrait entraîner un doublement, ou presque, de la croissance économique de la France d’ici à 2035 », assure même Laurent Stefani, directeur exécutif pour l’intelligence artificielle au sein d’Accenture Technology en France.
Mais qu’est-ce-que l’IA aujourd’hui ?
     Beaucoup d’interlocuteurs ont encore du mal à le dire avec précision : « L’IA, ce sont des systèmes qui vont essayer de se rapprocher le plus possible de l’intelligence humaine », explique Romain Picard, directeur  de Cloudera, une entreprise californienne spécialisée dans les logiciels d’exploitation du Big Data. « L’IA consiste à déléguer à des machines une partie des capacités humaines en termes d’intelligence, de décision et d’action », avance Mouloud Dey, directeur de l’innovation chez SAS France (logiciels d’analytique avancée). La fin du code La difficulté à définir l’intelligence artificielle provient tout simplement de son histoire, au cours de laquelle plusieurs approches ont été tentées. Mais, de toute évidence, une étape décisive a été franchie avec le machine learning, plus facile d’emploi. « Avec le machine learning, on va apprendre à la machine comme à un enfant, analyse Rand Hindi. L’humain n’a pas à comprendre le phénomène pour enseigner à la machine à le reproduire. » Pour apprendre à un réseau de neurones à reconnaître une image de chat, on lui montre des images et on lui dit en sortie si c’est un chat ou pas. A aucun moment, un homme ne doit décrire ce qu’est un chat. « “L’IA, c’est la fin du code”, comme l’avait titré le magazine “Wired” en mai 2016, ajoute même Jean-Philippe Desbiolles, vice-président pour la France de Watson, la solution d’IA d’IBM. « Nous sommes en train de passer d’un monde de programmation à un monde de l’apprentissage où la connaissance, l’expertise et le savoir-être sont clefs. » Les spécialistes estiment qu’à terme, grâce à l’IA, nous pourrons mieux détecter et comprendre les signaux faibles dans l’imagerie médicale, les images satellitaires, les analyses médicales, les bruits, les caméras de surveillance, les textes de loi, les réseaux sociaux, les déclarations fiscales, les réclamations des clients… Ils pensent aussi que le dialogue avec les ordinateurs se fera de plus en plus en langage naturel (la voix ou l’écrit avec le NLP – « Natural Language Processing ») ou par l’intermédiaire d’images : les résultats seront représentés sous forme d’images, y compris en 3D avec des hologrammes
      « Mais, aujourd’hui, concrètement, l’IA reste encore très modeste : nous ne sommes pas encore sur des applications de rupture, mais sur de l’informatique qui s’améliore », prévient Julien Maldonato, associé conseil Innovation chez Deloitte. Lui et ses collègues des autres cabinets de conseil estiment que l’IA doit être utilisée en priorité pour la gestion documentaire (encore appelée automatisation des processus métier, ou RPA – « Robotic Process Automation »), la maintenance prédictive, la gestion de la logistique, le tri des CV, la prévision des ventes et donc de la production, les réponses aux requêtes (achats, demandes d’information, réclamations…) que les clients formulent par courrier électronique ou par téléphone, la détection de fraudes. Les cas d’usage se multiplient : chez l’équipementier automobile Faurecia, la mise en place, avec l’aide de Cloudera, d’un réseau de capteurs connectés dans les usines a permis de développer la maintenance prédictive et de réduire les arrêts de production.

2) Quelques notions à connaitre :

2-1   L’apprentissage automatique
L’apprentissage automatique (« machine learning » en anglais) est une des branches de l’intelligence artificielle. Son autre nom − l’apprentissage statistique − est moins glamour, mais décrit mieux le fonctionnement de ces programmes informatiques capables d’ajuster leur comportement en fonction des données qu’on leur montre en entrée (et éventuellement des données qu’on leur montre en sortie) : leur méthode de travail n’a rien d’intelligent, elle repose sur des processus systématiques, à base d’outils algorithmiques et statistiques comme les arbres de décision, la régression logistique et les fameux « réseaux de neurones ». Par exemple: quelle association et quelles doses de médicament faut-il pour soigner un malade

2-2   Les réseaux de neurones :
Les réseaux de neurones artificiels ont été théorisés en 1943 par deux Américains, Warren McCulloch, neurophysiologiste, et Walter Pitts, logicien, pour qui le neurone était à la base de toute opération logique du cerveau. Ils proposèrent un modèle simple de neurone artificiel, encore appelé neurone « formel » : un neurone binaire qui émet un signal (on dit que la sortie vaut 1) ou non (la sortie vaut 0). Pour prendre cette « décision », il effectue la somme des données (0 ou 1) envoyés par les neurones auxquels il est connecté. Aujourd’hui, les réseaux de neurones peuvent comprendre des milliers, des millions, voire des milliards de neurones. Ils ont besoin de processeurs capables d’effectuer un grand nombre de calculs en parallèle, comme les GPU (« graphics processing units », processeurs graphiques), conçus au départ pour des applications multimédias.

2-3   Reconnaissance des formes :
La reconnaissance de formes (« pattern recognition » en anglais) est une branche de l’intelligence artificielle surtout connue pour ses applications à la reconnaissance d’images (le mot « forme » est à comprendre dans un sens très large : contenus visuels ou sonores, images médicales, images satellitaires…). Pour apprendre à un réseau de neurones artificiels à reconnaître des images de chat, on lui montre, en entrée, des images de toutes sortes, et, en sortie, il annonce quelle est la probabilité que ce soit un chat. En cas d’erreur, il modifie de lui-même son processus de prise de décision. Les techniques actuelles donnent d’aussi bons résultats qu’un humain. Après avoir appris à un réseau de neurones à reconnaître 2.000 maladies parmi 130.000 photos de lésions de la peau, sept chercheurs de l’université Stanford l’ont mis en compétition avec 21 dermatologues pour la reconnaissance de mélanomes. Les résultats, publiés en 2017, étaient comparables.

2-4   Traitement du langage naturel :
Le traitement automatique du langage naturel (NLP, pour « natural language processing » en anglais) est un mélange de linguistique, d’informatique et d’intelligence artificielle, qui vous permet de ne plus devenir fou au téléphone : il y a encore quelques années, il fallait s’armer de patience pour dialoguer avec les standards automatiques qui nous demandaient d’appuyer sur telle touche de notre téléphone avant de nous mettre en communication avec le service demandé… ou de nous enfermer dans une boucle infernale. Désormais, grâce à la reconnaissance vocale, nous sommes mis en relation avec un « chatbot », un agent conversationnel, avec lequel nous dialoguons en langage naturel. Cette technologie nous permet également de donner des ordres à notre smartphone ou à une enceinte intelligente qui nous répond par synthèse vocale. Elle s’applique aussi à l’écrit, avec les bots sur les sites Web, ou à la transcription automatique des échanges entre un patient et un médecin.

3)  De nouvelles compétences à développer :

     L’intelligence artificielle va-t-elle détruire des emplois, et si oui, combien ? Derrière cette question omniprésente − mais à laquelle il est impossible de répondre avec précision − se cache une autre, rarement abordée et pourtant aussi cruciale : la place de la formation et des compétences. Un chantier aussi immense que négligé. Une étude réalisée par Accenture l’illustre de façon cruelle : la majorité (72 %) des 1.200 cadres interrogés par le cabinet estime que les « technologies intelligentes » vont jouer un rôle primordial dans « la capacité des entreprises à se différencier ». Quant aux dirigeants, ils sont plus de la moitié (54 %) à estimer que « la relation homme-machine constitue une de leurs priorités stratégiques. » Ils sont pourtant seulement… 3 % à envisager « d’augmenter significativement leurs investissements dans la formation de leurs salariés pour les préparer à cette collaboration. »
 « Ne nous trompons pas d’objectif : il faut protéger les employés, non les emplois. Car, de tout temps, des emplois ont disparu et de nouveaux ont vu le jour, avec, in fine, un nombre total d’employés toujours plus important », prévient Fabrice Asvazadourian, directeur exécutif d’Accenture. Ce qui laisse augurer d’un titanesque chantier autour de la formation. Le Comité d’orientation pour l’emploi (COE) avait tenté de l’estimer. Selon lui, 10 % des emplois sont susceptibles d’être supprimés et « 50 % seront notablement ou profondément transformés », dans tous les secteurs de l’économie et sur l’ensemble du territoire. « Ces évolutions vont se produire d’ici dix à quinze ans. C’est inédit et suppose une montée en compétences massive d’une très large partie de la population active. La grande erreur serait de croire que cela ne concerne que les gens sans qualification », s’alarme Marie-Claire Carrère-Gée, présidente du COE. Le rapport souligne notamment que 8 % de la population active (chômeurs inclus) n’a aucune compétence numérique et que, pour 27 %, le niveau est faible. Plus inquiétant, 13 % des actifs en emploi sont en difficulté du point de vue des compétences cognitives de base et 30 % devraient progresser « pour disposer de meilleurs atouts », note le rapport. L’arrivée de l’informatique et l’automatisation, à partir des années 1970, avaient déjà constitué une révolution. Avec l’intelligence artificielle, des bouleversements d’une autre ampleur s’annoncent. « Le gain sera de la même ampleur que pour l’ouvrier qui passe de la main à la pelleteuse pour creuser », annonce Bernard Belletante, directeur général d’EM Lyon.
      Une compétence clef des futurs managers sera sans doute l’esprit critique. Objectif : savoir garder ses distances avec les résultats produits par l’intelligence artificielle et notamment le « deep learning ». « La machine ne sait pas communiquer et expliquer ses résultats », note François Taddei. Redoutables tâches qu’auront les managers lorsqu’ils devront trancher et prendre des décisions.
     Face à la puissance d’analyse des machines, créativité, communication, esprit critique ou charisme seront des compétences clefs. Malheur à ceux qui ne les maîtriseront pas, en particulier chez les managers.

4) Conclusion

Les entreprises françaises sont-elles assez avancées dans leur numérisation pour tirer parti de l’IA ? « Non, et c’est là le sujet. L’intelligence artificielle est en soi un sujet spécifique, mais elle constitue aussi de façon plus générale la nouvelle vague de la numérisation. Les entreprises qui étaient déjà en retard sur la numérisation le sont aussi sur la mise en place d’outils d’intelligence artificielle. Sur la partie spécifique, il faudra plus de chercheurs ou de R&D sur des secteurs très consommateurs d’IA, comme la santé, les transports ou l’énergie. Mais l’IA sera aussi un facteur de transformation pour 100 % de l’économie. Et là, on doit rattraper notre retard : la France est 16e au niveau européen pour la numérisation des PME et TPE. C’est pour cela que nous annoncerons un plan pour les aider à se numériser, en partenariat avec les régions, en même temps que le plan sur l’intelligence artificielle. Il faut à la fois aider les entreprises à rattraper leur retard et avoir une première ligne de champions qui deviendront les leaders et les fournisseurs de solutions de demain ».( MOUNIR MAHJOUBI, secrétaire d’Etat chargé du numérique)

(Tiré d’un article des Echos du 9 Mars 18)

Bonne maintenance
Olivier