L’année 2018 va
voir encore se multiplier un grand nombre d’applications opérationnelles de l’Intelligence
Artificielle (IA). Marketing, maintenance, surveillance, logistique, humaines…
toutes les activités seront concernées. Voilà quelques informations pour ne pas
passer à côté de cette révolution.
Même si certains
historiens font remonter les origines de l’intelligence artificielle à
l’Antiquité, avec les premiers automates et les premières tentatives de
représenter le raisonnement humain sous une forme mécanique, cette discipline
est toute jeune. Elle s’est constituée sous ce nom durant l’été 1956,
lorsqu’une vingtaine de spécialistes de la cybernétique (l’étude des «
communications et de leurs régulations dans les systèmes naturels et
artificiels »), du traitement complexe de l’information, des réseaux neuronaux
formels (machines cherchant à imiter le fonctionnement du cerveau), de la
théorie des automates ou des modèles de prise de décision, se réunirent au
Dartmouth College, une université privée de Hanover (New Hampshire), aux
Etats-Unis. Depuis, l’IA a multiplié les approches : réseaux de neurones
artificiels (conceptualisés dès 1943), arbres de décision représentant un
ensemble de choix sous la forme graphique d’un arbre (1963), systèmes experts
capables de modéliser la connaissance d’un expert (1965), fouille de données
(le « data mining », apparu dans les années 1990)… « Il n’y a pas une IA mais
des IA, résume Cécile Wendling, directrice de la prospective du groupe AXA.
1)L’intelligence
artificielle à l’assaut des entreprises :
« En libérant les
salariés d’un certain nombre de tâches répétitives et automatisables, l’IA va
leur permettre de devenir plus productifs mais aussi plus créatifs : elle
devrait entraîner un doublement, ou presque, de la croissance économique de la
France d’ici à 2035 », assure même Laurent Stefani, directeur exécutif pour
l’intelligence artificielle au sein d’Accenture Technology en France.
Mais qu’est-ce-que l’IA aujourd’hui ?
Beaucoup
d’interlocuteurs ont encore du mal à le dire avec précision : « L’IA, ce sont des systèmes qui vont essayer
de se rapprocher le plus possible de l’intelligence humaine », explique
Romain Picard, directeur de Cloudera,
une entreprise californienne spécialisée dans les logiciels d’exploitation du
Big Data. « L’IA consiste à déléguer à
des machines une partie des capacités humaines en termes d’intelligence, de
décision et d’action », avance Mouloud Dey, directeur de l’innovation chez
SAS France (logiciels d’analytique avancée). La fin du code La difficulté à
définir l’intelligence artificielle provient tout simplement de son histoire,
au cours de laquelle plusieurs approches ont été tentées. Mais, de toute
évidence, une étape décisive a été franchie avec le machine learning, plus
facile d’emploi. « Avec le machine
learning, on va apprendre à la machine comme à un enfant, analyse Rand
Hindi. L’humain n’a pas à comprendre le
phénomène pour enseigner à la machine à le reproduire. » Pour apprendre à
un réseau de neurones à reconnaître une image de chat, on lui montre des images
et on lui dit en sortie si c’est un chat ou pas. A aucun moment, un homme ne
doit décrire ce qu’est un chat. « “L’IA,
c’est la fin du code”, comme l’avait titré le magazine “Wired” en mai 2016,
ajoute même Jean-Philippe Desbiolles, vice-président pour la France de Watson,
la solution d’IA d’IBM. « Nous
sommes en train de passer d’un monde de programmation à un monde de
l’apprentissage où la connaissance, l’expertise et le savoir-être sont clefs.
» Les spécialistes estiment qu’à terme, grâce à l’IA, nous pourrons mieux
détecter et comprendre les signaux faibles dans l’imagerie médicale, les images
satellitaires, les analyses médicales, les bruits, les caméras de surveillance,
les textes de loi, les réseaux sociaux, les déclarations fiscales, les
réclamations des clients… Ils pensent aussi que le dialogue avec les
ordinateurs se fera de plus en plus en langage naturel (la voix ou l’écrit avec
le NLP – « Natural Language Processing ») ou par l’intermédiaire d’images : les
résultats seront représentés sous forme d’images, y compris en 3D avec des
hologrammes
« Mais, aujourd’hui, concrètement, l’IA reste
encore très modeste : nous ne sommes pas encore sur des applications de
rupture, mais sur de l’informatique qui s’améliore », prévient Julien
Maldonato, associé conseil Innovation chez Deloitte. Lui et ses collègues des
autres cabinets de conseil estiment que l’IA doit être utilisée en priorité
pour la gestion documentaire (encore appelée automatisation des processus
métier, ou RPA – « Robotic Process Automation »), la maintenance prédictive, la
gestion de la logistique, le tri des CV, la prévision des ventes et donc de la
production, les réponses aux requêtes (achats, demandes d’information,
réclamations…) que les clients formulent par courrier électronique ou par
téléphone, la détection de fraudes. Les cas d’usage se multiplient : chez
l’équipementier automobile Faurecia, la mise en place, avec l’aide de Cloudera,
d’un réseau de capteurs connectés dans les usines a permis de développer la
maintenance prédictive et de réduire les arrêts de production.
2) Quelques
notions à connaitre :
2-1
L’apprentissage automatique
L’apprentissage automatique (« machine learning » en anglais) est une des branches de l’intelligence artificielle. Son autre nom − l’apprentissage statistique − est moins glamour, mais décrit mieux le fonctionnement de ces programmes informatiques capables d’ajuster leur comportement en fonction des données qu’on leur montre en entrée (et éventuellement des données qu’on leur montre en sortie) : leur méthode de travail n’a rien d’intelligent, elle repose sur des processus systématiques, à base d’outils algorithmiques et statistiques comme les arbres de décision, la régression logistique et les fameux « réseaux de neurones ». Par exemple: quelle association et quelles doses de médicament faut-il pour soigner un malade
L’apprentissage automatique (« machine learning » en anglais) est une des branches de l’intelligence artificielle. Son autre nom − l’apprentissage statistique − est moins glamour, mais décrit mieux le fonctionnement de ces programmes informatiques capables d’ajuster leur comportement en fonction des données qu’on leur montre en entrée (et éventuellement des données qu’on leur montre en sortie) : leur méthode de travail n’a rien d’intelligent, elle repose sur des processus systématiques, à base d’outils algorithmiques et statistiques comme les arbres de décision, la régression logistique et les fameux « réseaux de neurones ». Par exemple: quelle association et quelles doses de médicament faut-il pour soigner un malade
2-2
Les réseaux de neurones :
Les réseaux de neurones artificiels ont été théorisés en 1943 par deux Américains, Warren McCulloch, neurophysiologiste, et Walter Pitts, logicien, pour qui le neurone était à la base de toute opération logique du cerveau. Ils proposèrent un modèle simple de neurone artificiel, encore appelé neurone « formel » : un neurone binaire qui émet un signal (on dit que la sortie vaut 1) ou non (la sortie vaut 0). Pour prendre cette « décision », il effectue la somme des données (0 ou 1) envoyés par les neurones auxquels il est connecté. Aujourd’hui, les réseaux de neurones peuvent comprendre des milliers, des millions, voire des milliards de neurones. Ils ont besoin de processeurs capables d’effectuer un grand nombre de calculs en parallèle, comme les GPU (« graphics processing units », processeurs graphiques), conçus au départ pour des applications multimédias.
Les réseaux de neurones artificiels ont été théorisés en 1943 par deux Américains, Warren McCulloch, neurophysiologiste, et Walter Pitts, logicien, pour qui le neurone était à la base de toute opération logique du cerveau. Ils proposèrent un modèle simple de neurone artificiel, encore appelé neurone « formel » : un neurone binaire qui émet un signal (on dit que la sortie vaut 1) ou non (la sortie vaut 0). Pour prendre cette « décision », il effectue la somme des données (0 ou 1) envoyés par les neurones auxquels il est connecté. Aujourd’hui, les réseaux de neurones peuvent comprendre des milliers, des millions, voire des milliards de neurones. Ils ont besoin de processeurs capables d’effectuer un grand nombre de calculs en parallèle, comme les GPU (« graphics processing units », processeurs graphiques), conçus au départ pour des applications multimédias.
2-3
Reconnaissance des formes :
La reconnaissance de formes (« pattern recognition » en anglais) est une branche de l’intelligence artificielle surtout connue pour ses applications à la reconnaissance d’images (le mot « forme » est à comprendre dans un sens très large : contenus visuels ou sonores, images médicales, images satellitaires…). Pour apprendre à un réseau de neurones artificiels à reconnaître des images de chat, on lui montre, en entrée, des images de toutes sortes, et, en sortie, il annonce quelle est la probabilité que ce soit un chat. En cas d’erreur, il modifie de lui-même son processus de prise de décision. Les techniques actuelles donnent d’aussi bons résultats qu’un humain. Après avoir appris à un réseau de neurones à reconnaître 2.000 maladies parmi 130.000 photos de lésions de la peau, sept chercheurs de l’université Stanford l’ont mis en compétition avec 21 dermatologues pour la reconnaissance de mélanomes. Les résultats, publiés en 2017, étaient comparables.
La reconnaissance de formes (« pattern recognition » en anglais) est une branche de l’intelligence artificielle surtout connue pour ses applications à la reconnaissance d’images (le mot « forme » est à comprendre dans un sens très large : contenus visuels ou sonores, images médicales, images satellitaires…). Pour apprendre à un réseau de neurones artificiels à reconnaître des images de chat, on lui montre, en entrée, des images de toutes sortes, et, en sortie, il annonce quelle est la probabilité que ce soit un chat. En cas d’erreur, il modifie de lui-même son processus de prise de décision. Les techniques actuelles donnent d’aussi bons résultats qu’un humain. Après avoir appris à un réseau de neurones à reconnaître 2.000 maladies parmi 130.000 photos de lésions de la peau, sept chercheurs de l’université Stanford l’ont mis en compétition avec 21 dermatologues pour la reconnaissance de mélanomes. Les résultats, publiés en 2017, étaient comparables.
2-4
Traitement du langage naturel :
Le traitement automatique du langage naturel (NLP, pour « natural language processing » en anglais) est un mélange de linguistique, d’informatique et d’intelligence artificielle, qui vous permet de ne plus devenir fou au téléphone : il y a encore quelques années, il fallait s’armer de patience pour dialoguer avec les standards automatiques qui nous demandaient d’appuyer sur telle touche de notre téléphone avant de nous mettre en communication avec le service demandé… ou de nous enfermer dans une boucle infernale. Désormais, grâce à la reconnaissance vocale, nous sommes mis en relation avec un « chatbot », un agent conversationnel, avec lequel nous dialoguons en langage naturel. Cette technologie nous permet également de donner des ordres à notre smartphone ou à une enceinte intelligente qui nous répond par synthèse vocale. Elle s’applique aussi à l’écrit, avec les bots sur les sites Web, ou à la transcription automatique des échanges entre un patient et un médecin.
Le traitement automatique du langage naturel (NLP, pour « natural language processing » en anglais) est un mélange de linguistique, d’informatique et d’intelligence artificielle, qui vous permet de ne plus devenir fou au téléphone : il y a encore quelques années, il fallait s’armer de patience pour dialoguer avec les standards automatiques qui nous demandaient d’appuyer sur telle touche de notre téléphone avant de nous mettre en communication avec le service demandé… ou de nous enfermer dans une boucle infernale. Désormais, grâce à la reconnaissance vocale, nous sommes mis en relation avec un « chatbot », un agent conversationnel, avec lequel nous dialoguons en langage naturel. Cette technologie nous permet également de donner des ordres à notre smartphone ou à une enceinte intelligente qui nous répond par synthèse vocale. Elle s’applique aussi à l’écrit, avec les bots sur les sites Web, ou à la transcription automatique des échanges entre un patient et un médecin.
3) De nouvelles compétences à développer :
L’intelligence
artificielle va-t-elle détruire des emplois, et si oui, combien ? Derrière
cette question omniprésente − mais à laquelle il est impossible de répondre
avec précision − se cache une autre, rarement abordée et pourtant aussi
cruciale : la place de la formation et des compétences. Un chantier aussi
immense que négligé. Une étude réalisée par Accenture l’illustre de façon
cruelle : la majorité (72 %) des 1.200 cadres interrogés par le cabinet estime
que les « technologies intelligentes » vont jouer un rôle primordial dans « la
capacité des entreprises à se différencier ». Quant aux dirigeants, ils sont
plus de la moitié (54 %) à estimer que « la relation homme-machine constitue
une de leurs priorités stratégiques. » Ils sont pourtant seulement… 3 % à
envisager « d’augmenter significativement leurs investissements dans la
formation de leurs salariés pour les préparer à cette collaboration. »
« Ne nous trompons pas d’objectif : il faut
protéger les employés, non les emplois. Car, de tout temps, des emplois ont
disparu et de nouveaux ont vu le jour, avec, in fine, un nombre total
d’employés toujours plus important », prévient Fabrice Asvazadourian,
directeur exécutif d’Accenture. Ce qui laisse augurer d’un titanesque chantier
autour de la formation. Le Comité d’orientation pour l’emploi (COE) avait tenté
de l’estimer. Selon lui, 10 % des emplois sont susceptibles d’être supprimés et
« 50 % seront notablement ou profondément transformés », dans tous les secteurs
de l’économie et sur l’ensemble du territoire. « Ces évolutions vont se produire d’ici dix à quinze ans. C’est inédit et
suppose une montée en compétences massive d’une très large partie de la
population active. La grande erreur serait de croire que cela ne concerne que
les gens sans qualification », s’alarme Marie-Claire Carrère-Gée,
présidente du COE. Le rapport souligne notamment que 8 % de la population
active (chômeurs inclus) n’a aucune compétence numérique et que, pour 27 %, le
niveau est faible. Plus inquiétant, 13 % des actifs en emploi sont en
difficulté du point de vue des compétences cognitives de base et 30 % devraient
progresser « pour disposer de meilleurs atouts », note le rapport. L’arrivée de
l’informatique et l’automatisation, à partir des années 1970, avaient déjà
constitué une révolution. Avec l’intelligence artificielle, des bouleversements
d’une autre ampleur s’annoncent. « Le
gain sera de la même ampleur que pour l’ouvrier qui passe de la main à la
pelleteuse pour creuser », annonce Bernard Belletante, directeur général
d’EM Lyon.
Une compétence clef des futurs managers sera
sans doute l’esprit critique. Objectif : savoir garder ses distances avec les
résultats produits par l’intelligence artificielle et notamment le « deep
learning ». « La machine ne sait pas
communiquer et expliquer ses résultats », note François Taddei. Redoutables
tâches qu’auront les managers lorsqu’ils devront trancher et prendre des
décisions.
Face
à la puissance d’analyse des machines, créativité, communication, esprit
critique ou charisme seront des compétences clefs. Malheur à ceux qui ne les
maîtriseront pas, en particulier chez les managers.
4)
Conclusion
Les entreprises françaises sont-elles assez
avancées dans leur numérisation pour tirer parti de l’IA ? « Non, et c’est là le sujet. L’intelligence
artificielle est en soi un sujet spécifique, mais elle constitue aussi de façon
plus générale la nouvelle vague de la numérisation. Les entreprises qui étaient
déjà en retard sur la numérisation le sont aussi sur la mise en place d’outils
d’intelligence artificielle. Sur la partie spécifique, il faudra plus de
chercheurs ou de R&D sur des secteurs très consommateurs d’IA, comme la
santé, les transports ou l’énergie. Mais l’IA sera aussi un facteur de
transformation pour 100 % de l’économie. Et là, on doit rattraper notre retard
: la France est 16e au niveau européen pour la numérisation des PME et TPE.
C’est pour cela que nous annoncerons un plan pour les aider à se numériser, en
partenariat avec les régions, en même temps que le plan sur l’intelligence
artificielle. Il faut à la fois aider les entreprises à rattraper leur retard
et avoir une première ligne de champions qui deviendront les leaders et les
fournisseurs de solutions de demain ».( MOUNIR MAHJOUBI, secrétaire
d’Etat chargé du numérique)
(Tiré d’un
article des Echos du 9 Mars 18)
Bonne maintenance
Olivier