Permettre l’accessibilité en IA à toutes les entreprises en 2019
En 2019, l’intelligence artificielle doit pénétrer dans les traditions. C’est la volonté des adhérents de la première édition de l’AI France Summit. De plus en plus abordables et souvent open source, les frameworks de machine/deep learning peuvent être utilisés dans des solutions verticales, accessibles à toutes les entreprises, du grand compte à la TPE.
C’est au centre de conférences Pierre-Mendès-France du ministère de l’Economie que s’est déroulé le premier AI France Summit. Ce meeting autour de l’intelligence artificielle et de ses cas d’usages concrets se déroulait dans le cadre d’un partenariat entre Tech In France, la Direction générale des entreprises (DGE) et la Commission générale à l’égalité des territoires (CGET). Ceci pour faire passer deux messages : il faut que la France soit plus dynamique sur l’IA et inciter toutes les entreprises à s’y mettre. Pour, tout clairement, « prendre son pied avec l’IA », a déclaré Pierre-Marie Lehucher, président de Tech In France.
Même les TPE. C’est la détermination du secrétaire d’Etat chargé du numérique, Mounir Mahjoubi, qui, bien qu’en déplacement au Japon, s’est adressé à l’assemblée dans une vidéo. En rappelant le plan AI for Humanity diffusé par le président de la République, Emmanuel Macron, en mars 2018, M. Majhoubi a accentué sur la nécessité de diffuser les solutions basées sur l’intelligence artificielle dans l’économie pour affermir la compétitivité des entreprises. « C’est l’enjeu de 2019. L’intelligence artificielle doit être accessible à toutes les entreprises. […] Que vous soyez une start-up, une petite, une moyenne ou une grande entreprise, vous pouvez avoir le réflexe IA. » En somme, cette technologie n’est plus de la science-fiction et doit entrer dans le quotidien des entreprises.
L’IA prête pour les tâches de perception, moins pour la compréhension
C’est pourquoi la journée se détachait autour des trois grands secteurs où l’intelligence artificielle est la plus exploité pour le moment : la médecine, l’industrie et les transports. Un quatrième temps, en fin de journée, s’attelait à présenter ces enjeux technologiques dans tous les territoires français et comment leur permettre d’en profiter au maximum. Mais cette journée de conférence s’articulait autour d’une étude fleuve sur l’état de l’art et les perspectives de l’IA pour la France. Ce ne sera que la deuxième en un an après celle menée par le député LREM, Cédric Villani en mars dernier.
Le rapport final de cette étude pour le Pôle interministériel de prospective et d’anticipation des mutations économiques (PIPAME), a été présenté par Antoine Dubois et Demba Diallo, d’Atawao Consulting. L’état actuel de la technologie, selon les deux consultants, est qu’elle est parfaitement mature sur les tâches de perception (détection d’une information dans un ensemble de données) mais a encore du chemin à faire avant de pouvoir faire en sorte qu’un algorithme puisse analyser le contexte autour d’une donnée (compréhension). Pour y arriver, deux perspectives sont possibles. « La méthode à l’américaine », a lâché Antoine Dubois pour décrire le fait d’améliorer les performances des algorithmes avec toujours plus de données et de puissance de calcul. La deuxième méthode, à l’européenne, serait de développer des systèmes d’apprentissage différents, avec des règles préalables.
Les frameworks à la française constamment en retrait
Mais les dominants en la matière sont bien les américains, en la personne morale de Google et de son framework Tensorflow. D’après GitHub, fin 2017, ce dernier était le plus populaire (4192 projets), suivi de Keras (991 projets) et Caffe (810) ou PyTorch (en termes de contributeurs). Dans les 10 premiers de ce classement n’apparaît pas la bibliothèque open source développée en 2007 par l’Inria et Telecom ParisTech, Scikit-Learn. Ce framework est tout de même utilisé par des acteurs privés comme Spotify, Evernote, Data Publica ou Dataiku.
Le principal appui du cabinet de conseil pour une meilleure assimilation de l’IA dans les entreprises est de développer des technologies sectorielles et des zones d’expérimentation à grande échelle. Notamment dans la santé, l’industrie et les transports. Dans les trois cas, Atawao consulting recommande de rendre un hôpital, une usine et une ville totalement accessible aux expérimentations de l’IA autour d’un système de concentration des données collectées, d’optimisation des processus logistiques ou pour la voiture autonome dans des conditions réelles.
Des freins à desserrer pour mieux intégrer l’IA
Que ce soit à l’échelle internationale ou nationale, le secteur clé d’amplification de l’IA est la santé. Ce marché pourrait s’estimer à 6,6 Md$ en 2021 et présente des cas d’usages dans la médecine préventive, l’aide au diagnostic et au choix des traitements, etc. Par exemple, l’agence américaine du médicament a confirmé, début 2018, un diagnostic de détection des risques de rétinopathie diabétique accompli sans médecin par une solution développée par IDX. Selon M. Dubois, les principaux freins au développement de ces technologies dans le secteur de la santé sont les problèmes administratifs pour atteindre aux données de santé, ainsi que la non-existence d’un modèle économique viable.
Le fait que les acteurs ne veulent pas répartir leurs données est définitivement le frein principal au développement des solutions basées sur l’IA dans les entreprises. Que ce soit dans l’industrie ou dans les transports, les cas d’usages sont pourtant nombreux. Robotiser les contrôles qualité grâce à des capteurs optiques, protéger la maintenance prédictive des machines ou la conduite autonome. Dans cette branche, les yeux sont rivés sur Uber ou – une fois encore – Google. Mais Renault a atteint le niveau 4 de conduite autonome l’année dernière et des start-ups comme Easy Mile, à Toulouse ou Navvya à Lyon, ont déjà mis au point un minibus autonome sur des voies réservées.