DefaultEvenement


Nous y voilà ! Vous avez lu notre article précédent sur ce qu'il fallait comprendre de l’intelligence artificielle, qui n'est au final qu'un outil concret qui permet de répondre à des besoins précis.

Vous êtes maintenant prêts à passer à l’acte et expérimenter. Peut-être avez-vous des idées ? et avez commencé à remplir les cases du Data Use Case Canvas. Dans ce cas, vous avez remarqué la grande case DATA en bas. L'IA est gourmande en données, c'est bien connu. Ce n'est d'ailleurs pas un hasard si le domaine accélère aujourd'hui, à l'époque où la société bascule de plain-pied dans le numérique.

L’intelligence artificielle, comme le big data en son temps, ne sont pas des outils magiques qu’il suffit de connecter et démarrer pour avoir des résultats. Comme pour toute innovation, il faut bien préparer le terrain, et s’assurer que les fondamentaux sont compris et maîtrisés.

La donnée existe-t-elle ?

Après plusieurs visites d’usines, la statistique concernant l’âge moyen du parc de machines industrielles, qui est entre 15 à 20 ans, prend tout son sens. L’instrumentation et les mesures ont généralement été pensées avant tout pour des besoins précis de production, et l’utilisation moderne par algorithmes d’intelligence artificielle n’a pas été anticipé.

Nous sommes aujourd'hui loin du cas idéal de la chaîne de production « digitalisée » telle qu’on la décrit dans les présentations qui promeuvent l’industrie du futur. Il est donc normal que la question quant à la nécessité de s’équiper en capteurs soit l’une des premières qu’on rencontre.

En cherchant bien dans une usine, de la donnée on en trouve, dans les automates, dans les logiciels de laboratoires, dans des outils de métrologie, etc.

Ajoutons également qu’une des caractéristiques des algorithmes de machine learning est de pouvoir capturer des signaux faibles. Nous tenterons la définition suivante : « un signal faible est une information qu’on ne mesure pas directement mais qu’on peut reconstruire indirectement à partir des données disponibles ».

Est-elle accessible et exploitable ?

Ce point représente généralement la première complexité qui doit réellement être travaillée lorsqu’on se lance dans un projet data.

Parmi les problématiques concrètes de remontée des données, la connectique reste soumise à de nombreuses contraintes de terrain et le wifi n’est souvent pas une option. La promesse de l'Industrial IoT (l'internet des objets industriels) et l’arrivée des protocoles de communication associés (5G, LPWAN, etc.) devrait y remédier, mais uniquement sur moyen et long termes.

La problématique est encore plus exacerbée lorsqu’on souhaite un pilotage opérationnel, sur le terrain, qui nécessite une communication efficace pour faire remonter les données et redescendre les informations dans des temps suffisamment courts, afin qu’elles soient mises à disposition des opérateurs lorsqu’ils en ont besoin. Nous sommes souvent face à un parc de machines-outils âgé, où l'accès aux automates n'a pas été prévu pour un monitoring en continu, et l'extraction de données nécessite de passer par un expert automaticien.

Enfin, les données sont souvent enregistrées par silos, avec des temps de mesures variables, parfois irréguliers, avec des différences dans les machines, automates, capteurs, qui se traduisent par des différences dans les formats de données.

Face à ses problématiques concrètes limitantes, l’écosystème fort heureusement s’adapte et s’enrichit aujourd’hui de nombreuses solutions de captation et de mise à disposition des données dans un datalake prêt-à-l'emploi.

La volumétrie est-elle suffisante ?

Au vu des éléments précédents, on peut craindre une volumétrie faible par rapport aux discours habituels sur le Big Data, où on parle généralement de téraoctets et de pétaoctets.

La volumétrie de données dans l'absolu, bien qu'intéressante comme indicateur, doit avant tout être remise en perspective par rapport aux besoins, et dans notre cas, il s’agit de capturer les processus : Un phénomène peut faire intervenir plusieurs variables, qui ont de fortes variabilités et par conséquent un espace des paramètres large. Il faut s’assurer de capturer la dynamique sous-jacente du process avec un nombre de points correspondant à la réalité de terrain.

Un phénomène qui suit une loi linéaire simple ne nécessite pas autant de données qu’un phénomène complexe avec des dépendances non-linéaires fortes à des phénomènes variables et difficiles à contrôler comme la météo.

Il faut également avoir en tête que les algorithmes continuent d'apprendre une fois déployés, et que les prédictions s'améliorent dans le temps au fur et à mesure du suivi du process. On peut dire par analogie avec l’humain que l’IA devient experte au fil du temps sur le process.

Enfin, un des apports majeurs de ces dernières années est la capacité à traiter des données non structurées, comme des images, et de les associer aux autres données pour avoir une compréhension plus riche et complète.

Nous travaillons par exemple dans l’industrie d’élevage d'insectes, et le suivi qualité se fait directement sur les images prises à intervalles réguliers, pour pouvoir être croisés ensuite avec les capteurs et les automates, ainsi que la pesée finale. Les dernières avancées en Deep Learning permettent aujourd’hui d’imaginer ces scénarios et de les implémenter simplement et rapidement.

Quid de la qualité et la variabilité des données

Nous finissons enfin sur le point qui est le plus important, la qualité de la donnée, et la maîtrise de la variabilité au niveau du process et de la métrologie. Le ratio signal sur bruit impacte directement le score prédictif final et le besoin en volumétrie pour y converger.

Les principes d’incertitudes de mesure, de répétabilité et de reproductibilité jouent un rôle primordial, et nous voyons clairement chez tous nos clients sans exception leur impact sur les différentes usines que nous traitons.

Des mesures de mauvaises qualités, et entachées d’incertitudes nuisent forcément à la prédiction, et même si statistiquement, la prédiction lisse le bruit, la variabilité des valeurs mesurées due aux incertitudes ne permet pas toujours de s’en rendre compte.

La reproductibilité entre différents sites joue également un rôle important, car l’objectif est souvent de déployer la même solution, avec le grand avantage de pouvoir mutualiser les données pour l’apprentissage.

La mise en place d’outils d’apprentissage par la donnée pousse la métrologie à aller plus loin, et de se concentrer sur l’amélioration du process de mesure, là où certains n’y voient que des cycles d’étalonnage de machines.
DefaultActualite
Lorsque nous avons lancé Dataswati en 2016, la perception de l’intelligence artificielle (IA) par le public était très vague et lointaine. Nous avons eu le plaisir de voir depuis une maturité grandissante sur le sujet, portée par le bruit de fond général des différents débats publiques sur la place de l’IA dans la société. Il est difficile aujourd’hui de ne pas entendre parler d’intelligence artificielle, mais il est encore plus difficile de trouver des explications claires et concrètes sur ce sujet.

Nous avons nous-mêmes beaucoup communiqué et échangé avec différents publics, dont des professionnels de l’industrie (nous intervenons régulièrement dans des tables rondes et des conférences pour d’autres métiers, mais aussi à l’université et grandes écoles). Et nous avons appris comment démystifier, expliquer et illustrer le sujet de façon claire et efficace, et identifier quelques points qui nécessitent des éclaircissements et qui permettent une meilleure compréhension globale.

Voici donc pour vous les points principaux à comprendre sur l’intelligence artificielle pour réussir sa transition vers l'usine connectée et intelligente.

Intelligence Artificielle : pourquoi maintenant ? et quel est le lien avec les Big Data ?

On parle aujourd’hui d’intelligence artificielle comme on parlait hier de Big Data, et si c’est dans cet ordre, ce n’est pas par hasard. L’écosystème Big Data a été développé pour répondre aux problématiques de gestion de la donnée à l’échelle d’internet, ce qu’on appelle communément les 3V (Volume, vélocité, variété), qui peuvent se résumer au seul V de Verrous à lever pour rendre transparente l’utilisation de la donnée. Ce mouvement a été initié par les GAFA et assimilés, puisque leurs activités tournent essentiellement autour de la donnée.

Il n’est donc pas étonnant que, suite à l’acquisition de vastes volumes de données, on retrouve les mêmes acteurs en position privilégiée pour exploiter cette donnée, en étant pionniers dans le développement des algorithmes et des solutions logicielles qui complètent l’écosystème Big Data.

L’adoption de ces outils dans un contexte de numérisation d’un secteur économique qui va stimuler l’innovation. Ça a été le cas du secteur de l’assurance, c’est le cas actuellement dans le médical, le droit, etc.

Le mouvement de l’industrie 4.0 obéit à la même logique puisqu’il repose fortement sur le numérique. Ce mouvement va d’ailleurs s’accélérer, car des outils complémentaires arrivent pour lever l’ensemble des verrous restants, notamment concernant la connexion et la remontée d’informations à partir des usines, qui deviennent donc connectée (on va parler d’IIoT, de 5G, de réseaux bas-débits tels que SigFox ou LoRa, etc).

De quoi parle-t-on au juste ?

L’intelligence artificielle est un terme qui reste générique et englobe différentes choses, mais aujourd’hui, on en parle principalement à cause du changement de paradigme qui s’opère dans le développement d’algorithmes.

Une façon simple de se représenter ce changement de paradigme, est de se dire que pour logiciel ou un système numérique au sens large (robots, voitures, etc), nous attendons un comportement particulier dans un contexte donné.

Ce comportement est généralement codé explicitement par une équipe d’experts, après les spécifications et la définition d’un cahier des charges. Pour une voiture que l’on veut autonome, cela implique de coder l’ensemble des réactions possibles pour toutes les situations possibles, dans le respect du code de la route. Une tâche très longue, fastidieuse et probablement impossible au vu des multiples combinaisons possibles de configurations de routes, d’événements, etc.

Le changement de paradigme impulsé par l’adoption massive d’outils de l’intelligence artificielle consiste à considérer que ce comportement sera appris à partir d’exemples (les données), par mimétisme de la façon dont nous-mêmes apprenons (si je veux vous apprendre à reconnaître un cheval, je vais vous montrer des images de chevaux).

Il important de noter à ce stade que nos algorithmes apprenants le sont pour des tâches spécifiques, dans un contexte très limité. Ce dernier étant fixé par le Data Scientist qui va définir un score d’apprentissage que l’algorithme doit optimiser, ainsi que les données qui vont être utilisées.

Pour reprendre l’exemple de la voiture, il s’agit d’abord de développer une couche d’intelligence pour la perception, qui apprend à extraire les informations pertinentes du terrain, à partir des données capteurs, caméra, lidar, etc. Puis une couche de décision, qui relie ces informations au comportement d’un conducteur, pour extraire des patterns qui permettent de généraliser à partir des exemples à des situations similaires que la voiture va rencontrer au cours de son utilisation.

Comment l’exploiter dans l’industrie 4.0 ?

La maintenance prédictive est souvent citée, car elle offre le double avantage de fournir une porte d'entrée simple à appréhender vers les innovations d'usage, tout en restant dans un cadre familier favorable à des expérimentations par petites touches.

Le suivi en temps réel des outils de production et la disponibilité croissante des données automates et capteurs permet en effet de constituer une base d'apprentissage pour des algorithmes apprenants, qui détectent et anticipent de façon optimale les risques de pannes et d'anomalies, en permettant aux opérateurs de se concentrer sur leur métier et de faire tourner au mieux leurs machines.

Sur des sujets plus complexes, il faut avoir d’un côté l’expertise métier, pour pouvoir identifier les manques et les frustrations quotidiennes, et de l’autre une certaine familiarité avec les innovations technologiques pour pouvoir poser les questions de sorte à pouvoir y apporter une réponse avec les outils dont on dispose. C’est la raison pour laquelle l’innovation d’usage prend toujours plus de temps que l’innovation technologique.

Un écosystème d'acteurs dont Dataswati fait parti

Notre IA PowerOP® par exemple a été développée suite au constat que sur des process de production continus longs et complexes, le pilotage se fait sans feedback, et l’opérateur doit gérer seul la tension entre la qualité optimale, la gestion de la cadence, la consommation énergétique et l’utilisation de matières premières. L’IA apprend donc des données historiques le comportement du système et fait remonter automatiquement les informations pertinentes, en s’adaptant en continu au contexte de production, qui est, dans les cas qui nous intéresse, dynamique et variable, et où la fixation de seuils et de valeurs cibles statiques n’a aucune pertinence.

Aujourd’hui un écosystème robuste d’acteurs innovants émerge, et les cas d’usage traités par les uns et les autres se font de plus en plus nombreux. Nous recommandons d’aller discuter avec le plus grand nombre, pour accélérer la maturation sur ses sujets et faire en sorte que l’industrie 4.0 ne soit pas uniquement l’industrie du futur, mais du présent.

Si vous pensez être prêts pour initier un sujet data innovant, nous vous encourageant également à regarder notre méthode de formalisation : le Data Use Case Canvas, disponible ici en libre accès.

La recommandation de notre expert Amine
Hier, paraissait un appel à consultation publique par Cédric Villani, sur le rôle de l'Intelligence Artificielle (IA) et la stratégie à adopter pour la France. Cette initiative louable permet de rester dans la course technologique face aux Américains ou aux Chinois. (suite…)