Machine learning, réseaux de neurones, algorithmes, robotique… l’intelligence artificielle nous invite à découvrir de nombreux concepts
Youtube Player
Résumé
L’intelligence artificielle ou IA c’est l’ensemble des techniques de développement informatique capables de simuler certains traits de l’intelligence humaine.
Les approches, méthodes et cas d’usages
Commençons par regarder les approches. En Intelligence artificielle, il existe 2 approches :
L’intelligence artificielle ou IA c’est l’ensemble des techniques de développement informatique capable de simuler certains traits de l’intelligence humaine.
- l’approche Symbolique qui suppose que l’intelligence peut être obtenue en manipulant des symboles.
L’approche symbolique c’est l’approche historique des années années 50’s, d’où son appellation « Classic Artificial Intelligence« . Elle utilise un ensemble de règles sur des symboles d’où son nom « Rule-Based Artificial Intelligence ». Elle est toujours utilisée aujourd’hui mais est considéré quelque peu dépassée par la seconde approche, d’où son appellation « GOFA : Good Old Fashioned Artificial Intelligence. » - l’apprentissage automatique qui suppose que l’intelligence peut être obtenue en manipulant les données.
Derrière ses 2 approches se trouvent des mouvements de pensée des sciences cognitives :
- Le computationnalisme qui pense que toute intelligence peut s’expliquer par des calculs. On retrouvera ce courant plutôt derrière l’approche symbolique.
- le connexionnisme, qui pense que toute intelligence peut s’expliquer par des réseaux de neurones. On retrouvera cette approche dans le machine learning et les réseaux de neurones dans un instant.
Rentrons dans le détail de ces 2 approches.
L’approche symbolique
Commençons par l’approche symbolique, fondée principalement sur 2 piliers :
Le premier c’est ce qu’on appelle les inférences logiques, c’est à dire le fait de pouvoir générer des conclusions à partir de faits. Les inférences logiques s’appuient sur des règles mathématiques, principalement :
- l’implication : A implique B,
- la réciproque B->A,
- la contraposée (si non B alors non A)
Il y a plusieurs types de règles (on ne va pas rentrer dans le détail aujourd’hui) : vous entendez peut-être parler de modus pollens, modus tollens ou de syllogismes hypothétique ou disjonctif.
Retenons que l’approche symbolique tente d’expliquer l’intelligence à l’aide de symboles encadrés par des systèmes de règles.
Si vous avez fait un peu de programmation, vous avez peut être entendu parler d’instructions conditionnelles « SI ALORS SINON… » : cela est un bon exemple d’approche symbolique.
Donc cette intelligence artificielle est particulièrement efficace pour ressourdre des tâches qui peuvent être transformées en règles et pour automatiser des processus.
Pour terminer l’approche symbolique est particulièrement efficace pour les problèmes de satisfaction de contrainte, c’est à dire des solutions dans un contexte avec un nombre restreint de paramètres, de critères. Par exemple le jeu du Sudoku en ferai parti et cette IA serait particulièrement efficace pour résoudre des grilles de sudoku.
L’approche symbolique est en revanche plus limitée quand il s’agit de généraliser ou de sortir d’un cadre défini.
Un autre concept dont vous entendrez souvent parler est celui d’algorithme. Un algorithme est tout simplement une instruction automatisée. Il peut être une séquence, comme nous venons de voir dans l’approche symbolique avec des instructions programmatiques comme « IF THEN ELSE. » Mais les algorithmes peuvent aussi être beaucoup plus complexes.
Ils sont la base de l’intelligence artificielle et donc de l’approche symbolique et du machine learning.
Passons maintenant à la 2e approche, le machine learning que nous allons détailler maintenant.
Le machine learning
Nous avons dis que cette approche cherche à expliquer l’intelligence via les données. Ce n’est pas un hasard si le domaine de la data science est étroitement relié au monde de l’intelligence artificielle. Le data mining et le big data vont très souvent être des sources pour faire de l’intelligence artificielle, notamment du machine learning.
Pour faire simple, Le Data mining consiste à trouver des modèles de données pour expliquer des phénomènes. Il consiste à comprendre les données et leurs relations.
Le big data sont tout simplement des gros volumes de données qui peuvent etre stockées et traitées par de nouvelles technologies.
On peut distinguer deux disciplines en machine learning:
- L’apprentissage profond appelé le Deep Learning
- Et l’apprrentissage statistique, appelé Statisctical Learning
C’est ici que l’intelligence artificielle est en plein essor. Plus précisément dans l’utilisation de réseaux de neurones en deep learning.
Les réseaux de neurones
Les réseaux de neurones, appelés neural networks sont un système informatique cherchant à imiter les neurones du cerveau humain.
Pour simplifier chaque neurone est une opération mathématique qui prend son entrée, la multiplie par ses poids, puis passe la somme à travers la fonction d’activation aux autres neurones, très souvent on y retrouvera des probabilités entre 0 et 1.
Les neurones sont organisés en tiers, et connectés par des synapses.
Il existe une multitude de types de réseaux de neurones, qui sont généralement catégorisée en fonction du nombre de tiers. On peut distinguer deux grand types :
- Les réseaux de neurones récurrents, qui sont une sorte de mémoire court terme et qui sauvegardent les résultats produits par les neurones et nourrissent les autres neurones à l’aide de ce résultat. Par exemple on pourra utiliser le réseau LTSM : long short term memory pour du traitement du langage aka NLP.
- Les réseaux de neurones convolutifs utilisés pour reconnaître des objets et donc au centre de la vision par ordinateur que nous reverrons dans un instant.
Il existe plein d’autres types de réseaux de neurones : cf poster de l’asimov institute qui résume tout cela.
Les modes d’apprentissage
Grace à des algorithmes, les réseaux de neurones sont capables d’apprendre.
Il y a alors 3 types principaux d’apprentissage :
- Le supervisé : l’algorithme s’entraîne sur un ensemble de données étiquetées et se modifie jusqu’à être capable de traiter le set de données pour obtenir le résultat souhaité.
- Le non supervisé : les données ne sont pas étiquetées. Le réseau de neurones analyse l’ensemble de données, et une fonction-coût lui indique dans quelle mesure il est éloigné du résultat souhaité. Le réseau s’adapte alors pour augmenter la précision de l’algorithme.
- Enfin dans la méthode renforcée : le réseau de neurones est renforcé pour les résultats positifs et sanctionné pour les résultats négatifs. C’est ce qui lui permet d’apprendre au fil du temps, de la même manière qu’un humain apprend progressivement de ses erreurs.
Regardons un peu plus dans le détail ces méthodes.
Les 6 méthodes supervisées les plus connues sont :
- La regression logistique
- L’arbre de décisions
- La foret d’arbre décisionnels
- La méthode des k plus proches voisins
- Les réseaux de neurones
- La classification naïve bayésienne
J’ai choisi de ne pas rentrer dans les détails de ces techniques mais si cela vous intéresse on y reviendra dans un autre article
De la même manière en méthode d’apprentissage non supervisé on retrouvera un certains nombre de méthodes dont les plus connues sont :
- le facteur local barrant,
- l’isolation forest,
- les K moyennes,
- les auto encodeurs,
- le gaussian mixture model et
- le principal component analysis.
Bien reprenons de la hauteur un moment :
On a parlé des 2 approches de l’intelligence artificielle : l’approche symbolique et l’approche par apprentissage automatique, le machine learning. Nous avons vu l’importance du deep learning et des réseaux de neurones. Et nous avons vu les méthodes d’apprentissage existantes.
Les cas d’usages
On peut distinguer 4 cas d’usages génériques :
- La classification et le clustering
- La régression
- La détection d’anomalie
- Les analyses prédictives
1- La classification
Entrons dans le détail des cas d’usages de la classification.
La reconnaissance d’images
- Le premier c’est la reconnaissance d’images lié à une discipline qui a explosé ces dernières années : la vision par ordinateur.
Dans la vision par ordinateur on y retrouve 5 cas d’usages principaux :
- La reconnaissances de caractères, permettant notamment la numérisation de documents et l’extraction d’informations.
- Le 2e cas d’usage de la vision par ordinateur est la détection de visages de plus en plus utilisée pour des sujets de sécurité, on y retrouve notamment la reconnaissance faciale.
- 3e cas d’usage la détection et le suivi d’objets, on y retrouve 2 cas d’usages principaux:
- Les radars
- La conduite autonome
- 4e cas d’usage : la détection d’évènements, notamment utilisée pour les diagnostics de maladie
- Dernier cas d’usage: la navigation pour combler aux imprécisions des méthodes par GPS, on peut citer notamment le Visual Positioning System de google…
Prenez maintenant quelques secondes pour réfléchir à quelles approches et méthodes ces cas d’usage s’appliquent-ils ? Vous avez une idée ?
En vision par ordinateur se sont souvent les réseaux de neurones convolutifs qui sont utilisés. Allez bonus si on prends un exemple avec le texte manuscrit suivant : Stratycast est une chaine dédiée à la vulgarisation informatique, le consulting et la stratégie.
Chaque lettre va être reconnue via un réseau de neurones, exemple la première lettre S pourra être interprétée par ses couleurs sur une grille de pixels, la quantité de couleur générant un nombre au sein de chaque neurones. Ceci pouvant être le premier tier qui passera ensuite toutes ces informations à un autre tier pour les combiner et interpréter l’ensemble.
Le traitement du langage naturel
2e grand cas d’usage le traitement du langage naturel, appelé NLP pour natural language processing. Le NLP permet aujourd’hui d’analyser les sentiments, de faire de la reconnaissance vocale, de la classification de texte ou encore de la correction grammaticale. Le cas d’usage le plus connu est celui des chatbots qui a été en plein essor ces dernières années.
A votre avis sur quelles approches et méthodes se base le NLP ?
Historiquement l’approche symbolique couvrait ses cas d’usages, mais très rapidement c’est le machine learning qui a repris le dessus avec un mix d’apprentissages statistiques et des réseaux de neurones. Ce sont principalement les réseaux de neurones récurrents, notamment le long short term Memory qui sont utilisés pour ces cas d’usages.
La robotique
3e grand cas d’usage, la robotique. La robotique n’est pas de l’intelligence artificielle mais elle s’appuie dessus se développer, notamment pour la vision, la saisie d’objets, la gestion du mouvements et les données.
D’autres cas d’usages notables sont le filtrage des spams et la catégorisation des documents.
Voila c’est tout pour les cas d’usages de type classification.
2- Le clustering
Parlons des cas de Clustering: ces algorithmes utilisent des données et donnent des résultats sous la forme de clusters de données. Exemple: décider des prix de la maison / du terrain dans une zone particulière.
3- La régression
Ces algorithmes apprennent également à partir de données comme les algorithmes de classification, mais ils nous donnent une valeur en sortie.
Exemple: Prévisions météorologiques – combien de pluie y aura-t-il?
4- La détection d’anomalie
On y trouvera 2 grands cas d’usages :
- Le premier c’est le monitoring d’applications, Application performance monitoring APM. L’intelligence artificielle permet de s’assurer que les services sont au niveau requis et permet de détecter tout problème de performance et ce de manière préventive.
- Pour aller plus loin, on parle maintenant aussi de digital experience monitoring ou DEM pour s’assurer que tous les services sont disponibles, performant à travers tout le parcours client, sur tous les canaux et en temps réel. Ces techniques permettent d’aller aussi plus loin en combinant les données de performances avec celles des comportements utilisateurs et ainsi améliorer l’expérience client. Ces techniques sont aussi utilisées dans les domaines de l’alerting, de la supervision et de l’hypervision pour mieux identifier les problèmes et leur cause.
- Le second grand cas d’usage c’est l’AIOps c’est l’intelligence artificielle au services des opérations IT, elle permet l’automatisation des taches IT. En allant plus loin elle permet aussi d’identifier les problèmes avant qu’ils n’arrivent et de les résoudre automatiquement. Cette AI est efficace pour remonter jusqu’à l’origine des problèmes.
5- Les analyses prédictives
Nous avons parlé de cas d’usages de classification et de détection d’anomalies, passons maintenant aux analyses prédictives. Le business en raffole et ce n’est pas un hasard puisqu’on retrouvera des cas d’usages à forte valeur ajouté en vente et marketing comme les prévisions sur l’acquisition de prospects et l’amélioration de la transformation de prospect à client.
- En e-commerce, l’intelligence artificielle a permis notamment d’améliorer les recommandations produits, de personnaliser l’expérience et de mieux gérer les inventaires.
- Dans le milieu médical, l’IA a permis d’améliorer la précision des diagnostiques et de mieux prévoir la gestion du personnel et du matériel.
- Pour les services clients, ces analyses prédictives permettent de mieux segmenter les clients et de prédire les clients abandonnistes.
- En finance, ces analyses prédictives permettent notamment la prévention de fraude, la réduction des risques financiers et une meilleur projection des revenus.
- Enfin en cybersécurité, l’IA permet la prévention d’attaques.
Poster de synthèse