Glossaire IA
Retrouvez ici les notions clés et définitions essentielles pour mieux comprendre le vocabulaire de l’intelligence artificielle. Un glossaire clair et accessible pour démystifier les termes techniques et faciliter vos échanges autour de l’IA. Chaque terme est expliqué simplement pour être accessible à tous, tout en apportant un niveau de détail suffisant pour ceux qui souhaitent aller plus loin.
Agent conversationnel
Un agent conversationnel est un programme informatique conçu pour dialoguer avec les utilisateurs, soit à l’écrit soit à l’oral. On le retrouve sous la forme de chatbots sur des sites internet, d’assistants vocaux comme Alexa ou Siri, ou encore dans les applications de service client. Son but est d’apporter une aide immédiate, répondre aux questions ou guider l’utilisateur dans ses démarches. L’agent conversationnel améliore l’expérience utilisateur en offrant une assistance disponible 24h/24 et 7j/7, souvent plus rapide que les canaux traditionnels comme le téléphone ou l’email.
Un agent conversationnel s’appuie sur des techniques de traitement automatique du langage naturel (NLP) et parfois sur des modèles de langage de grande taille (LLM). Les plus simples fonctionnent avec des règles préprogrammées et suivent des scénarios fixes, tandis que les plus avancés utilisent l’IA générative pour comprendre l’intention des utilisateurs, maintenir le contexte d’une conversation et produire des réponses dynamiques. Dans un cadre professionnel, les agents conversationnels peuvent être connectés à des bases de connaissances internes ou à des systèmes métiers via API, afin de fournir des informations précises et contextualisées. Ils représentent un levier important pour l’automatisation intelligente des interactions clients et le gain de productivité des équipes support.
AGI (Artificial General Intelligence – IA générale)
L’IA générale désigne une intelligence artificielle capable d’apprendre et de réaliser n’importe quelle tâche intellectuelle humaine, au lieu d’être spécialisée dans un seul domaine. Elle représenterait une étape où les machines seraient capables de raisonner, comprendre et s’adapter comme un humain. Pour l’instant, cette forme d’IA reste théorique et n’existe pas encore.
L’AGI se distingue des IA actuelles, dites « étroites », qui sont spécialisées dans des tâches précises (traduire un texte, reconnaître une image, etc.). Une AGI serait dotée de capacités cognitives générales, lui permettant de transférer ses connaissances d’un domaine à un autre, de planifier et d’apprendre continuellement sans supervision massive. Les chercheurs débattent encore de sa faisabilité, de son horizon temporel et des implications éthiques et sociétales majeures que cela représenterait.
Algorithme
Un algorithme est une suite d’instructions que l’on donne à une machine pour résoudre un problème ou accomplir une tâche. Par exemple, une recette de cuisine est une forme d’algorithme : elle décrit pas à pas les actions à réaliser pour obtenir un plat. En informatique, les algorithmes sont à la base de tous les programmes, des plus simples aux plus complexes.
En intelligence artificielle, un algorithme est un procédé mathématique ou statistique qui permet d’apprendre à partir des données ou de résoudre une tâche donnée. Les algorithmes d’apprentissage automatique, comme les arbres de décision, les réseaux de neurones ou les machines à vecteurs de support (SVM), transforment les données brutes en modèles capables de faire des prédictions. L’efficacité d’un algorithme dépend de sa conception, mais aussi de la qualité et de la quantité des données disponibles.
Analyse de sentiment
L’analyse de sentiment est une technologie qui permet à une intelligence artificielle de comprendre l’opinion exprimée dans un texte, par exemple si celui-ci est positif, négatif ou neutre. Elle est utilisée dans de nombreux domaines, notamment le marketing, la communication et la relation client. Une entreprise peut ainsi analyser automatiquement des milliers d’avis en ligne, de messages sur les réseaux sociaux ou de réponses à des enquêtes de satisfaction pour mieux comprendre ce que pensent ses clients. Cela permet de détecter rapidement les points forts et les points faibles perçus par les utilisateurs, et de prendre des décisions plus adaptées.
Techniquement, l’analyse de sentiment repose sur des techniques de traitement automatique du langage naturel (NLP) combinées à des modèles statistiques ou neuronaux. Les approches modernes exploitent les représentations vectorielles du langage (embeddings) produites par des modèles comme BERT ou GPT, capables de capter le contexte d’une phrase. Ces systèmes utilisent des méthodes d’apprentissage supervisé pour classer le texte selon sa polarité (positif, négatif, neutre) et, dans certains cas, pour détecter des émotions plus fines telles que la colère, la joie ou la peur. Cela en fait un outil précieux pour la veille stratégique, la gestion de l’e-réputation et l’analyse prédictive des comportements clients.
API (Interface de programmation d’applications)
Une API est un outil qui permet à deux logiciels différents de communiquer entre eux. Par exemple, lorsqu’une application météo sur votre smartphone utilise les données d’un service en ligne pour afficher la température, elle passe par une API. Cela simplifie les échanges d’informations et rend les applications plus connectées.
Une API définit un ensemble de règles et de protocoles pour interagir avec un service logiciel. Dans l’IA, les API permettent d’accéder à des modèles pré-entraînés (comme les services cloud de reconnaissance vocale ou de vision). Elles facilitent l’intégration des fonctionnalités avancées sans avoir à réentraîner ou déployer des modèles localement. Les API REST, GraphQL ou gRPC sont parmi les plus utilisées.
Apprentissage auto-supervisé
L’apprentissage auto-supervisé est une méthode d’entraînement d’IA qui permet à un modèle d’apprendre directement à partir de grandes quantités de données brutes, sans avoir besoin que chaque donnée soit annotée par un humain. Par exemple, une IA peut apprendre à prédire le mot manquant dans une phrase, ce qui lui permet de mieux comprendre le langage.
C’est la technique qui a révolutionné l’entraînement des modèles de type LLM et Transformers. Elle repose sur la création automatique de « tâches prétextes » (prédiction de tokens masqués, reconstitution de séquences, etc.) qui exploitent des données massives non labellisées. L’auto-supervision réduit considérablement les coûts d’annotation et fournit des représentations généralisables, réutilisables via fine-tuning pour des tâches spécifiques.
Apprentissage supervisé
L’apprentissage supervisé est une approche où une IA apprend à partir de données qui comportent déjà les bonnes réponses. Par exemple, on fournit à un modèle des milliers de photos de chats et de chiens, chaque photo étant étiquetée « chat » ou « chien », et il apprend à reconnaître la différence.
Cette technique repose sur des paires entrée/sortie où l’algorithme ajuste ses paramètres pour minimiser l’erreur entre prédiction et vérité terrain. Les algorithmes typiques incluent la régression, les arbres de décision, les SVM et les réseaux neuronaux. C’est la méthode la plus utilisée dans les projets industriels car elle permet d’obtenir des modèles prédictifs performants si les données sont de qualité et bien annotées.
Apprentissage non supervisé
L’apprentissage non supervisé est une approche où l’IA apprend sans avoir de bonnes réponses fournies à l’avance. Elle explore les données pour trouver des structures cachées, comme regrouper automatiquement des clients en fonction de leurs comportements d’achat.
Cette méthode vise à découvrir des motifs ou des regroupements dans des données non annotées. Les algorithmes courants incluent le clustering (k-means, DBSCAN) et la réduction de dimensionnalité (PCA, t-SNE). L’apprentissage non supervisé est très utilisé pour l’exploration de données, la segmentation de clients, la détection d’anomalies et la préparation de données pour des modèles supervisés.
ASI (Artificial Superintelligence – Superintelligence)
La superintelligence désigne une forme d’intelligence artificielle hypothétique qui dépasserait largement les capacités intellectuelles humaines dans tous les domaines. Elle est souvent évoquée dans la science-fiction comme une IA capable de résoudre des problèmes complexes au-delà de notre compréhension.
L’ASI représenterait une étape où les machines surpasseraient non seulement les compétences techniques ou calculatoires des humains, mais aussi leur créativité, leur jugement et leur capacité à prendre des décisions stratégiques. Bien qu’il s’agisse encore d’un concept théorique, il soulève de nombreuses questions éthiques et existentielles, notamment sur le contrôle, la gouvernance et la sécurité des systèmes d’IA. Des chercheurs comme Nick Bostrom ont popularisé ces débats autour des risques liés à une intelligence artificielle « superhumaine ».
Automatisation robotisée des processus (RPA)
La RPA est une technologie qui permet à des logiciels, appelés « robots », d’automatiser des tâches répétitives réalisées habituellement par des humains. Par exemple, un robot peut extraire des données d’un fichier Excel, remplir un formulaire en ligne ou traiter une facture sans intervention humaine. Cette automatisation permet de gagner du temps, de réduire les erreurs et de libérer les collaborateurs pour qu’ils se concentrent sur des tâches plus utiles et créatives. C’est une solution particulièrement appréciée dans les services administratifs, financiers ou dans les centres de relation client.
Sur le plan technique, la RPA imite les actions qu’un employé effectuerait sur une interface informatique, en reproduisant les clics, la saisie de texte ou la navigation entre différentes applications. Initialement limitée à l’automatisation de règles simples, elle a évolué vers l’« automatisation intelligente », où l’on combine RPA et intelligence artificielle. Dans ce cas, les robots logiciels sont capables de traiter des données non structurées (emails, images, documents PDF), d’interagir avec des systèmes complexes et de gérer des cas d’exception. Cette évolution rapproche la RPA des projets plus larges de transformation digitale et d’optimisation des processus métiers.
AutoML
L’AutoML est une technologie qui automatise la création de modèles d’intelligence artificielle. Cela permet à des non-experts de générer des modèles performants sans devoir coder ou maîtriser tous les détails techniques.
L’AutoML couvre tout le pipeline machine learning : nettoyage, sélection de variables, choix d’algorithmes, réglage d’hyperparamètres et validation. Les outils comme Google AutoML, H2O.ai ou Auto-sklearn démocratisent l’usage de l’IA et réduisent le temps de développement. Toutefois, ils nécessitent une gouvernance stricte pour éviter les modèles « boîtes noires » mal compris ou mal adaptés au contexte métier.
Big Data
Le Big Data fait référence à des ensembles de données si vastes et complexes qu’ils ne peuvent pas être traités avec des outils classiques. Par exemple, les milliards de recherches effectuées chaque jour sur Google ou les données générées par les réseaux sociaux. Ces données massives représentent une opportunité pour mieux comprendre les comportements et améliorer les services.
Le Big Data est souvent défini par les « 5 V » : Volume, Vélocité, Variété, Véracité et Valeur. Il nécessite des architectures distribuées (Hadoop, Spark) et des infrastructures de stockage et traitement capables de gérer des flux massifs en temps réel. L’analyse de Big Data permet de développer des modèles prédictifs et de nourrir les systèmes d’intelligence artificielle à grande échelle.
Blockchain
La blockchain est une technologie qui permet de stocker et partager des informations de façon sécurisée, transparente et sans intermédiaire. Chaque transaction est enregistrée dans un bloc relié aux précédents, ce qui rend les données infalsifiables.
C’est un registre distribué, immuable et décentralisé, fonctionnant via un consensus entre participants (proof-of-work, proof-of-stake). Dans l’IA, la blockchain peut sécuriser le partage de données, tracer l’origine des datasets et garantir l’intégrité des modèles. Elle est aussi étudiée pour monétiser l’accès aux données et favoriser une gouvernance décentralisée des ressources numériques.
Chatbot
Un chatbot est un programme informatique conçu pour discuter avec les utilisateurs, par écrit ou à l’oral. On le retrouve souvent sur les sites internet, dans les applications ou sur les messageries pour répondre aux questions fréquentes, aider à passer une commande ou fournir une assistance rapide. Les chatbots sont disponibles 24h/24 et 7j/7, ce qui permet aux entreprises d’améliorer leur service client tout en réduisant les coûts. Par exemple, une banque peut utiliser un chatbot pour répondre aux questions courantes de ses clients sur leurs comptes ou leurs cartes.
Derrière leur simplicité apparente, les chatbots s’appuient sur des techniques avancées de NLP pour analyser les intentions des utilisateurs et générer des réponses adaptées. On distingue deux grandes catégories : les chatbots « scriptés », qui suivent des scénarios préprogrammés et sont limités dans leurs réponses, et les chatbots « intelligents », capables de générer des réponses dynamiques grâce à des modèles de langage avancés comme GPT. Ces derniers peuvent gérer des conversations complexes, s’adapter au contexte et même personnaliser leurs réponses en fonction de l’historique de l’utilisateur.
Classification
La classification est une tâche d’IA qui consiste à ranger des données dans différentes catégories. Par exemple, classer des emails en « spam » ou « non-spam ».
En machine learning, la classification est une tâche supervisée où le modèle apprend à associer une entrée à une étiquette. Elle peut être binaire (deux classes) ou multi-classes. Les algorithmes incluent la régression logistique, les SVM, les forêts aléatoires et les réseaux neuronaux. Les métriques utilisées incluent la précision, le rappel et l’AUC-ROC.
Cloud computing
Le cloud computing consiste à utiliser des services informatiques (stockage, calcul, applications) accessibles via Internet plutôt que sur son propre ordinateur. Cela permet de travailler de n’importe où et d’adapter facilement la puissance de calcul selon les besoins.
Le cloud computing repose sur des infrastructures mutualisées et virtualisées, accessibles à la demande. Il existe plusieurs modèles : IaaS (Infrastructure as a Service), PaaS (Platform as a Service) et SaaS (Software as a Service). Pour l’IA, le cloud offre une scalabilité cruciale pour entraîner des modèles gourmands en calcul et gérer de vastes volumes de données. Les principaux acteurs sont AWS, Azure et Google Cloud.
Cloud hybride
Le cloud hybride est une solution informatique qui combine un cloud public (services partagés comme AWS, Azure, Google Cloud) avec un cloud privé (serveurs internes d’une entreprise). Cela permet de bénéficier de la flexibilité du public tout en gardant un contrôle sur les données sensibles.
Cette architecture permet d’optimiser coûts, sécurité et performance en fonction des besoins. Les applications critiques ou réglementées restent sur le cloud privé, tandis que les charges dynamiques et scalables utilisent le cloud public. Des technologies comme Kubernetes et les passerelles API assurent l’orchestration et l’interopérabilité entre les deux environnements.
Clustering
Le clustering est une méthode qui regroupe automatiquement des données similaires. Par exemple, un algorithme peut classer les clients d’un magasin en différents groupes selon leurs habitudes d’achat, sans qu’on lui ait indiqué les catégories à l’avance.
C’est une technique d’apprentissage non supervisé visant à partitionner un ensemble de données en clusters. Les algorithmes classiques incluent k-means, DBSCAN et les méthodes hiérarchiques. En IA, le clustering est utilisé pour la segmentation de clients, la détection d’anomalies et l’organisation de grands volumes de données non étiquetées.
Computer Vision (vision par ordinateur)
La vision par ordinateur est la capacité d’une IA à analyser et comprendre des images ou des vidéos. Elle est utilisée pour la reconnaissance faciale, la conduite autonome ou encore le contrôle qualité dans les usines.
Ce domaine combine traitement d’image et deep learning, notamment via les CNN et Transformers visuels. Les tâches incluent la classification, la détection d’objets, la segmentation et la reconnaissance d’actions. La computer vision est un pilier de l’IA appliquée, mais soulève aussi des enjeux liés à la protection de la vie privée et à la surveillance de masse.
Containerisation
La containerisation est une méthode qui permet d’emballer une application et toutes ses dépendances dans un « conteneur ». Cela garantit qu’elle fonctionnera toujours de la même manière, peu importe l’ordinateur ou le serveur utilisé. C’est très pratique pour déployer rapidement des applications d’IA dans différents environnements.
Reposant sur des outils comme Docker et Kubernetes, la containerisation permet de standardiser l’exécution des applications en isolant les processus et les bibliothèques nécessaires. En IA, elle facilite la reproductibilité des expériences, le déploiement de modèles dans des environnements hétérogènes et l’orchestration de microservices à grande échelle. Elle est devenue un pilier du MLOps.
Copilot (Assistant intelligent pour développeurs)
Un Copilot est un assistant basé sur l’IA qui accompagne les développeurs dans l’écriture de code. En observant ce que le programmeur est en train de taper, il propose automatiquement des suggestions de lignes ou de blocs de code. Cela permet de coder plus vite, d’éviter les erreurs fréquentes et de découvrir de nouvelles façons de résoudre un problème. Par exemple, un développeur peut demander à un Copilot de générer une fonction pour trier une liste, et l’outil lui fournira directement une proposition prête à l’emploi.
Ces assistants reposent sur des modèles de langage spécialisés dans le code, entraînés sur des millions de dépôts publics disponibles en open source. GitHub Copilot, par exemple, fonctionne grâce au modèle Codex d’OpenAI. Ils peuvent comprendre le contexte du projet, interpréter les commentaires en langage naturel et transformer une instruction simple (« créer une fonction qui calcule la moyenne d’une liste ») en code fonctionnel. Ces outils améliorent la productivité des équipes, mais soulèvent aussi des questions liées à la sécurité, à la fiabilité du code généré et à la propriété intellectuelle des sources utilisées pour l’entraînement.
Cybersécurité
La cybersécurité regroupe toutes les pratiques qui visent à protéger les systèmes informatiques, les réseaux et les données contre les attaques ou les accès non autorisés. Elle est essentielle pour assurer la confiance des utilisateurs et éviter les fuites d’informations sensibles.
Dans le contexte de l’IA, la cybersécurité inclut non seulement la protection des données, mais aussi celle des modèles (attaques adversariales, empoisonnement de données). Elle repose sur des mécanismes comme le chiffrement, l’authentification forte, les pare-feux intelligents et la détection d’anomalies en temps réel. La convergence IA et cybersécurité permet de créer des systèmes de défense adaptatifs et proactifs.
Data Lake
Un data lake est un grand espace de stockage où l’on conserve toutes sortes de données, qu’elles soient brutes, structurées ou non. Contrairement à une base de données classique qui organise les informations, le data lake garde les données dans leur format d’origine, prêtes à être utilisées plus tard.
Le data lake est une architecture de stockage conçue pour accueillir des volumes massifs de données hétérogènes. Il permet aux data scientists et aux ingénieurs de disposer d’une source unique pour alimenter des analyses, du machine learning ou des projets big data. Les technologies associées incluent Hadoop, Spark et les solutions cloud natives (AWS S3, Azure Data Lake). Sa gouvernance et sa qualité des métadonnées sont essentielles pour éviter qu’il ne devienne un « data swamp ».
Data Mesh
Le data mesh est une nouvelle façon d’organiser la gestion des données dans une entreprise. Plutôt que de tout centraliser dans une seule équipe, chaque département devient responsable de ses propres données, qu’il met à disposition des autres sous forme de « produit de données ».
Le data mesh repose sur une approche décentralisée où les domaines métiers deviennent responsables de la production, la qualité et la mise à disposition des données. Les principes incluent l’orientation « data as a product », la fédération de la gouvernance et une infrastructure de données en libre-service. Cette approche vise à surmonter les limites des architectures centralisées (data lakes/warehouses) et à favoriser la scalabilité organisationnelle.
Data Scientist
Un data scientist est un professionnel qui analyse les données pour en tirer des informations utiles à la prise de décision. Il mélange des compétences en statistiques, en programmation et en compréhension métier pour transformer les données en valeur.
Le rôle du data scientist inclut l’exploration des données, la conception de modèles prédictifs et la communication des résultats aux décideurs. Il utilise des langages comme Python ou R et des bibliothèques spécialisées (Scikit-learn, TensorFlow, PyTorch). Le data scientist agit souvent en collaboration avec les data engineers et les analystes métiers pour développer des solutions d’IA et d’analytique avancée.
Data Warehouse (Entrepôt de données)
Un data warehouse est une base de données conçue pour stocker et organiser de grandes quantités de données structurées afin de faciliter leur analyse. Contrairement au data lake, il ne conserve que des données organisées et nettoyées.
Le data warehouse est une architecture orientée analyse, optimisée pour les requêtes complexes et les rapports décisionnels. Il s’appuie sur des schémas en étoile ou en flocon et des outils ETL (Extract, Transform, Load) pour préparer les données. Les solutions modernes incluent Snowflake, BigQuery et Redshift, qui apportent scalabilité et performance grâce au cloud.
Data pipeline (Pipeline de données)
Un pipeline de données est un processus automatisé qui transporte les données depuis leur source jusqu’à leur lieu d’utilisation, comme un tableau de bord ou un modèle d’IA. C’est un peu comme une chaîne d’assemblage qui nettoie, transforme et prépare les données pour qu’elles soient prêtes à être utilisées.
Un pipeline de données comprend plusieurs étapes : ingestion, nettoyage, transformation, enrichissement et stockage. Ces pipelines sont souvent construits avec des outils comme Airflow, Kafka ou Spark, et déployés dans des environnements cloud. Ils sont essentiels pour alimenter en continu les modèles de machine learning et garantir la qualité des données dans des architectures modernes comme le data lake ou le data mesh.
Deep Learning (Apprentissage profond)
Le deep learning est une branche de l’intelligence artificielle qui s’inspire du fonctionnement du cerveau humain. Il utilise des réseaux de neurones artificiels composés de plusieurs couches pour apprendre à partir de grandes quantités de données. On le retrouve dans la reconnaissance d’images, la traduction automatique ou encore les assistants vocaux.
Le deep learning se caractérise par des architectures profondes (multi-couches) de réseaux neuronaux, capables d’extraire automatiquement des caractéristiques complexes des données. Les CNN (Convolutional Neural Networks) sont utilisés pour l’analyse d’images, tandis que les RNN (Recurrent Neural Networks) et les Transformers excellent dans le traitement des séquences textuelles ou audio. Le succès du deep learning repose sur trois facteurs : la disponibilité de données massives, la puissance de calcul accrue (GPU, TPU) et les avancées en algorithmes d’optimisation.
Détection de fraude
La détection de fraude consiste à utiliser l’intelligence artificielle pour repérer des comportements suspects et prévenir les fraudes, notamment dans les paiements bancaires, l’assurance ou le commerce en ligne. Par exemple, une banque peut identifier automatiquement une transaction inhabituelle réalisée à l’étranger avec une carte bancaire et bloquer l’opération. Cela permet de protéger les clients et de renforcer la confiance dans les services financiers.
D’un point de vue technique, la détection de fraude combine des algorithmes d’apprentissage supervisé (apprentissage sur des historiques de fraudes connues) et non supervisé (repérage d’anomalies ou de comportements inhabituels). Les modèles exploitent des données transactionnelles, comportementales et contextuelles, et peuvent intégrer des signaux faibles difficiles à détecter par des règles classiques. Grâce à l’apprentissage profond, ces systèmes deviennent capables d’évoluer avec le temps et de s’adapter aux nouvelles méthodes de fraude.
Donnée
Une donnée est une information brute, comme un chiffre, un mot, une image ou un enregistrement sonore. Les données sont la matière première de l’intelligence artificielle, car elles permettent aux machines d’apprendre et de reconnaître des schémas. Plus les données sont nombreuses et variées, plus l’IA peut être performante.
Dans le cadre de l’IA, les données peuvent être structurées (bases de données chiffrées), semi-structurées (fichiers XML, JSON) ou non structurées (textes, images, vidéos). Leur qualité est cruciale : données biaisées ou incomplètes conduisent à des modèles inefficaces ou injustes. C’est pourquoi la gouvernance des données (collecte, stockage, sécurité, conformité réglementaire comme le RGPD) est un enjeu stratégique majeur dans tout projet d’intelligence artificielle.
Données d’entraînement
Les données d’entraînement sont les informations utilisées pour apprendre à une IA à réaliser une tâche. Par exemple, pour entraîner une IA à reconnaître des chats, on lui montre des milliers de photos de chats. Plus les données d’entraînement sont nombreuses et variées, plus le modèle peut être performant.
Les données d’entraînement constituent l’ensemble de référence sur lequel un modèle ajuste ses paramètres. Leur qualité et leur représentativité conditionnent directement la performance et la robustesse du modèle. Des techniques comme l’augmentation de données, l’équilibrage des classes et l’échantillonnage stratifié sont utilisées pour améliorer l’efficacité de l’entraînement et limiter les biais.
Données de test
Les données de test sont utilisées pour vérifier si une IA fonctionne correctement après son apprentissage. Ce sont de nouvelles données que le modèle n’a jamais vues, afin de mesurer sa capacité à généraliser. Par exemple, après avoir appris à reconnaître des chats avec certaines photos, l’IA est testée sur d’autres photos différentes.
Les données de test sont un sous-ensemble distinct des données disponibles, réservé à l’évaluation finale du modèle. Elles permettent de mesurer la précision, le rappel, la F-mesure et d’autres métriques clés de performance. L’utilisation correcte des ensembles d’entraînement, de validation et de test est essentielle pour éviter le surapprentissage (overfitting) et garantir la robustesse du modèle en production.
Données non structurées
Les données non structurées sont des informations qui ne suivent pas un format organisé comme une base de données. Elles incluent par exemple les emails, les vidéos, les images, les messages sur les réseaux sociaux ou les fichiers audio. Ces données représentent une grande partie de ce qui est produit aujourd’hui par les individus et les entreprises, mais elles sont difficiles à exploiter directement sans outils spécialisés.
En intelligence artificielle, les données non structurées nécessitent des techniques spécifiques de traitement pour être valorisées : vision par ordinateur pour les images, NLP pour les textes, ou encore reconnaissance vocale pour l’audio. Leur hétérogénéité et leur volume imposent des infrastructures adaptées comme les data lakes et des pipelines robustes. Elles sont une ressource stratégique car elles contiennent une richesse d’informations souvent inexploitées dans les projets d’IA.
Données structurées
Les données structurées sont organisées dans un format clair et facile à lire par les ordinateurs, comme des tableaux Excel ou des bases de données. Elles sont constituées de lignes et de colonnes, ce qui permet de les traiter rapidement pour des analyses ou des statistiques.
Elles constituent le type de données le plus simple à exploiter dans les projets d’IA et de machine learning. Les données structurées sont souvent utilisées pour l’apprentissage supervisé, où chaque entrée correspond à des caractéristiques bien définies et des étiquettes associées. Leur fiabilité repose sur la qualité du processus de collecte, de normalisation et de gouvernance des données.
Data Engineer
Le data engineer est un professionnel qui construit et gère les systèmes permettant de collecter, stocker et traiter de grandes quantités de données. Son rôle est de préparer des données fiables et accessibles pour que les data scientists et analystes puissent les utiliser.
Le data engineer développe et maintient des pipelines de données, en utilisant des technologies comme Spark, Kafka, Hadoop ou Airflow. Il maîtrise les architectures cloud (AWS, Azure, GCP) et les bases de données (SQL, NoSQL). Son travail est indispensable pour assurer la qualité, la scalabilité et la gouvernance des données, fondations de tout projet IA.
Data Governance (Gouvernance des données)
La gouvernance des données est l’ensemble des règles et pratiques mises en place pour bien gérer les données d’une organisation. Cela comprend la qualité, la sécurité, la confidentialité et la conformité réglementaire (comme le RGPD).
C’est un cadre stratégique et opérationnel qui définit les responsabilités, les processus et les outils liés à la gestion des données. Elle inclut la mise en place de data stewards, de catalogues de données et de politiques de conformité. Dans les projets IA, la gouvernance garantit l’intégrité, la traçabilité et l’utilisation responsable des données.
Data Mining
Le data mining est une technique qui consiste à explorer de grandes bases de données pour découvrir des tendances ou des relations cachées. Par exemple, il peut révéler que les clients qui achètent des couches pour bébé achètent aussi plus souvent des boissons énergétiques.
Le data mining combine statistiques, machine learning et bases de données pour extraire des connaissances exploitables à partir de données massives. Les méthodes incluent les arbres de décision, les réseaux de neurones, le clustering et l’analyse d’associations. C’est une discipline clé pour la veille stratégique, le marketing et la détection de fraudes.
Data Analyst
Le data analyst est un professionnel qui analyse les données d’une entreprise pour en tirer des conclusions utiles à la prise de décision. Il crée souvent des tableaux de bord et des rapports visuels pour aider les managers à comprendre les résultats.
Le data analyst manipule des outils comme SQL, Excel, Power BI ou Tableau pour explorer et visualiser les données. Il applique des méthodes statistiques pour identifier des tendances et fournir des insights opérationnels. Bien que moins orienté modélisation avancée que le data scientist, il joue un rôle clé dans la valorisation immédiate des données.
Dataset (Jeu de données)
Un dataset est un ensemble organisé de données utilisées pour entraîner ou tester un modèle d’IA. Par exemple, un dataset d’images peut contenir des milliers de photos de chats et de chiens, chacune correctement étiquetée.
Un dataset peut être structuré (tableaux) ou non structuré (images, textes, sons). Sa qualité est déterminante pour la performance des modèles. On distingue les ensembles d’entraînement, de validation et de test. La constitution d’un dataset inclut souvent des étapes de nettoyage, d’équilibrage des classes et d’augmentation des données pour améliorer la robustesse des modèles.
DataOps
Le DataOps est une méthodologie qui vise à améliorer la collaboration entre les équipes de données et à accélérer la mise en production des projets data. Il s’inspire des pratiques agiles et DevOps appliquées au monde de la donnée.
Le DataOps combine automatisation, intégration continue et gouvernance pour orchestrer les flux de données de bout en bout. Il favorise la qualité, la traçabilité et la sécurité des données tout en accélérant les cycles de développement. Les outils incluent Airflow, dbt et les plateformes cloud natives. C’est une approche essentielle pour industrialiser les projets IA.
Deepfake
Un deepfake est un contenu audio ou vidéo créé par une IA qui imite de manière très réaliste une personne, souvent pour la faire dire ou faire quelque chose qu’elle n’a jamais fait. Cela peut être amusant, mais aussi dangereux lorsqu’il est utilisé pour manipuler l’opinion publique.
Les deepfakes s’appuient sur des modèles génératifs comme les GAN et les modèles de diffusion, capables de créer des visuels et sons d’une fidélité impressionnante. Leur prolifération soulève des risques majeurs de désinformation, de fraude et d’atteinte à la vie privée. Les recherches actuelles portent sur des techniques de détection et sur des cadres réglementaires pour limiter leur usage malveillant.
Edge Computing
L’edge computing est une méthode qui consiste à traiter les données au plus près de leur source, par exemple directement dans une caméra de surveillance ou un capteur industriel, au lieu de tout envoyer dans le cloud. Cela rend les systèmes plus rapides et parfois plus sûrs.
Le edge computing décentralise le traitement des données afin de réduire la latence, la consommation de bande passante et les risques liés à la transmission de données sensibles. Couplé à l’IA (edge AI), il permet de déployer des modèles optimisés directement sur des dispositifs embarqués. C’est une approche clé pour l’IoT, les véhicules autonomes et les applications temps réel.
Éthique de l’IA
L’éthique de l’IA est l’ensemble des principes qui visent à s’assurer que l’intelligence artificielle est utilisée de manière juste, transparente et respectueuse des personnes. Elle cherche à éviter des discriminations, protéger la vie privée et garantir que les décisions prises par les machines soient compréhensibles et responsables.
L’éthique de l’IA recouvre des notions comme la justice algorithmique, la transparence, la responsabilité et la protection des droits fondamentaux. Elle s’appuie sur des cadres internationaux (OCDE, UNESCO, UE) et sur des pratiques concrètes comme l’IA explicable (XAI), l’audit des modèles et la gouvernance responsable. Son intégration est essentielle pour la conformité réglementaire (RGPD, AI Act) et pour renforcer la confiance des utilisateurs.
Edge AI
L’Edge AI consiste à exécuter des modèles d’intelligence artificielle directement sur des appareils proches de la source de données, comme un smartphone, une caméra de surveillance ou une machine industrielle. Cela permet d’analyser et de prendre des décisions localement, sans toujours dépendre d’une connexion internet.
L’Edge AI réduit la latence et améliore la confidentialité en traitant les données à la périphérie du réseau plutôt que dans un cloud centralisé. Elle repose sur des optimisations matérielles et logicielles (puces spécialisées, modèles légers, quantification des réseaux neuronaux). Elle est particulièrement utilisée dans l’IoT, la robotique et les véhicules autonomes où la réactivité en temps réel est critique.
Embedding
Un embedding est une manière pour une IA de représenter des informations complexes, comme des mots ou des images, sous forme de nombres. Ces représentations permettent aux machines de comparer plus facilement les éléments entre eux, par exemple pour savoir si deux phrases parlent du même sujet.
Les embeddings transforment des objets (textes, images, sons) en vecteurs dans un espace multidimensionnel, de façon à capturer leurs relations sémantiques. Les modèles modernes comme Word2Vec, GloVe ou les Transformers produisent des embeddings contextuels qui tiennent compte de la position et du sens des mots dans une phrase. Ils sont essentiels pour le NLP, la recherche d’information et la recommandation.
Explainable AI (XAI)
L’IA explicable est une approche qui vise à rendre les décisions prises par une intelligence artificielle compréhensibles pour les humains. Par exemple, si une IA refuse un crédit bancaire, il est important de pouvoir expliquer pourquoi.
La XAI regroupe un ensemble de méthodes permettant d’interpréter les modèles d’IA, notamment les plus complexes comme les réseaux neuronaux profonds. Des techniques comme LIME, SHAP ou les cartes de chaleur (heatmaps) en vision par ordinateur aident à identifier les caractéristiques déterminantes dans une décision. La XAI est cruciale pour la confiance, l’éthique et la conformité réglementaire des systèmes d’IA.
Feature Engineering
Le feature engineering est l’art de sélectionner et de transformer les données les plus pertinentes pour améliorer les performances d’un modèle d’IA. Par exemple, transformer une date de naissance en âge ou calculer la distance entre deux adresses pour enrichir les données utilisées par un modèle.
Le feature engineering consiste à créer, transformer et sélectionner les variables (features) les plus informatives pour un algorithme de machine learning. Cette étape est cruciale pour la performance des modèles traditionnels et reste importante même à l’ère du deep learning. Elle inclut des techniques comme le codage de variables catégorielles, la normalisation et l’extraction de caractéristiques temporelles ou spatiales.
Federated Learning (Apprentissage fédéré)
L’apprentissage fédéré est une technique qui permet à plusieurs appareils (comme des smartphones) d’entraîner ensemble un modèle d’IA sans partager directement leurs données. Seuls les résultats de l’entraînement sont envoyés, ce qui protège mieux la vie privée.
Cette approche décentralisée permet de former des modèles collaboratifs sans centraliser les données sensibles. Chaque appareil entraîne localement le modèle, puis envoie uniquement les mises à jour de paramètres, qui sont agrégées sur un serveur central. Elle est utilisée notamment dans la santé, la finance et les applications mobiles, où la confidentialité et la sécurité des données sont critiques.
Fine-tuning
Le fine-tuning est une technique qui consiste à adapter un modèle d’IA déjà entraîné à un usage spécifique. Par exemple, on peut prendre un modèle généraliste qui comprend le langage et l’entraîner à répondre uniquement à des questions médicales. Cela permet de gagner du temps et d’obtenir de bons résultats sans repartir de zéro.
Techniquement, le fine-tuning consiste à réentraîner un modèle pré-entraîné sur un jeu de données spécifique, en ajustant ses paramètres pour améliorer ses performances sur une tâche ciblée. Dans le cas des grands modèles (LLM, vision), cela permet d’obtenir une spécialisation rapide et efficace. Des approches récentes comme le LoRA (Low-Rank Adaptation) permettent de réduire le coût en calcul et en mémoire de ce processus.
Framework IA
Un framework d’IA est un ensemble d’outils et de bibliothèques qui aident les développeurs à créer et entraîner plus facilement des modèles d’intelligence artificielle. Les plus connus sont TensorFlow, PyTorch et Scikit-learn. Ces outils évitent de tout programmer à la main et accélèrent le développement.
Les frameworks d’IA fournissent des abstractions haut niveau pour construire des modèles de machine learning et de deep learning, ainsi que des optimisations bas niveau pour tirer parti du matériel (GPU, TPU). PyTorch est apprécié pour sa flexibilité et son approche dynamique, tandis que TensorFlow est réputé pour ses capacités de production et de déploiement. Ces frameworks s’intègrent avec des environnements MLOps pour l’industrialisation des modèles
Génération de code (Code generation)
La génération de code est la capacité d’une intelligence artificielle à écrire automatiquement du code informatique à partir d’instructions données par un humain. Par exemple, un utilisateur peut demander « crée une page HTML avec un formulaire de contact », et l’IA génère directement le code correspondant. Cela fait gagner du temps aux développeurs et facilite l’accès au code même pour des personnes qui ne maîtrisent pas complètement la programmation.
Cette technologie repose sur des modèles de langage spécialisés, entraînés sur d’immenses ensembles de code provenant de dépôts open source et de documentation. Ces modèles comprennent les contextes des instructions données en langage naturel et les traduisent en code dans des langages variés comme Python, JavaScript ou Java. Au-delà de la simple génération, ils peuvent aussi proposer des corrections, des optimisations et même expliquer le fonctionnement d’un code existant. Cela ouvre de nouvelles perspectives pour l’assistance au développement logiciel, mais soulève aussi des enjeux liés à la qualité et à la sécurité du code produit.
Génération augmentée par récupération (RAG)
La RAG est une technique qui combine l’intelligence artificielle générative avec une base de connaissances. Cela permet à un modèle comme ChatGPT de s’appuyer sur des documents d’entreprise pour fournir des réponses précises et adaptées à un contexte donné.
Le principe de la RAG est d’utiliser un module de recherche (retriever) pour identifier des documents pertinents, puis de les injecter comme contexte dans un modèle génératif (generator). Cela améliore la précision et réduit les « hallucinations » des modèles. Les pipelines RAG reposent souvent sur des bases vectorielles (Pinecone, FAISS) et sont utilisés pour créer des chatbots spécialisés dans un domaine précis.
Génération d’images par IA
La génération d’images par IA permet de créer automatiquement des illustrations, des photos ou des œuvres d’art à partir d’une description écrite. Par exemple, on peut demander « un chat jouant du piano dans l’espace » et obtenir une image correspondante.
Les modèles de génération d’images comme DALL·E, Stable Diffusion ou MidJourney reposent sur des architectures de type diffusion ou GAN. Ils apprennent à transformer du bruit aléatoire en images cohérentes, guidées par des textes (text-to-image). Ces modèles sont puissants mais soulèvent des questions sur le droit d’auteur, la désinformation et l’utilisation éthique des contenus générés.
Génération musicale par IA
La génération musicale par IA est la capacité d’un système à composer automatiquement de la musique. Il peut s’agir de créer une mélodie, d’écrire des paroles ou de produire un accompagnement instrumental. Cela permet, par exemple, de générer une ambiance sonore pour un jeu vidéo, une publicité ou un film sans faire appel à un compositeur humain.
Techniquement, la génération musicale repose sur des modèles séquentiels (RNN, Transformers) et des techniques de deep learning entraînées sur de grandes bases de données musicales. Ces modèles apprennent les structures harmoniques, rythmiques et mélodiques pour produire des compositions cohérentes. Les modèles récents peuvent également combiner texte et musique (text-to-music) et générer des morceaux adaptés à un style ou une émotion donnée.
Génération vidéo par IA
La génération vidéo par IA permet de créer des séquences animées ou de transformer des descriptions en vidéos. Par exemple, on peut demander une courte vidéo d’un coucher de soleil sur la mer et l’IA la produit automatiquement. Cette technologie commence à être utilisée dans la publicité, le cinéma et les médias sociaux.
Les modèles de génération vidéo combinent des techniques de génération d’images (diffusion, GAN) avec des mécanismes temporels pour assurer la cohérence entre les images successives. Les architectures modernes utilisent des Transformers multimodaux capables de générer des vidéos à partir de texte ou d’images de référence. Bien que prometteuse, la génération vidéo pose des défis techniques (qualité, fluidité) et éthiques (deepfakes, désinformation).
GPU (Graphics Processing Unit)
Un GPU est une puce informatique initialement conçue pour afficher des images et des vidéos sur les écrans. Aujourd’hui, elle est devenue essentielle pour l’IA car elle peut effectuer rapidement de très nombreux calculs en parallèle. Grâce aux GPU, l’entraînement de modèles complexes d’intelligence artificielle est beaucoup plus rapide.
Les GPU possèdent une architecture massivement parallèle qui les rend particulièrement adaptés aux opérations matricielles utilisées dans le deep learning. Contrairement aux CPU, qui optimisent les calculs séquentiels, les GPU accélèrent les calculs de réseaux neuronaux en exploitant des milliers de cœurs. NVIDIA domine ce marché avec CUDA, mais d’autres acteurs comme AMD et Intel développent aussi des solutions spécialisées.
Hallucination (IA)
Une hallucination en IA se produit lorsqu’un modèle génératif invente une information fausse ou erronée, tout en la présentant comme si elle était vraie. Par exemple, un chatbot peut inventer une date ou une citation inexistante.
Les hallucinations sont un effet secondaire des modèles de langage et de génération, qui produisent du contenu en fonction des probabilités statistiques sans vérification factuelle. Elles apparaissent notamment lorsqu’un modèle extrapole au-delà de ses données d’entraînement ou lorsqu’il doit répondre à une question sans information fiable. Des approches comme la RAG ou le fine-tuning spécifique permettent de réduire ce phénomène.
Heuristique
Une heuristique est une règle ou une méthode pratique qui aide à trouver une solution rapidement, même si elle n’est pas parfaite. Par exemple, quand on cherche un mot de passe oublié en essayant ses dates de naissance ou des mots familiers, on utilise une heuristique.
En IA, les heuristiques sont utilisées pour guider les algorithmes de recherche et d’optimisation. Elles permettent de réduire l’espace de recherche en exploitant des connaissances approximatives du problème. Bien qu’elles ne garantissent pas une solution optimale, elles sont souvent nécessaires dans les environnements complexes (planification, jeux, optimisation combinatoire).
Hyperparamètres
Les hyperparamètres sont les réglages d’un modèle d’IA choisis avant son entraînement, un peu comme les boutons d’une machine. Par exemple, on peut décider de la vitesse d’apprentissage ou du nombre de couches d’un réseau de neurones. Ces choix influencent fortement la qualité des résultats.
Les hyperparamètres incluent des paramètres comme le taux d’apprentissage, la taille des batchs, la profondeur des réseaux ou les fonctions d’activation. Leur optimisation est cruciale pour obtenir de bonnes performances et éviter des problèmes comme le surapprentissage. Des techniques automatiques comme la recherche par grille, la recherche aléatoire ou l’optimisation bayésienne sont utilisées pour trouver les meilleures configurations.
IA Act
L’IA Act est une réglementation européenne qui encadre l’utilisation de l’intelligence artificielle. Son objectif est de protéger les citoyens contre les usages dangereux de l’IA tout en favorisant l’innovation en Europe.
Adopté par l’Union européenne, l’AI Act introduit une classification des systèmes d’IA selon leur niveau de risque (minimal, limité, élevé, inacceptable). Il impose des obligations strictes en matière de transparence, de documentation, de gouvernance des données et de supervision humaine pour les IA à haut risque. C’est une législation pionnière qui influence déjà les régulations internationales.
IA générative
L’IA générative est une technologie capable de créer de nouveaux contenus à partir de ce qu’elle a appris : textes, images, musiques, vidéos ou même du code. Elle peut, par exemple, rédiger un article, générer une image réaliste ou composer une mélodie. Ces outils ouvrent de nombreuses opportunités dans la création artistique, le marketing ou la productivité.
Les modèles génératifs reposent sur des architectures comme les GAN (Generative Adversarial Networks) ou les Transformers (GPT, Stable Diffusion). Ils apprennent la distribution statistique des données d’entraînement et sont capables de produire de nouveaux exemples réalistes qui n’existent pas dans les données originales. Ces systèmes posent toutefois des questions éthiques (désinformation, deepfakes, droit d’auteur) et nécessitent des cadres de gouvernance pour garantir un usage responsable.
Intelligence artificielle (IA)
L’intelligence artificielle est une technologie qui permet à des machines d’imiter certaines capacités humaines comme comprendre un texte, reconnaître une image, traduire une langue ou prendre une décision. On retrouve l’IA dans de nombreux outils du quotidien : assistants vocaux, filtres de photos, recommandations de films ou encore systèmes de navigation GPS. Elle vise à rendre les interactions avec les machines plus naturelles et efficaces.
Sur le plan technique, l’IA regroupe un ensemble de méthodes allant des systèmes experts basés sur des règles aux modèles de machine learning et de deep learning. Elle inclut le traitement du langage naturel, la vision par ordinateur, les systèmes de recommandation et bien d’autres applications. L’IA moderne repose sur des algorithmes entraînés sur de vastes ensembles de données, capables de généraliser et d’apprendre en continu. Elle est devenue un levier majeur de transformation digitale et de compétitivité pour les entreprises.
Intelligence artificielle faible (IA faible)
L’IA faible est une intelligence artificielle spécialisée dans une tâche précise. Par exemple, une application qui reconnaît les visages ou un assistant vocal qui répond à des questions simples sont des formes d’IA faible. Elle ne comprend pas réellement ce qu’elle fait, mais exécute des instructions très ciblées.
On parle d’IA faible pour désigner les systèmes conçus pour accomplir un ensemble limité de tâches, souvent avec une grande efficacité, mais sans conscience ni compréhension globale. Ces IA s’appuient sur des algorithmes spécialisés (vision par ordinateur, NLP, systèmes de règles) et ne sont pas capables de transférer leurs compétences à d’autres domaines. Aujourd’hui, toutes les applications d’IA déployées dans le monde réel appartiennent à cette catégorie.
Intelligence artificielle forte (IA forte)
L’IA forte est une idée théorique d’une intelligence artificielle qui serait capable de comprendre, raisonner et apprendre comme un être humain. Contrairement à l’IA faible, elle ne se limiterait pas à une tâche précise mais pourrait s’adapter à des contextes variés. Pour l’instant, cette forme d’IA n’existe pas encore.
L’IA forte correspond à une intelligence artificielle dotée de capacités cognitives générales, proches de la conscience humaine. Elle serait capable de résoudre des problèmes complexes sans supervision spécifique, de faire preuve de créativité et de transférer ses connaissances d’un domaine à un autre. Si elle voit le jour, cela représenterait une rupture majeure dans l’histoire technologique, avec des impacts considérables sur la société, l’économie et l’éthique.
Intelligence collective
L’intelligence collective est la capacité d’un groupe de personnes ou de systèmes à résoudre ensemble des problèmes de manière plus efficace qu’un individu seul. Avec l’IA, cela peut prendre la forme de plateformes collaboratives où humains et machines coopèrent.
Elle repose sur la mise en commun de connaissances et de compétences distribuées, amplifiées par des outils numériques et l’intelligence artificielle. Des systèmes multi-agents ou des réseaux collaboratifs exploitent ce principe pour résoudre des problèmes complexes. En entreprise, elle se traduit par l’utilisation de l’IA pour analyser, synthétiser et enrichir les contributions humaines dans des démarches d’innovation et de décision stratégique.
Intelligence émotionnelle artificielle
L’intelligence émotionnelle artificielle désigne la capacité d’une IA à reconnaître et parfois simuler des émotions humaines, par exemple en détectant le ton de la voix ou les expressions du visage.
Cette discipline combine NLP, vision par ordinateur et analyse de signaux pour identifier des états émotionnels. Elle est utilisée dans le marketing, les chatbots empathiques ou la santé mentale. Toutefois, elle soulève des débats éthiques sur la manipulation émotionnelle, la vie privée et la fiabilité des interprétations, qui restent encore imparfaites.
Inférence
L’inférence désigne le moment où un modèle d’IA, après avoir été entraîné, est utilisé pour produire une prédiction ou une réponse. Par exemple, lorsqu’une IA entraînée à reconnaître des photos de chats reçoit une nouvelle image et déclare « c’est un chat », elle effectue une inférence.
En machine learning, l’inférence correspond à l’exécution d’un modèle sur de nouvelles données pour générer une sortie (classification, prédiction, génération). Elle se distingue de l’entraînement, qui est le processus d’apprentissage. Les performances en inférence dépendent de l’optimisation du modèle (quantification, pruning) et de son déploiement (edge, cloud, GPU/TPU).
Ingénierie de prompts (Prompt engineering)
L’ingénierie de prompts consiste à formuler correctement les instructions données à une IA générative comme ChatGPT pour obtenir des réponses pertinentes. C’est un peu comme poser une bonne question pour avoir une bonne réponse.
Le prompt engineering est devenu une discipline à part entière avec l’émergence des LLM. Il s’agit de concevoir des formulations précises, structurées et contextuelles qui guident le modèle dans sa génération. Des techniques avancées incluent les prompts chaînés, les rôles assignés ou l’injection de contexte via RAG. Cette pratique optimise la performance des modèles sans nécessiter un nouvel entraînement.
Internet 3.0 (Web3)
Le Web3 est une nouvelle génération d’Internet qui mise sur la décentralisation et la blockchain. Il vise à donner plus de contrôle aux utilisateurs sur leurs données et leurs interactions en ligne.
Le Web3 repose sur des technologies comme les blockchains, les contrats intelligents et les tokens numériques. Il redéfinit les modèles économiques en introduisant la propriété numérique (NFT, DeFi). Pour l’IA, le Web3 ouvre la voie à des infrastructures décentralisées de données et de modèles, favorisant une gouvernance plus transparente et collaborative.
Internet des objets (IoT)
L’Internet des objets désigne l’ensemble des objets connectés capables de communiquer entre eux et avec des systèmes centraux. Cela inclut les montres connectées, les capteurs industriels ou les appareils électroménagers intelligents. L’IoT permet de collecter et d’échanger des données en temps réel pour améliorer les services et la vie quotidienne.
L’IoT repose sur des réseaux de capteurs et d’appareils reliés par Internet, générant d’immenses volumes de données. Ces données sont exploitées par l’IA pour réaliser des analyses prédictives, de la maintenance, ou de l’optimisation énergétique. L’Edge AI et les protocoles sécurisés deviennent indispensables pour traiter localement et protéger les informations sensibles dans les environnements IoT.
KPI (Indicateur clé de performance)
Un KPI est une mesure utilisée pour évaluer si une entreprise ou un projet atteint ses objectifs. Par exemple, le taux de satisfaction client ou le nombre de ventes sont des KPI.
Les KPI traduisent les objectifs stratégiques en mesures opérationnelles. Dans l’IA, ils servent à évaluer la performance des modèles (précision, rappel, F1-score) mais aussi l’impact business (ROI, productivité). La définition de KPI pertinents est cruciale pour aligner les projets d’IA sur les priorités organisationnelles.
Labeled data (Données annotées)
Les données annotées sont des informations auxquelles on a ajouté une « étiquette » pour indiquer ce qu’elles représentent. Par exemple, une photo de chat est étiquetée « chat ». Ces données servent à entraîner les IA pour qu’elles apprennent à reconnaître ou à classer correctement les éléments.
En apprentissage supervisé, les données annotées constituent la base de l’entraînement des modèles. Leur qualité et leur volume déterminent directement la performance du modèle. L’annotation peut être manuelle, semi-automatique ou automatisée, et inclut des techniques comme le bounding box en vision par ordinateur ou le marquage d’entités en NLP.
Langage de programmation
Un langage de programmation est un système de règles et de symboles permettant aux humains de donner des instructions aux ordinateurs. Des langages comme Python, Java ou C++ servent à créer des applications, des sites web ou des systèmes d’intelligence artificielle.
Les langages de programmation diffèrent par leur syntaxe, leur paradigme (impératif, orienté objet, fonctionnel) et leurs usages. Python est aujourd’hui le langage privilégié pour l’IA grâce à ses bibliothèques (TensorFlow, PyTorch, Scikit-learn). D’autres langages comme R, Julia ou JavaScript sont également utilisés dans des contextes spécifiques. Le choix du langage dépend des besoins en performance, en rapidité de prototypage et en écosystème.
Latence
La latence est le temps que met un système informatique à répondre à une demande. Par exemple, quand vous posez une question à un assistant vocal et qu’il faut quelques secondes avant qu’il ne réponde, ce délai correspond à la latence. Plus la latence est faible, plus l’expérience utilisateur est fluide et agréable.
Dans le cadre de l’IA, la latence est un paramètre critique, notamment pour les applications en temps réel comme la reconnaissance vocale, la vision par ordinateur ou la robotique. Elle dépend de plusieurs facteurs : la puissance de calcul, la taille du modèle, l’optimisation logicielle et l’emplacement de l’infrastructure (edge vs cloud). La réduction de la latence passe par la quantification des modèles, le déploiement distribué et l’utilisation de GPU/TPU spécialisés.
Librairie (bibliothèque logicielle)
Une librairie logicielle est un ensemble de fonctions et d’outils prêts à l’emploi qui aident les développeurs à créer plus facilement des programmes. Dans le domaine de l’IA, il existe des librairies comme TensorFlow, PyTorch ou Scikit-learn qui simplifient énormément la construction et l’entraînement de modèles.
Les librairies fournissent des modules réutilisables permettant d’implémenter rapidement des algorithmes complexes. En IA, elles offrent des briques de calcul optimisées (réseaux neuronaux, fonctions de perte, algorithmes d’optimisation) et intègrent des API haut niveau. Leur choix dépend des besoins du projet : PyTorch est apprécié pour la recherche, TensorFlow pour la production, et Scikit-learn pour le machine learning classique.
Large Language Model (LLM)
Un LLM est une intelligence artificielle entraînée sur d’immenses volumes de textes pour comprendre et produire du langage humain. C’est ce qui permet à des outils comme ChatGPT de répondre à des questions, rédiger des textes ou tenir une conversation. Ces modèles sont capables de traiter une grande variété de sujets, de la rédaction d’un email à la génération d’un résumé.
Les LLM fonctionnent en prédisant le mot suivant dans une séquence, mais leur taille colossale (des milliards de paramètres) leur donne une capacité exceptionnelle à générer des réponses fluides et contextuellement pertinentes. Entraînés sur des corpus diversifiés, ils peuvent effectuer des tâches complexes comme la traduction, le raisonnement ou la génération créative de contenus. Ils soulèvent toutefois des questions liées aux biais, à la véracité des réponses et à la consommation énergétique de leur entraînement.
LSTM (Long Short-Term Memory)
Un LSTM est un type de réseau de neurones conçu pour mieux mémoriser les informations dans des séquences longues, comme des phrases entières ou des séries temporelles. Il est utilisé dans la traduction automatique ou la prédiction de textes.
Les LSTM sont une variante des RNN introduisant des cellules mémoire avec des portes (input, output, forget) qui contrôlent le flux d’informations. Ils résolvent le problème de disparition du gradient et permettent de capturer des dépendances à long terme. Avant l’arrivée des Transformers, les LSTM étaient la référence en NLP et restent utilisés dans certaines applications de séries temporelles.
Maintenance prédictive
La maintenance prédictive permet d’anticiper les pannes d’une machine avant qu’elles ne surviennent, grâce à l’analyse des données par l’intelligence artificielle. Par exemple, un capteur placé sur une turbine peut collecter des informations sur les vibrations et prévenir l’entreprise qu’une panne risque de se produire bientôt. Cela évite des arrêts imprévus, améliore la sécurité et réduit les coûts liés aux réparations d’urgence.
Sur le plan technique, la maintenance prédictive s’appuie sur des données issues de capteurs IoT (Internet des objets), comme la température, la pression ou les vibrations des machines. Ces données sont ensuite analysées par des modèles statistiques et des algorithmes de machine learning capables de détecter des motifs annonciateurs de défaillance. L’objectif est de calculer la probabilité qu’une panne survienne et de recommander une intervention au bon moment. L’intégration avec des systèmes industriels connectés (Industrie 4.0) permet d’optimiser la disponibilité des équipements et de réduire considérablement les coûts opérationnels.
Machine Learning (Apprentissage automatique)
Le machine learning est une technique d’IA qui permet à une machine d’apprendre à partir de données sans être explicitement programmée. Par exemple, on peut lui montrer des milliers de photos de chats et de chiens pour qu’elle apprenne à les distinguer toute seule. Cela permet d’automatiser des tâches complexes qu’il serait impossible de coder manuellement.
Le machine learning regroupe des méthodes statistiques et algorithmiques (arbres de décision, SVM, réseaux de neurones) permettant de créer des modèles capables de reconnaître des motifs et de faire des prédictions. L’apprentissage peut être supervisé (avec des données annotées), non supervisé (découverte de structures cachées) ou par renforcement (apprentissage par essais et erreurs). C’est le socle de la plupart des applications modernes d’IA.
Modèle d’IA
Un modèle d’IA est le résultat de l’entraînement d’un algorithme sur des données. C’est une sorte de cerveau artificiel capable de réaliser une tâche spécifique, comme reconnaître des images, traduire des textes ou recommander des produits. Chaque modèle a ses forces et ses limites, selon la qualité des données utilisées pour l’entraîner.
En pratique, un modèle d’IA est une fonction mathématique optimisée par apprentissage automatique. Il contient des paramètres ajustés en fonction des données d’entraînement pour produire des prédictions ou des classifications. Les modèles peuvent être simples (régression linéaire) ou extrêmement complexes (réseaux neuronaux profonds avec des milliards de paramètres). Leur performance dépend de la diversité des données, de la régularisation et de l’optimisation algorithmique.
Machine à vecteurs de support (SVM)
Un SVM est un type d’algorithme d’IA utilisé pour classer des données. Par exemple, il peut apprendre à distinguer les emails « spam » des emails normaux en analysant leurs caractéristiques. Les SVM sont souvent utilisés pour des problèmes de classification simples et efficaces.
Les machines à vecteurs de support cherchent à trouver un hyperplan optimal qui sépare les classes dans un espace multidimensionnel. Elles utilisent des noyaux (kernel trick) pour projeter les données dans des espaces où la séparation devient possible. Bien que moins utilisés aujourd’hui face au deep learning, les SVM restent performants sur des jeux de données de taille moyenne et dans des applications nécessitant une forte robustesse.
Métadonnées
Les métadonnées sont des informations supplémentaires qui décrivent une donnée. Par exemple, une photo peut avoir comme métadonnées la date de prise de vue, la localisation ou l’appareil utilisé. Ces informations facilitent le classement, la recherche et l’utilisation des données.
En IA et en gestion de données, les métadonnées jouent un rôle essentiel dans la gouvernance, la traçabilité et la qualité. Elles permettent de documenter les ensembles de données (provenance, droits d’utilisation, transformations appliquées). Dans les projets big data et IA, elles sont gérées dans des catalogues de données et intégrées dans des architectures de type data mesh pour faciliter l’interopérabilité.
MLOps
Le MLOps est une méthode qui applique les bonnes pratiques du DevOps au machine learning. L’objectif est de rendre plus simple et plus fiable le passage d’un modèle d’IA du stade expérimental à une utilisation réelle en entreprise.
Le MLOps regroupe des pratiques et des outils permettant de gérer tout le cycle de vie des modèles : entraînement, validation, déploiement, surveillance et mise à jour. Il inclut des pipelines automatisés, des environnements reproductibles et des solutions de monitoring en production. Les plateformes comme MLflow, Kubeflow ou SageMaker facilitent la mise en place de MLOps pour industrialiser l’IA à grande échelle.
Modèle génératif
Un modèle génératif est une intelligence artificielle capable de créer de nouveaux contenus, comme du texte, des images ou de la musique, en s’inspirant de ce qu’elle a appris. Par exemple, un modèle génératif peut inventer une histoire ou produire une image réaliste d’un paysage imaginaire.
Les modèles génératifs apprennent à reproduire la distribution statistique des données sur lesquelles ils sont entraînés. Les GAN (Generative Adversarial Networks) utilisent un système de compétition entre deux réseaux, tandis que les modèles de diffusion et les Transformers (GPT, Stable Diffusion) produisent des contenus de haute qualité. Ils posent toutefois des enjeux d’éthique et de régulation, notamment en matière de deepfakes et de droit d’auteur.
Normalisation des données
La normalisation des données est une étape de préparation qui consiste à transformer les données pour les rendre comparables entre elles. Par exemple, on peut ramener toutes les valeurs de notes scolaires sur une échelle de 0 à 1 pour faciliter leur analyse.
En machine learning, la normalisation vise à ajuster les échelles des variables afin d’améliorer la convergence des algorithmes d’apprentissage. Des méthodes comme la mise à l’échelle min-max, la standardisation (moyenne 0, variance 1) ou le logarithme sont utilisées. Une bonne normalisation réduit les biais liés aux différences de grandeur entre variables et améliore la stabilité des modèles.
NLP (Traitement automatique du langage naturel)
Le NLP est une discipline de l’intelligence artificielle qui permet à une machine de comprendre et de produire du langage humain. On le retrouve dans de nombreuses applications du quotidien, comme les assistants vocaux, les traducteurs automatiques ou les chatbots. Grâce au NLP, une IA peut analyser un texte, répondre à une question ou même rédiger un contenu.
Le NLP englobe un ensemble de techniques allant de l’analyse syntaxique et sémantique à l’utilisation de modèles neuronaux profonds comme les Transformers. Ces modèles permettent de capturer les relations entre les mots et leur contexte, ce qui améliore considérablement la compréhension des textes. Aujourd’hui, le NLP est la base de nombreuses innovations en intelligence artificielle, notamment la génération de langage naturel (NLG), la traduction automatique neuronale et les modèles de langage de grande taille (LLM).
NIST (National Institute of Standards and Technology)
Le NIST est un organisme américain qui définit des normes et des bonnes pratiques dans différents domaines technologiques, dont l’intelligence artificielle et la cybersécurité. Ses recommandations servent de référence internationale.
Le NIST publie des cadres (frameworks) structurés pour guider les organisations dans l’adoption responsable et sécurisée des technologies. En IA, son cadre de gestion des risques (AI Risk Management Framework) aide à évaluer et à réduire les risques liés à l’IA. Ses standards influencent fortement les pratiques industrielles et les réglementations dans le monde entier.
OCR (Reconnaissance optique de caractères)
L’OCR est une technologie qui permet à une machine de lire et de convertir du texte imprimé ou manuscrit en données numériques. Par exemple, scanner une facture papier et obtenir un fichier texte modifiable.
Les systèmes modernes d’OCR utilisent des réseaux neuronaux convolutionnels et récurrents pour analyser les images de texte et les transformer en caractères numériques. Ils prennent en compte la disposition, les polices et parfois même l’écriture manuscrite. L’OCR est largement utilisé dans la dématérialisation documentaire, l’archivage numérique et l’automatisation administrative.
Ontologie
En informatique et en IA, une ontologie est un système qui organise les connaissances d’un domaine donné. Par exemple, une ontologie médicale peut décrire les relations entre maladies, symptômes et traitements.
L’ontologie structure un domaine sous forme de concepts, de relations et de règles logiques. Elle est utilisée dans le web sémantique, les systèmes de recommandation et les graphes de connaissances. En IA, elle permet d’améliorer l’interopérabilité des systèmes et de faciliter le raisonnement automatique en reliant des données hétérogènes à travers une sémantique partagée.
Open Data
L’open data désigne les données rendues accessibles librement au public, généralement par des institutions ou des administrations. Chacun peut les consulter, les utiliser et les partager. Par exemple, les données météorologiques mises à disposition gratuitement par certains pays.
L’open data favorise la transparence, l’innovation et la recherche. En IA, ces ressources servent à constituer des jeux de données d’entraînement et à stimuler l’écosystème numérique. Toutefois, leur exploitation nécessite une vigilance sur la qualité, la mise à jour et la conformité légale (licences, confidentialité).
Open Source
Un logiciel open source est un programme dont le code source est mis à disposition du public, librement consultable, modifiable et réutilisable. De nombreux outils d’IA (comme TensorFlow ou PyTorch) sont open source, ce qui accélère leur diffusion.
L’open source permet une innovation collaborative et transparente. En IA, il a favorisé la démocratisation des frameworks et des modèles pré-entraînés (Hugging Face, Stable Diffusion). Cette ouverture stimule la recherche et l’adoption industrielle, mais elle soulève des questions sur la sécurité, la gouvernance et la pérennité des projets communautaires.
Optimisation
L’optimisation est le processus qui consiste à trouver la meilleure solution possible à un problème donné. Dans l’IA, cela peut être par exemple ajuster les paramètres d’un modèle pour qu’il fasse moins d’erreurs.
En machine learning, l’optimisation est un processus mathématique qui ajuste les poids d’un modèle en minimisant une fonction de coût (loss function). Les méthodes incluent la descente de gradient (SGD, Adam, RMSProp) et d’autres algorithmes plus spécialisés. L’optimisation est également utilisée dans la recherche opérationnelle pour résoudre des problèmes complexes de planification et d’allocation de ressources.
Overfitting (Surapprentissage)
Le surapprentissage se produit lorsqu’un modèle d’IA apprend trop bien les exemples de son entraînement, au point de ne plus savoir généraliser à de nouvelles données. C’est comme un élève qui apprend une leçon par cœur mais n’arrive pas à répondre à une question un peu différente.
L’overfitting est un problème courant en machine learning, où un modèle présente une excellente performance sur les données d’entraînement mais échoue sur les données de test. Il peut être atténué par la régularisation (L1, L2, dropout), l’augmentation de données, la validation croisée et l’arrêt anticipé (early stopping). Une bonne gestion de la complexité du modèle est essentielle pour éviter ce phénomène.
Pipeline CI/CD
Un pipeline CI/CD est une méthode qui permet d’automatiser la construction, le test et le déploiement d’applications. Cela garantit que les mises à jour logicielles sont plus rapides, plus fiables et moins sujettes aux erreurs humaines.
En MLOps, le pipeline CI/CD étend ces principes au machine learning : il intègre la validation des données, les tests de modèles et leur déploiement automatisé. Les outils comme GitLab CI, Jenkins, Argo ou Kubeflow permettent de mettre en place ces pipelines. Ils assurent la reproductibilité, réduisent le temps de mise sur le marché et augmentent la fiabilité des systèmes d’IA en production.
Pipeline de Machine Learning
Un pipeline de machine learning est une suite d’étapes organisées qui permettent de préparer les données, d’entraîner un modèle et de le tester. Cela ressemble à une chaîne de montage où chaque étape transforme un peu plus les données pour obtenir un modèle prêt à être utilisé.
Un pipeline ML inclut généralement la collecte des données, leur nettoyage, la sélection de caractéristiques, l’entraînement du modèle, la validation et le déploiement. Les frameworks comme Scikit-learn, TensorFlow Extended (TFX) ou MLflow permettent d’automatiser et d’industrialiser ces processus. Les pipelines favorisent la reproductibilité, la traçabilité et la maintenance des modèles en production.
Plateforme de données (Data Platform)
Une plateforme de données est un système central qui permet de collecter, stocker et gérer les données d’une organisation. Elle facilite leur accès et leur utilisation par différents services (marketing, finance, production, etc.).
Les data platforms regroupent plusieurs briques : ingestion, stockage (data lake, data warehouse), transformation, gouvernance et mise à disposition des données. Dans les environnements modernes, elles sont cloud natives et intégrées à des architectures distribuées. Elles sont essentielles pour alimenter les projets IA et permettre une exploitation transversale et sécurisée des données.
Predictive Analytics (Analytique prédictive)
L’analytique prédictive est l’utilisation de données historiques pour anticiper ce qui pourrait se produire dans le futur. Par exemple, prévoir quels clients risquent de quitter un service d’abonnement.
Cette approche combine statistiques, machine learning et big data pour générer des prévisions. Les techniques incluent la régression, les arbres de décision, les réseaux neuronaux et les séries temporelles. L’analytique prédictive est utilisée dans de nombreux secteurs : finance, santé, marketing, industrie. Elle nécessite des données de qualité et une interprétation prudente pour éviter de fausses prédictions.
Privacy by Design
Le Privacy by Design est un principe qui consiste à intégrer la protection de la vie privée dès la conception d’un produit ou d’un service, plutôt que de l’ajouter après coup.
Ce concept, formalisé par l’UE dans le RGPD, impose que la confidentialité soit prise en compte à chaque étape d’un projet : collecte minimale des données, anonymisation, chiffrement, contrôle des accès. Dans les projets IA, cela implique des choix techniques et organisationnels qui garantissent une utilisation éthique et conforme des données personnelles.
Prompt
Un prompt est l’instruction ou la question que l’on donne à une IA générative pour qu’elle produise une réponse. Par exemple, écrire « raconte-moi une histoire drôle avec un dragon » est un prompt qui guidera l’IA dans sa génération de texte.
Dans les modèles de langage, le prompt est le point de départ de la génération. Sa formulation influence directement la pertinence et la précision de la réponse. Les prompts peuvent être simples ou structurés, et leur ingénierie est devenue une discipline visant à exploiter au mieux les capacités des LLM. Les techniques incluent les prompts chaînés, contextuels ou enrichis par récupération (RAG).
Quantum Computing (Informatique quantique)
L’informatique quantique est une nouvelle façon de concevoir les ordinateurs, basée sur les lois de la physique quantique. Contrairement aux ordinateurs classiques qui utilisent des bits (0 ou 1), les ordinateurs quantiques utilisent des qubits qui peuvent être 0 et 1 en même temps. Cela leur permettrait de résoudre certains problèmes beaucoup plus vite.
Le calcul quantique exploite des phénomènes comme la superposition et l’intrication pour effectuer des calculs massivement parallèles. En théorie, il pourrait révolutionner des domaines comme la cryptographie, l’optimisation ou la simulation de molécules. Dans l’IA, il ouvre la voie à des modèles hybrides « quantum machine learning » capables de traiter des problèmes inaccessibles aux architectures classiques. Les technologies actuelles en sont encore à un stade expérimental (NISQ – Noisy Intermediate-Scale Quantum).
Réalité augmentée (AR)
La réalité augmentée est une technologie qui ajoute des éléments virtuels (images, textes, objets 3D) dans le monde réel à travers un écran ou des lunettes spéciales. Par exemple, un jeu mobile peut afficher un personnage virtuel dans votre salon à travers la caméra de votre smartphone.
L’AR repose sur la reconnaissance visuelle et spatiale pour superposer en temps réel des objets numériques au monde physique. Elle combine vision par ordinateur, capteurs et rendu graphique. Dans l’industrie, elle est utilisée pour la formation, l’assistance à la maintenance et le design produit. L’IA joue un rôle clé dans la détection et le suivi d’objets pour améliorer la précision et l’immersion.
Réalité mixte (MR)
La réalité mixte combine la réalité virtuelle et la réalité augmentée. Elle permet d’interagir avec des objets virtuels comme s’ils faisaient partie du monde réel. Par exemple, on peut manipuler une pièce mécanique en 3D projetée dans un atelier et voir comment elle s’intègre à une machine existante.
La MR utilise des capteurs avancés, la vision par ordinateur et l’IA pour fusionner le virtuel et le réel. Contrairement à l’AR, elle ne se limite pas à superposer des objets, mais permet une interaction dynamique avec eux. Les casques comme HoloLens de Microsoft illustrent ces usages, notamment dans la formation immersive, le prototypage industriel et la médecine.
Réalité virtuelle (VR)
La réalité virtuelle est une technologie qui plonge l’utilisateur dans un environnement entièrement numérique grâce à un casque ou des lunettes spéciales. Elle est utilisée dans les jeux vidéo, la formation ou la simulation.
La VR combine des environnements 3D interactifs générés par ordinateur avec des interfaces immersives (casques, gants, capteurs). Elle permet de simuler des situations complexes, comme la formation de pilotes ou la chirurgie virtuelle. L’intégration de l’IA améliore la personnalisation, la génération d’environnements réalistes et l’adaptation en temps réel au comportement de l’utilisateur.
Reinforcement Learning (Apprentissage par renforcement)
L’apprentissage par renforcement est une technique d’IA où une machine apprend en interagissant avec un environnement et en recevant des récompenses ou des pénalités. C’est comme un jeu : l’IA teste différentes actions et garde celles qui lui rapportent le plus de points.
Le RL repose sur des agents qui optimisent une politique en maximisant une fonction de récompense. Les algorithmes incluent Q-learning, Policy Gradients et Deep Q-Networks. Il est utilisé dans des domaines comme la robotique, les jeux (AlphaGo) ou la gestion de ressources. L’intégration du deep learning a permis de résoudre des environnements complexes avec de grands espaces d’états et d’actions.
Réseau bayésien
Un réseau bayésien est un modèle probabiliste qui aide à représenter et analyser les relations entre différentes variables. Il est utilisé pour estimer les probabilités de certains événements, comme le risque de panne d’une machine en fonction de plusieurs facteurs.
Il s’agit d’un graphe orienté acyclique où les nœuds représentent des variables et les arcs les relations de dépendance conditionnelle. Les réseaux bayésiens permettent de raisonner avec des incertitudes, de faire des inférences probabilistes et d’intégrer des connaissances expertes. Ils sont utilisés en diagnostic médical, en gestion des risques et en planification stratégique.
Réseau de neurones convolutifs (CNN)
Un CNN est un type de réseau de neurones conçu pour analyser des images. Il est capable de détecter automatiquement des motifs visuels comme des formes, des textures ou des objets, ce qui le rend très efficace pour la reconnaissance d’images.
Les CNN utilisent des couches de convolution et de pooling pour extraire des caractéristiques locales des images, suivies de couches entièrement connectées pour la classification. Ils sont à la base de nombreux progrès en vision par ordinateur (classification d’images, détection d’objets, segmentation sémantique). Des architectures comme AlexNet, ResNet ou EfficientNet ont marqué des étapes clés dans leurs performances.
Réseau de neurones récurrents (RNN)
Un RNN est un type de réseau de neurones conçu pour traiter des données sous forme de séquences, comme des phrases, des signaux audio ou des séries temporelles. Sa particularité est de « se souvenir » d’informations des étapes précédentes, ce qui lui permet de comprendre le contexte. Par exemple, il peut être utilisé pour prédire le mot suivant dans une phrase.
Les RNN exploitent des connexions récurrentes qui permettent de propager l’information dans le temps. Cependant, ils souffrent de problèmes comme la disparition ou l’explosion du gradient, limitant leur efficacité sur de longues séquences. Des variantes comme les LSTM (Long Short-Term Memory) et GRU (Gated Recurrent Unit) ont été développées pour améliorer la mémoire à long terme. Bien qu’aujourd’hui largement supplantés par les Transformers, les RNN restent utilisés dans certains cas de traitement de séquences simples.
RGPD (Règlement Général sur la Protection des Données)
Le RGPD est une loi européenne qui protège les données personnelles des citoyens. Elle encadre la façon dont les entreprises collectent, utilisent et stockent ces informations. Par exemple, une entreprise doit demander ton accord avant de stocker ton adresse email à des fins marketing.
Entré en vigueur en 2018, le RGPD impose des obligations strictes : consentement explicite, droit à l’oubli, portabilité des données, notification en cas de violation. Dans le cadre de l’IA, il impose des garde-fous sur la collecte massive de données et sur l’utilisation des algorithmes automatisés, en exigeant transparence et supervision humaine. Sa non-conformité expose à des amendes pouvant atteindre 4 % du chiffre d’affaires mondial.
Robotique
La robotique est la discipline qui conçoit et construit des machines capables d’effectuer des tâches physiques de manière autonome ou semi-autonome. Les robots peuvent assembler des voitures, explorer des planètes ou encore aider les médecins dans les opérations chirurgicales.
La robotique combine mécanique, électronique, informatique et intelligence artificielle. L’intégration de l’IA permet aux robots de percevoir leur environnement (vision, capteurs), de planifier des actions et de s’adapter à des situations imprévues. La robotique collaborative (cobots) et les systèmes autonomes (robots mobiles, drones) se développent rapidement grâce aux progrès en perception et en apprentissage par renforcement.
Reconnaissance d’image
La reconnaissance d’image est la capacité d’une IA à identifier et classer ce qui se trouve sur une image ou une vidéo. Par exemple, elle peut reconnaître un visage dans une photo, lire une plaque d’immatriculation ou identifier un défaut sur une chaîne de production. Cette technologie est largement utilisée dans les smartphones, la sécurité et la médecine.
La reconnaissance d’image repose sur des réseaux de neurones convolutionnels (CNN) et d’autres architectures de deep learning capables de traiter des données visuelles complexes. Ces modèles sont entraînés sur de vastes ensembles d’images annotées et peuvent apprendre à distinguer des milliers de catégories d’objets. Les applications vont de la détection de tumeurs médicales à l’analyse vidéo en temps réel, et constituent un pilier de la vision par ordinateur.
Scalabilité
La scalabilité désigne la capacité d’un système à s’adapter à une augmentation de la charge de travail. Par exemple, une application web scalable peut gérer 100 utilisateurs comme 100 000 sans ralentir.
En IA, la scalabilité est cruciale pour traiter des volumes massifs de données et entraîner des modèles toujours plus grands. Elle dépend d’architectures distribuées (cloud, clusters GPU/TPU), de la parallélisation et de l’optimisation logicielle. Une bonne scalabilité garantit performance, fiabilité et coûts maîtrisés lors du passage du PoC à l’industrialisation.
Séries temporelles (Time Series)
Les séries temporelles sont des données enregistrées au fil du temps, comme l’évolution quotidienne de la température ou les ventes mensuelles d’un produit. L’IA peut analyser ces données pour détecter des tendances ou prévoir des valeurs futures.
L’analyse de séries temporelles inclut la détection de tendances, de saisonnalités et d’anomalies. Les approches traditionnelles utilisent ARIMA, Holt-Winters, tandis que les approches modernes exploitent les RNN, LSTM et Transformers temporels. Elles sont essentielles pour la finance, la prévision énergétique, la logistique et la maintenance prédictive.
Speech Analytics
Le speech analytics est une technologie qui analyse automatiquement les conversations téléphoniques ou vocales pour en extraire des informations utiles. Par exemple, une entreprise peut analyser les appels au service client pour repérer les problèmes les plus fréquents.
Il combine reconnaissance vocale (speech-to-text), NLP et analyse de sentiments pour transformer des interactions vocales en insights exploitables. Les usages incluent la mesure de la satisfaction client, la conformité réglementaire et la détection d’opportunités commerciales. Avec l’essor des modèles multimodaux, le speech analytics gagne en précision et en contextualisation.
Speech-to-Text (Reconnaissance vocale)
Le Speech-to-Text est une technologie qui convertit la parole en texte écrit. On l’utilise dans les applications de dictée vocale, les sous-titres automatiques ou les assistants vocaux. Cela rend les interactions homme-machine plus naturelles et permet d’écrire un texte simplement en parlant.
La reconnaissance vocale moderne s’appuie sur des réseaux de neurones profonds qui analysent le signal audio, identifient les phonèmes et reconstruisent le texte correspondant. Les modèles multimodaux récents combinent des données audio et textuelles pour améliorer la précision, même dans des environnements bruyants ou avec différents accents. Ces technologies sont intégrées dans les systèmes d’accessibilité, les centres de contact et les interfaces vocales intelligentes.
Systèmes de recommandation
Les systèmes de recommandation sont des outils utilisés par de nombreuses plateformes pour suggérer des contenus personnalisés aux utilisateurs. Par exemple, Netflix propose des films adaptés à vos goûts, Amazon recommande des produits en fonction de vos achats précédents et Spotify vous suggère des playlists selon vos habitudes d’écoute. Ces systèmes facilitent la découverte de contenus pertinents et améliorent l’expérience utilisateur en réduisant le temps de recherche.
Techniquement, les systèmes de recommandation reposent sur plusieurs approches. Le filtrage collaboratif analyse les comportements de groupes d’utilisateurs pour prédire les préférences d’un individu, tandis que les systèmes basés sur le contenu utilisent les caractéristiques des produits (mots-clés, genres, thèmes). Les approches hybrides combinent ces méthodes et intègrent désormais des réseaux neuronaux profonds capables d’exploiter des signaux complexes (séquences temporelles, embeddings multimodaux). Ces systèmes jouent un rôle central dans la personnalisation des services numériques et dans la fidélisation des utilisateurs.
Sécurité des données
La sécurité des données consiste à protéger les informations contre les accès non autorisés, les vols ou les pertes. Elle inclut des mesures comme les mots de passe, le chiffrement et les sauvegardes. C’est un élément essentiel pour garantir la confiance des utilisateurs.
Dans le cadre de l’IA et du Big Data, la sécurité des données inclut la protection des bases massives, des flux en temps réel et des modèles eux-mêmes. Les techniques incluent le chiffrement homomorphe, la fédération des données et l’anonymisation. La conformité réglementaire (RGPD, HIPAA) impose également des standards stricts. La cybersécurité et la gouvernance des données deviennent indissociables dans les projets IA.
Semi-supervised learning (Apprentissage semi-supervisé)
L’apprentissage semi-supervisé est une technique d’IA qui utilise à la fois des données annotées (avec des réponses connues) et des données non annotées (sans réponses). Cela permet d’entraîner un modèle plus efficacement quand on ne dispose que d’un petit volume de données annotées.
Ce paradigme exploite la capacité des algorithmes à tirer parti de grandes quantités de données non étiquetées combinées à un petit ensemble de données annotées. Les méthodes incluent l’auto-apprentissage, la co-formation et l’utilisation de représentations latentes. Les LLM modernes bénéficient indirectement de ce principe grâce à l’apprentissage auto-supervisé sur des corpus massifs.
Singularité technologique
La singularité technologique est une idée futuriste selon laquelle l’évolution de l’intelligence artificielle pourrait atteindre un point où les machines seraient capables de s’améliorer elles-mêmes de manière exponentielle, dépassant le contrôle humain. Certains y voient une opportunité de progrès incroyable, d’autres un risque majeur.
La singularité est un concept théorisé par des chercheurs comme Ray Kurzweil. Elle désigne le moment où les capacités cognitives des machines surpasseraient celles des humains, entraînant une accélération technologique incontrôlable. Bien qu’hypothétique, ce scénario alimente les débats sur l’avenir de l’IA, la gouvernance technologique et les risques existentiels pour l’humanité.
Simulation
La simulation est une technique qui permet de reproduire virtuellement des situations réelles pour s’entraîner, tester ou analyser sans prendre de risques. Par exemple, un pilote peut s’exercer sur un simulateur de vol avant de piloter un véritable avion.
En IA, la simulation est utilisée pour entraîner des modèles dans des environnements virtuels où les interactions peuvent être contrôlées. Elle est centrale en apprentissage par renforcement, où les agents testent différentes stratégies. Les simulateurs sont également employés pour évaluer des systèmes critiques comme les véhicules autonomes ou les réseaux énergétiques, avant leur déploiement réel.
Smart City (Ville intelligente)
Une smart city est une ville qui utilise les technologies numériques et l’IA pour améliorer la qualité de vie des habitants. Cela peut inclure la gestion intelligente du trafic, l’optimisation de la consommation d’énergie ou encore des services publics plus efficaces.
Les smart cities reposent sur un réseau de capteurs IoT, des systèmes de collecte de données en temps réel et des plateformes d’analyse avancée. L’IA permet d’optimiser la mobilité, de prévoir la demande énergétique et de renforcer la sécurité. Elles soulèvent toutefois des défis liés à la protection des données personnelles, à l’interopérabilité des systèmes et à la gouvernance urbaine.
Stockage cloud
Le stockage cloud est une solution qui permet de sauvegarder des fichiers et des données sur des serveurs distants accessibles via Internet, plutôt que sur un disque dur local. Cela facilite l’accès, le partage et la sauvegarde des données depuis n’importe où.
Le stockage cloud repose sur des infrastructures distribuées et redondantes qui garantissent la disponibilité et la durabilité des données. Les grands fournisseurs comme AWS, Azure et Google Cloud offrent différents services (bloc, objet, fichiers) adaptés aux besoins. Dans les projets IA, le cloud est essentiel pour stocker et traiter des ensembles massifs de données tout en assurant la scalabilité.
Sûreté de fonctionnement (Dependability)
La sûreté de fonctionnement désigne la capacité d’un système à fonctionner correctement et de manière fiable, même en cas de problème. Dans le cadre de l’IA, cela signifie garantir que les systèmes restent sûrs et fiables lorsqu’ils sont utilisés dans des environnements critiques comme la santé ou l’automobile.
Elle inclut plusieurs dimensions : fiabilité, disponibilité, maintenabilité, sécurité et résilience. En IA, la sûreté de fonctionnement impose des mécanismes de test, de validation et de surveillance continue des modèles. Dans les systèmes critiques (véhicules autonomes, aviation, énergie), des standards comme l’ISO 26262 ou le DO-178C définissent les exigences de sûreté.
Système expert
Un système expert est un programme informatique qui imite le raisonnement d’un spécialiste humain dans un domaine particulier. Il utilise une base de connaissances et des règles logiques pour donner des recommandations ou des diagnostics.
Les systèmes experts reposent sur une base de faits et un moteur d’inférence qui applique des règles logiques. Ils ont été les précurseurs des IA modernes dans les années 1980, avec des applications en médecine, en finance ou en ingénierie. Bien que supplantés par le machine learning, ils restent utilisés dans des environnements nécessitant une traçabilité et une explicabilité fortes.
Supervised Fine-Tuning (SFT)
Le SFT est une méthode qui consiste à ajuster un grand modèle d’IA déjà entraîné en lui fournissant des exemples annotés pour une tâche spécifique. Cela le rend plus performant et spécialisé.
Le supervised fine-tuning est une étape clé dans l’adaptation des LLM. Après l’entraînement auto-supervisé massif, le modèle est affiné avec des données annotées pour améliorer sa pertinence dans des cas précis. Le SFT est souvent suivi de techniques comme le RLHF (Reinforcement Learning with Human Feedback) pour aligner le modèle avec les attentes humaines.
Swarm Intelligence (Intelligence en essaim)
L’intelligence en essaim s’inspire du comportement collectif d’animaux comme les fourmis ou les abeilles pour créer des algorithmes capables de résoudre des problèmes complexes. Chaque élément agit de manière simple, mais l’ensemble produit un comportement intelligent.
Les algorithmes d’intelligence en essaim incluent l’optimisation par colonies de fourmis (ACO) et l’optimisation par essaims particulaires (PSO). Ils sont utilisés pour résoudre des problèmes d’optimisation combinatoire et de recherche distribuée. Leur robustesse et leur capacité à s’adapter en font une approche complémentaire aux méthodes classiques en IA.
Synthetic Data (Données synthétiques)
Les données synthétiques sont des données créées artificiellement par une IA pour imiter des données réelles. Elles sont utilisées pour entraîner des modèles quand les données réelles sont rares, sensibles ou protégées.
Les données synthétiques peuvent être générées via des modèles génératifs (GAN, diffusion, simulations). Elles permettent de pallier les problèmes de confidentialité, de déséquilibre des classes et de rareté des données. Cependant, leur qualité doit être soigneusement contrôlée pour éviter d’introduire de nouveaux biais ou de dégrader la performance des modèles.
Test A/B
Un test A/B est une méthode qui consiste à comparer deux versions d’un produit ou d’un service pour voir laquelle fonctionne le mieux. Par exemple, une entreprise peut tester deux versions d’une page web pour savoir laquelle génère le plus de ventes.
En data science et en IA, les tests A/B sont des expérimentations contrôlées permettant de mesurer l’impact d’un changement par rapport à une référence. Ils reposent sur des principes statistiques, comme la significativité et la taille d’échantillon. Ces tests sont essentiels pour valider l’efficacité d’un algorithme, d’une interface ou d’une stratégie marketing.
Text-to-Speech (Synthèse vocale)
La synthèse vocale est une technologie qui transforme un texte écrit en voix parlée. On la retrouve dans les assistants vocaux, les GPS ou encore les outils d’accessibilité pour les personnes malvoyantes. Grâce à elle, une machine peut lire un texte à haute voix, rendant les interactions plus naturelles et plus inclusives.
Les modèles modernes de Text-to-Speech reposent sur des architectures neuronales avancées, comme WaveNet ou Tacotron, capables de générer une voix synthétique fluide, expressive et proche de la voix humaine. Ces systèmes permettent de varier le timbre, le rythme et même l’émotion exprimée, ouvrant la voie à des applications créatives (doublage automatisé, assistants personnalisés). Les avancées récentes en IA générative permettent même de cloner une voix spécifique à partir de quelques minutes d’enregistrement.
Temps réel (Real-time)
Un système en temps réel est capable de réagir immédiatement à une entrée. Par exemple, une voiture autonome doit détecter un piéton et freiner instantanément.
En IA, le temps réel implique une latence minimale entre la collecte des données, leur traitement et l’action. Cela nécessite des pipelines de données optimisés, des modèles allégés et des déploiements sur edge computing. Les applications incluent la robotique, la finance, la cybersécurité et les systèmes industriels critiques.
TPU (Tensor Processing Unit)
Un TPU est une puce spécialement conçue par Google pour accélérer les calculs liés à l’intelligence artificielle. Elle est particulièrement efficace pour entraîner des modèles de deep learning.
Les TPU sont des accélérateurs matériels optimisés pour les calculs tensoriels, essentiels dans les réseaux neuronaux. Ils surpassent parfois les GPU en termes d’efficacité énergétique et de vitesse pour certaines tâches. Intégrés dans Google Cloud, ils permettent d’entraîner des modèles à très grande échelle et sont un atout majeur pour la recherche et l’industrialisation de l’IA.
Token
Un token est une unité de texte utilisée par une IA pour traiter le langage. Cela peut correspondre à un mot entier, une partie de mot ou même un caractère. Par exemple, le mot « intelligence » peut être découpé en plusieurs tokens selon le modèle.
Dans les LLM, les tokens sont les éléments de base qui structurent l’entrée et la sortie du modèle. Leur découpage dépend du tokenizer, qui segmente le texte en sous-unités optimisées. La gestion des tokens est cruciale car elle détermine la longueur maximale des séquences traitées et influence directement les performances computationnelles et la qualité des réponses générées.
Tokenisation
La tokenisation est le processus qui consiste à découper un texte en plus petites unités (tokens) pour qu’une IA puisse l’analyser. Par exemple, une phrase comme « Bonjour le monde » sera séparée en trois tokens : « Bonjour », « le » et « monde ».
La tokenisation est une étape clé du NLP. Elle peut se faire au niveau des mots, des sous-mots ou des caractères, selon la granularité souhaitée. Les approches modernes comme Byte Pair Encoding (BPE) ou SentencePiece génèrent des tokens optimisés pour équilibrer vocabulaire et efficacité. La qualité de la tokenisation influence la performance et la généralisation des modèles.
Traduction automatique
La traduction automatique permet à une machine de traduire un texte d’une langue à une autre. Des outils comme Google Translate ou DeepL sont largement utilisés pour communiquer plus facilement à l’international. Cette technologie rend les échanges multilingues plus accessibles, même pour les particuliers ou les petites entreprises.
Les systèmes modernes utilisent la traduction automatique neuronale (NMT), basée sur les modèles Transformers. Ces modèles analysent le contexte global d’une phrase, plutôt que de traduire mot à mot, ce qui améliore considérablement la fluidité et la précision. Les modèles multilingues peuvent apprendre des relations entre des dizaines de langues, même avec peu de données pour certaines d’entre elles. Ces systèmes sont également utilisés dans les chatbots et les assistants virtuels pour offrir des interactions en plusieurs langues en temps réel.
Traitement automatique du langage naturel (TALN / NLP)
Le TALN est la capacité d’une machine à comprendre, analyser et générer du langage humain. C’est ce qui permet à des applications comme les traducteurs automatiques, les assistants vocaux ou les chatbots de fonctionner.
Le NLP couvre de nombreuses tâches : segmentation, analyse syntaxique, reconnaissance d’entités nommées, génération de texte. Les architectures de type Transformer ont révolutionné le domaine en permettant des représentations contextuelles riches (embeddings dynamiques). Les LLM modernes s’appuient sur ces techniques pour atteindre des performances quasi humaines dans certaines tâches.
Transfer Learning (Apprentissage par transfert)
L’apprentissage par transfert consiste à réutiliser un modèle entraîné sur une tâche pour l’adapter à une autre. Par exemple, un modèle qui a appris à reconnaître des objets dans des photos peut être réutilisé pour identifier des types de fruits spécifiques.
Le transfer learning permet de tirer parti de connaissances acquises sur de grands ensembles de données pour améliorer la performance sur des tâches spécialisées avec peu de données. En NLP, cela se traduit par l’utilisation de modèles pré-entraînés comme BERT ou GPT, adaptés ensuite à des applications spécifiques via fine-tuning. C’est une technique clé pour réduire le coût et le temps d’entraînement.
Transformation digitale
La transformation digitale désigne l’intégration des technologies numériques dans tous les aspects d’une entreprise ou d’une organisation. Cela va de la dématérialisation des documents à l’utilisation de l’IA pour optimiser les processus. Elle vise à améliorer l’efficacité, l’expérience client et la compétitivité.
Au-delà de l’adoption d’outils numériques, la transformation digitale implique une évolution culturelle et organisationnelle. Elle intègre l’automatisation, la cybersécurité, la gouvernance des données et l’agilité dans la gestion des projets. Les méthodologies comme DevOps ou SAFe, et les technologies comme le cloud computing et l’IA, sont des piliers de cette transformation.
Transformation de Fourier
La transformation de Fourier est une méthode mathématique qui permet de décomposer un signal complexe en plusieurs ondes plus simples. Par exemple, on peut analyser un son pour en distinguer les différentes fréquences (grave, aigu).
En IA, la transformation de Fourier est utilisée dans l’analyse de signaux, la reconnaissance vocale et le traitement d’images. Elle convertit un signal du domaine temporel au domaine fréquentiel, ce qui facilite la détection de motifs. Des variantes comme la FFT (Fast Fourier Transform) permettent des calculs rapides et efficaces, essentiels pour le traitement en temps réel.
Validation croisée (Cross-validation)
La validation croisée est une technique utilisée pour tester la fiabilité d’un modèle d’IA. Elle consiste à diviser les données en plusieurs parties, à entraîner le modèle sur certaines et à le tester sur les autres. Cela permet de mieux évaluer ses performances.
La cross-validation, notamment la k-fold, permet de réduire le risque de biais lié à une partition spécifique des données. Elle fournit une estimation plus robuste de la performance du modèle en moyennant les résultats obtenus sur plusieurs sous-ensembles. C’est une méthode essentielle pour comparer différents modèles et éviter le surapprentissage.
Vectorisation
La vectorisation est une méthode qui consiste à transformer des données comme des textes ou des images en nombres que les ordinateurs peuvent comprendre. Par exemple, chaque mot peut être représenté par une suite de chiffres qui capture son sens.
La vectorisation est utilisée pour convertir des données brutes en représentations numériques exploitables par les algorithmes d’IA. Dans le NLP, cela passe par des techniques comme le one-hot encoding, TF-IDF ou les embeddings contextuels. En vision par ordinateur, la vectorisation des images s’effectue par extraction de caractéristiques. C’est une étape fondamentale pour toute tâche de machine learning.
Vision par ordinateur (Computer Vision)
La vision par ordinateur est la capacité d’une IA à analyser et comprendre des images ou des vidéos. Elle permet, par exemple, de détecter des objets dans une photo, de reconnaître un visage ou d’identifier un défaut de fabrication sur une chaîne de production. On la retrouve dans de nombreux domaines, comme la santé (analyse d’imagerie médicale), la sécurité (vidéosurveillance) ou l’automobile (voitures autonomes).
La vision par ordinateur combine des algorithmes de traitement d’image et des architectures de deep learning, en particulier les réseaux de neurones convolutionnels (CNN) et les Transformers visuels (ViT). Ces modèles peuvent réaliser des tâches complexes comme la détection d’objets, la segmentation d’images ou la reconnaissance faciale. Les applications industrielles incluent la maintenance prédictive, la robotique et la réalité augmentée, où l’analyse en temps réel des flux visuels est essentielle.
Web sémantique
Le web sémantique est une évolution d’Internet où les informations ne sont pas seulement lisibles par les humains, mais aussi compréhensibles par les machines. Cela permet de relier plus intelligemment les données et de faciliter les recherches.
Le web sémantique repose sur des standards comme RDF (Resource Description Framework), OWL (Web Ontology Language) et SPARQL pour structurer et interroger les données. Il permet l’interopérabilité entre systèmes et favorise la création de graphes de connaissances. Son intégration avec l’IA ouvre la voie à des moteurs de recherche plus intelligents et à des assistants capables de raisonner sur des données complexes.
Workflow
Un workflow est une suite d’étapes ou de tâches organisées pour accomplir un processus. Par exemple, dans une entreprise, un workflow de validation de facture peut inclure la saisie, la vérification, l’approbation et le paiement.
En IA et data, un workflow définit l’enchaînement automatisé des opérations : collecte, transformation, entraînement de modèles, validation et déploiement. Les outils comme Apache Airflow, Luigi ou Prefect permettent d’orchestrer ces workflows complexes. Ils garantissent la traçabilité, la reproductibilité et la scalabilité des processus data et IA.
XGBoost
XGBoost est un algorithme d’apprentissage automatique très populaire car il est à la fois rapide et performant. Il est souvent utilisé pour des compétitions de data science et des projets industriels.
XGBoost (Extreme Gradient Boosting) est une implémentation optimisée des arbres de décision boostés par gradient. Il offre des performances élevées grâce à sa parallélisation, sa régularisation et sa gestion efficace des données manquantes. C’est un standard pour les tâches de classification et de régression tabulaires, et il reste compétitif face aux modèles de deep learning sur de nombreux problèmes structurés.
Zero-shot learning
Le zero-shot learning est une technique d’IA qui permet à un modèle de résoudre une tâche qu’il n’a jamais apprise explicitement, simplement en se basant sur ses connaissances générales. Par exemple, un modèle de langage peut traduire une langue qu’il n’a pas vue pendant son entraînement, si elle est proche d’autres langues connues.
Le zero-shot learning s’appuie sur des représentations générales apprises par les modèles de grande taille, capables de transférer leurs connaissances à de nouvelles tâches sans données annotées spécifiques. En NLP, cela repose sur des formulations de prompts qui décrivent la tâche en langage naturel. Les modèles multimodaux (comme CLIP) étendent ce principe aux images et au texte.