Définir l'intelligence artificielle (IA) n'est pas chose facile. Le champ est si vaste qu'il est impossible de la restreindre à un domaine de recherche spécifique; c'est plutôt un programme multidisciplinaire. Si son ambition initiale était d'imiter les processus cognitifs de l'être humain, ses objectifs actuels visent plutôt à mettre au point des automates qui résolvent certains problèmes bien mieux que les humains, par tous les moyens disponibles.

Ainsi l'IA vient au carrefour de plusieurs disciplines : informatique, mathématique (logique, optimisation, analyse, probabilités, algèbre linéaire), sciences cognitives... sans oublier les connaissances spécialisées des domaines auxquelles on souhaite l'appliquer. Et les algorithmes qui la sous-tendent reposent sur des approches tout aussi variées : analyse sémantique, représentation symbolique, apprentissage statistique ou exploratoire, réseaux de neurones, etc.

L'essor récent et foudroyant de l'intelligence artificielle s'explique par les avancées importantes en matière d'apprentissage automatique (machine learning). Les techniques d'apprentissage constituent une révolution par rapport aux approches historiques d'IA : plutôt que de programmer les règles (souvent beaucoup plus complexes qu'on ne l'aurait cru) qui président à la réalisation d'une tâche, il est désormais possible de laisser la machine les découvrir elle-même.

Le développement de l'IA se fait également dans un contexte marqué par la 'mise en données' du monde, qui touche tous les secteurs et par le décuplement des puissances de calcul et de stockage des informations. Les applications se multiplient et touchent directement notre quotidien : reconnaissance d'images, voiture autonome, détection de maladies, recommandation de contenus, sont quelques-uns des innombrables applications qui sont en cours d'exploration. L'universalité de l'IA et l'infinie variété de ses déclinaisons annoncent une révolution pleine de défis et de rebonds.