Home

robot (2)La question de l’apprentissage, si centrale à la compréhension du fonctionnement du cerveau, est l’objet de nombreuses recherches et découvertes de neuroscience. L’article précédent en évoquait un exemple. Mais, elle intéresse aussi beaucoup mathématiciens et informaticiens. Une machine peut elle apprendre de l’expérience? Et comment? La théorie des probabilités permettra peut-être d’y répondre.

Le volume de Nature du 28 mai 2015 consacre une série de six articles de fond à la question de l’intelligence artificielle (Deep learning, Reinforcement learning improves behaviour from evaluative feedback, Probabilistic machine learning and artificial intelligence, Science, technology and the future of small autonomous drones, Design, fabrication and control of soft robots, From evolutionary computation to the evolution of things). Il comprend aussi un article de recherche (Robots can adapt like animals). Je ne suis pas du tout spécialiste de ce champ de recherche. Mais, faisant ricochet de l’article précédent et du dernier numéro de TDC pour lequel j’ai travaillé (consacré aux probabilités et à la statistique), je me suis laissée tentée par la lecture de l’article  Probabilistic machine learning and artificial intelligence écrit par Zoubin Ghahramani.

L’introduction de cet article nous dit, en substance, que apprendre, cela peut être inférer des modèles possibles pour expliquer les données observées. Une machine peut utiliser ces modèles pour faire des prédictions sur les données à venir et prendre des décisions rationnelles, suivant ces prédictions. L’incertitude joue donc un rôle essentiel ici. Les données observées peuvent être en accord avec de nombreux modèles différents : lequel est le plus juste pour les expliquer est incertain. De même, les prédictions sur les données futures et les conséquences des décisions prises sont incertaines. C’est là que la théorie des probabilités entre en jeu : elle offre les bases conceptuelles pour modéliser l’incertitude.

Apprendre à partir de données observées se réalise par la transformation d’une distribution de probabilités initiales (définie avant l’observation des données) en une  nouvelle distribution de probabilités (définie après observation des données). L’application des probabilités à l’apprentissage issu de données, est dénommé l’apprentissage bayésien (du nom d’un mathématicien anglais du XVIIIe siècle, Thomas Bayes).

Ces résultats ont bien évidemment des implications pratiques en informatique et en robotique. Ils participent aussi plus généralement à la compréhension de ce qu’apprendre, y compris biologiquement, veut dire. Ainsi, tout mécanisme d’apprentissage, qu’il soit biologique ou artificiel, doit répondre à deux difficultés : il doit intégrer un dispositif de modélisation du problème et un mécanisme de traitement des incertitudes. L’intelligence, qu’elle soit artificielle ou non, repose sur la capacité à comprendre et agir dans un monde imparfaitement perçu et fondamentalement incertain.

Et pour ceux qui souhaitent aller plus loin :

https://www.coursera.org/learn/machine-learning/

2 réflexions sur “Les androïdes rêvent-ils de moutons électriques ?

  1. Pingback: Le joueur de Go…ogle | Ricochets

  2. Pingback: Le médecin imaginaire | Ricochets

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s