L’intelligence artificielle apprend de ses erreurs

On apprend de ses erreurs, c’est bien connu. Chaque créature du règne animal répond à une règle de cause-conséquence qui l’oblige par un travail de mémoire, de raison ou d’instinct à ne pas reproduire une erreur si elle en a déjà subi une réprimande morale physique ou psychologique. Et ce type de ressentis étant spécifique aux êtres doués de sensation et de conscience, il nous paraît impossible de l’appliquer aux ordinateurs. Mais que dire de l’intelligence artificielle ?

suite

De nos jours, l’IA ne se limite pas seulement à la reconnaissance et au traitement de programmes traitant action après action pour atteindre un but fixé. Au commencement de l’IA, un étudiant de l’Université de Manchester élabora en 1951 une machine qui pouvait vous battre à plate couture aux échecs. Il s’agit là d’un exemple parmi tant d’autres d’intelligence artificielle primitive, impressionnante pour l’époque, mais qui a rapidement été dépassée par les besoins informatiques et scientifiques.

Les chercheurs ont, au fil des années, cerné le besoin de révolutionner l’IA et ont suivi l’exemple le plus logique pour orienter leurs avancées : l’humain. Cette faculté à faire des erreurs est une imperfection que nous envient donc les machines. Si bien que les systèmes d’intelligence artificielle actuels peuvent en quelque sorte reproduire des pensées, un esprit de déduction et même un raisonnement, pour ensuite stocker chaque donnée dans une mémoire propre. Un apprentissage avancé.

Autrefois, les logiciels de traduction automatique fonctionnaient à l’aide d’un algorithme découpant le texte complet en fragment, puis en recherchant dans la mémoire le sens des différents fragments. Selon la langue, le logiciel adaptait ensuite la structure des fragments à la grammaire spécifique de chaque langue. Mais la qualité n’étant pas toujours au rendez-vous, la traduction en ligne a récemment connu l’ajout d’un système d’apprentissage avancé, permettant au logiciel d’apprendre de ses erreurs.

Prenons l’exemple de deux langues intrinsèquement différentes : l’anglais et le japonais. Ayant rencontré des difficultés de performance lors d’une précédente traduction dans cette combinaison de langues, le logiciel change de tactique et choisit une langue « compromis ». Dans le cas présent, le coréen fait office de pont entre des grammaires trop différentes. Après une brève analyse, le logiciel de traduction automatique procède d’abord à une traduction du japonais vers le coréen, puis du coréen vers l’anglais, contournant la difficulté et améliorant le résultat.

En prenant l’exemple du langage, on comprend vite à quel point l’apprentissage moderne de l’IA, calquée sur la raison humaine, peut devenir performante. On pourrait donc croire que l’écart se fait moins important entre l’IA et l’homme, mais on ne peut exclure de l’équation le mécanisme non-mécanique de l’esprit humain. Les nuances, les sensations, la connaissance des cultures… Ce qui fait la beauté de l’humanité, c’est la myriade d’énigmes incalculables que même la plus puissante des calculatrices, appelons-la « ordinateur » ne saurait résoudre.

Gildas Mergny
Révisé par Camille Le Corre et Virginie Le Diagon

Laisser un commentaire