Un peu d’histoire (I) : les saisons de l’IA symbolique

Au risque de simplifier un peu trop les choses, l’ Intelligence Artificielle s’est développée autour de deux approches relativement indépendantes, l’approche symbolique et l’approche connectionniste. L’ approche symbolique a été dominante jusquaux années 1990 et reste active aujourd’hui. Les bases de l’approche connectionniste ont été posées en même temps que l’approche symbolique, mais si cette dernière est restée nettement plus discrète pendant longtemps, la situation s’est inversée aujourd’hui puisque l’apprentissage profond qui révolutionne l’IA depuis une dizaine d’années est de nature connectionniste. Ces deux approches furent longtemps considérées comme mutuellement exclusives et une certaine animosité existait entre les deux camps, dominés par des spécialistes de domaines différents en compétition pour les mêmes budgets de recherche. Chaque camp étant en outre convaincu qu’il était le seul engagé sur la « vraie » voie de l’intelligence artificielle…

Dans cet article, je ne parlerai que de l’approche symbolique. L’ histoire de l’approche connectionniste fera l’objet d’un texte séparé.

Les débuts

L’ histoire de l’Intelligence Artificielle débute réellement lors de la première moitié du vingtième siècle. Pendant cette période, l’idée de machines dotées d’une autonomie intellectuelle fait son chemin dans le chef des romanciers d’anticipation. Le romancier tchèque Karel Capek crée le mot « robot » dans sa pièce Rossum’s Universal Robots datant 1920. D’autres robots apparaissent à la même époque dans différentes oeuvres comme les films Metropolis de Fritz Lang (1927) ou Le Magicien d’Oz quelques années plus tard (1939).

C’est donc de manière assez naturelle que les scientifiques de l’immédiate après-guerre, nourris de ces concepts par les romans de leur jeunesse, commencent à envisager la possibilité de doter les machines d’une capacité de raisonnement propre. Ceci entre désormais dans le champ du possible, suite à l’invention des premiers calculateurs digitaux pendant la Seconde Guerre mondiale. Le brillant mathématicien Alan Turing pose les bases de l’Intelligence Artificielle au début des années 50, établissant en particulier le fameux « test de Turing » pour déterminer si un programme possède une forme d’intelligence. Cependant, les ordinateurs de l’époque ont des capacités très limitées et leur exploitation coûte extrêmement cher. Toute utilisation de ces machines doit donc être strictement encadrée et validée par les autorités.

Quelques années plus tard, en 1956, a lieu une conférence d’été historique au Dartmouth College (Etats-Unis). Pendant deux mois, les principaux chercheurs en IA de l’époque s’y retrouvent, à l’exception d’ Alan Turing, mort en 1954. Bien qu’ils ne puissent lancer la collaboration à grande échelle qui avait été envisagée initialement, les chercheurs reviennent de cette conférence enthousiasmés et convaincus que l’Intelligence Artificielle est un objectif réalisable. Cet événement, au cours duquel le terme « Intelligence Artificielle » a été prononcé pour la première fois, aura des répercussions majeures et inspirera les recherches au cours des vingt années qui suivront. Mais ce nom est égalmement de nature à enflammer les plus folles espérances et les pires craintes. Mais ces attentes démesurées ne peuvent être réalisées et l’IA traverse au fil des années plusieurs âges d’or, suivis par des « hivers » au cours desquels le sujet tombe en désintérêt .

L’ âge d’or de l’IA symbolique (1956-1974)

L’ Intelligence Artificielle décolle vraiment après la conférence au Dartmouth College; elle bénéficie des progrès fulgurants de l’informatique, qui s’envole avec la découverte des transistors puis des circuits intégrés au cours des années 1950 et 1960.

Ce premier âge d’or est celui des machines généralistes (1957-1974). Il est dominé par les approches dites symboliques. En quelques mots, ces approches se basent sur un ensemble de règles logiques déductives que l’on applique de manière répétée à des hypothèses de départ. On constitue alors progressivement un arbre dont chaque branche correspond à une combinaison paticulière de règles appliquées aux hypothèses. Et le programme continuera à « faire grandir » l’arbre tant que l’objectif recherché n’est pas atteint. Un raffinement possible est que, afin de limiter l’explosion combinatoire, des règles additionnelles, dites heuristiques, permettent de déterminer empiriquement quelles branches semblent les plus prometteuses, ce qui peut amener le programme à privilégier l’exploration de certaines branches au détriment d’autres.

Ce genre d’approche fonctionne bien dans des mondes idéalisés, soumis à des règles strictes et déterministes (pas d’incertitude). Deux bons exemples sont les théorèmes mathématiques et le jeu d’échecs. Et le succès des programmes d’IA de l’époque dans ce genre de problème considéré jusque-là comme symptomatiques de l’intelligence humaine dans ce qu’elle a de plus noble, cause un grand engouement et suscite l’optimisme des chercheurs. Mais cela les pousse à promettre l’irréalisable, comme par exemple Marvin Minsky qui n’hésite pas à déclarer en 1970 que « D’ici trois à huit ans, nous disposerons d’une machine avec l’intelligence générale d’un être humain moyen« .

Le premier hiver (1974-1980)

Cependant, ces succès se montrent limités et les algorithmes atteignent leurs limites. La puissance de calcul des machines de l’époque reste encore limitée, et le monde réel a une vilaine tendance à être tout sauf déterministe et idéalisé. Des événements imprévus surviennent, une route ou un trottoir n’est pas un échiquier et la modélisation du langage humain se montre beaucoup plus complexe et ambigue qu’imaginé initialement.

Un autre problème est que certaines applications sur lesquelles les chercheurs s’étaient engagés (comme par exemple la vision) requièrement des volumes énormes d’information au sujet du monde qui nous entoure, volumes tout à fait hors de portée des systèmes informatiques de l’époque.

En résumé, les chercheurs butent sur ce qui est appelé le paradoxe de Moravec : si certains problèmes qui sont simples pour des machines -prouver un théorème ou jouer aux échecs- se révèlent complexe pour les humains, le contraire est également vrai pour d’autres problèmes comme reconnaître un visage ou traverser une rue. Les chercheurs, fascinés par la première catégorie, ont imprudemment pris des engagements sur la seconde.

En conséquence, les principales agences gouvernementales qui allouaient les crédits pour la recherchent en IA réduisent drastiquement les budgets disponibles, et une période d’hibernation commence pour l’IA.

Le second âge d’or : les systèmes experts (1980-1990)

La situation change de nouveau au début des années 1980. Au lieu de prétendre utiliser les systèmes symboliques dans une approche généraliste, les chercheurs cherchent cette fois à encoder l’expertise humaine dans un domaine très spécifique, basé sur la formalisation de la connaissance d’experts. Cette spécialisation leur permet de contourner un certain nombre des écueils rencontrés par les systèmes généralistes, au prix d’une domaine application beaucoup plus restreint.

L’avantage principal des systèmes experts est qu’ils apportent une réelle valeur ajoutée aux entreprises et organisations, ce qui n’avait pas vraiment été le cas auparavant. Un autre avantage est que leur conception leur permet d’adapter relativement aisément la base de connaissance, par exemple si l’état de l’art progresse dans le domaine modélisé.

Le Japon lance un programme de développement des systèmes experts à grande échelle, et une génération de nouvelles entreprises apparaît, se spécialisant dans la fourniture de matériels spécifiquement développés pour faire tourner des systèmes experts.

Un second hiver (années 1990)

A la fin des années 1980, un autre développement majeur apparaît : l’apparition des premiers ordinateurs personnels de bureautique. Le décollage de la bureautique dans les entreprises offre soudain d’énormes opportunités d’amélioration des processus papier existant jusqu’alors et la grande période du réengineering des processus commence dans les entreprises (BPR).

Le problème est que la jeune industrie des systèmes experts était basée sur des ordinateurs spécialisés, chers et difficiles à maintenir à jour. Ils font pâle figure face au progrès fulgurant des PC qui deviennent rapidement aussi puissants, voire plus puissants que ces machines beaucoup plus coûteuses. Les machines spécialisées sont délaissés, le marché s’effondre et une vague de faillites s’ensuit.

En parallèle, les sytèmes experts montrent leurs limites. N’ayant pas de connaissance contextuelle, ils sont « fragiles » et susceptible de se tromper catastrophiquement dès que l’on sort du cadre des données d’entrée habituelles. Les systèmes experts sont certes utiles, mais seulement dans certains cas.

Comme une quinzaine d’années auparavant, les agences gouvernementales décident de couper les budgets au début des années 1990. Le second hiver arrive.

En guise de Conclusion

Cependant, la période des années 1990 s’avère féconde malgré l’interruption des budgets de recherche. La puissance des ordinateurs ne cesse de continuer à progresser et la capacité à enmagasiner et stocker des données fait de même. Mais la période de domination de l’IA symbolique arrive à son terme. C’est maintenant l’heure de l’approche connectionniste, qui s’est développée dans l’ombre de sa grande soeur jusqu’ici… mais ceci est une autre histoire, et un autre article.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.