Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
Google+
Charivari de la société contemporaine

Les premiers jalons de l'intelligence artificielle

26 Août 2014, 03:05am

Publié par alize2769

ENIAC ,calculateur électronique en 1945

ENIAC ,calculateur électronique en 1945

Avec l'apparition des premiers calculateurs électroniques dans les années 1940 et 1950, une poignée de scientifiques d'une large gamme de domaines (mathématiques, psychologie, ingénierie, économie et science politique) ont commencé à discuter de la possibilité de créer un cerveau artificiel.

 

Cybernétique et premiers réseaux neuronaux

 

Les toutes premières recherches dans le domaine des machines pensantes ont été inspirées par une convergence d'idées qui se sont progressivement répandues de la fin des années 1930 au début des années 1950. De récentes recherches en neurologie ont montré que le cerveau était un réseau électrique de neurones qui envoyaient des impulsions de type tout-ou-rien. La cybernétique de Norbert Wiener a décrit les contrôles et la stabilité dans les réseaux électriques. La théorie de l'information de Claude Shannon détaille des signaux numériques (i.e., signaux tout-ou-rien). La théorie du calcul d'Alan Turing montre que toute forme de calcul peut être représentée numériquement. Les relations étroites entre ces idées suggèrent la possibilité de construire un cerveau artificiel.

 

On peut citer comme exemples de travaux de cette veine les robots tels que les Tortues de Bristol de William Grey Walter et la Bête de Johns Hopkins . Ces machines n'utilisent pas d'ordinateurs, d'électronique numérique ni de raisonnement symbolique ; elles étaient entièrement contrôlées par des circuits analogiques.

 

Walter Pitts et Warren McCulloch ont analysé des réseaux de neurones artificiels idéaux et ont montré comment ils pourraient effectuer de simples opérations logiques. Ils ont été les premiers à évoquer ce que des chercheurs plus tard appelleraient un réseau neuronal. Un des étudiants inspirés par Pitts et McCulloch était Marvin Minsky, à l'époque jeune étudiant de 24 ans. En 1951 (avec Dean Edmonds), il construisit la première machine à réseau neuronal, le SNARC. Minsky allait devenir l'un des plus importants leaders et innovateurs en IA des cinquante prochaines années

 

Le test de Turing

Le test de Turing

Le Test de Turing

En 1950 Alan Turing publie un article mémorable dans lequel il spécule sur la possibilité de créer des machines dotées d'une véritable intelligence. Il remarque qu'il est difficile de définir l'« intelligence » et imagine son célèbre test de Turing. Si une machine peut mener une conversation (par téléscripteur interposé) qu'on ne puisse différencier d'une conversation avec un être humain, alors la machine pouvait être qualifiée d'« intelligente ». Cette version simplifiée du problème a permis à Turing d'argumenter de manière convaincante qu'une « machine pensante » était au-moins plausible, cet article répondant à toutes les objections classiques à cette proposition

Ce test consiste à mettre en confrontation verbale un humain avec un ordinateur et un autre humain à l’aveugle. Si l’homme qui engage les conversations n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur, on peut considérer que le logiciel de l’ordinateur a passé avec succès le test. Cela sous-entend que l’ordinateur et l’homme essaieront d’avoir une apparence sémantique humaine. Pour conserver la simplicité et l’universalité du test, la conversation est limitée à des messages textuels entre les protagonistes.

 

Le test de Turing est fondé sur l’hypothèse que les êtres humains peuvent juger de l’intelligence d’une machine en comparant son comportement avec le comportement humain. Chaque élément de cette hypothèse a été remis en question : le jugement de l’humain, la valeur de la comparaison qui est de seulement comparer le comportement et la valeur de la comparaison avec un humain. Pour ces raisons et d’autres considérations, certains chercheurs en intelligence artificielle ont mis en doute l’utilité de l’essai.

Déductions logico-mathématiques

Déductions logico-mathématiques

Raisonnement symbolique et le théoricien logique

 

Quand l'accès aux ordinateurs est devenu possible au milieu des années 1950, des scientifiques, en petit nombre au début, ont compris qu'une machine qui pouvait manipuler des nombres pouvait aussi manipuler des symboles et que cette manipulation de symboles pouvait potentiellement être l'essence-même de la pensée humaine. Cela a conduit à l'élaboration des premières machines pensantes.

 

En 1955, Allen Newell et (le futur prix Nobel) Herbert Simon, avec l'aide de Cliff Shaw, ont créé le « Théoricien logique  ». Le programme finira par démontrer 38 des 52 premiers théorèmes des Principia Mathematica de Russell et Whitehead, et a même trouvé des démonstrations inédites et élégantes. Simon raconte qu'ils ont « résolu le vénérable problème corps-esprit, expliquant comment un système composé de matière peut avoir des propriétés de l'esprit ». C'est l'une des premières formulations d'un mouvement philosophique que John Searle appellera plus tard « intelligence artificielle forte » : comme les humains, les machines peuvent posséder un esprit.

Les premiers jalons de l'intelligence artificielle

Conférence de Dartmouth de 1956 : naissance de l'intelligence artificielle

 

La conférence de Dartmouth de 1956 a été organisée par Marvin Minsky, John McCarthy et deux scientifiques seniors : Claude Shannon et Nathan Rochester d'IBM. La thèse de la conférence incluait cette assertion : « chaque aspect de l'apprentissage ou toute autre caractéristique de l'intelligence peut être si précisément décrit qu'une machine peut être conçue pour le simuler ». Parmi les participants on retrouve Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell et Herbert Simon, qui vont tous créer des programmes importants durant les premières décennies de la recherche en IA. À la conférence, Newell et Simon ont débuté le « Théoricien Logique » et McCarthy a convaincu l'auditoire d'accepter l'expression « Intelligence Artificielle » comme intitulé du domaine.

 

L'optimisme exagéré des premières années de l'I.A

 

Les années qui suivent la conférence de Dartmouth sont une ère de découverte, de conquêtes effrénées de nouvelles contrées du savoir. Les programmes développés à l'époque sont considérés par la plupart des gens comme simplement « extraordinaires » : des ordinateurs résolvent des problèmes algébriques de mots, démontrent des théorèmes en géométrie et apprennent à parler anglais. À cette époque, peu croient que de tels comportements « intelligents » soient possibles pour des machines. Les chercheurs font preuve alors d'un optimisme intense dans le privé comme dans leurs articles, ils prédisent qu'une machine complètement intelligente sera construite dans les 20 ans à venir. Les agences gouvernementales comme la DARPA investissent massivement dans ce nouveau domaine.

 

La première génération de chercheurs en IA fait les prévisions suivantes à propos de leur travail :

 

En 1958, H. Simon et Allen Newell : « d'ici dix ans un ordinateur sera le champion du monde des échecs » et « d'ici dix ans, un ordinateur découvrira et résoudra un nouveau théorème mathématique majeur ».

En 1965, H. Simon : « des machines seront capables, d'ici vingt ans, de faire tout travail que l'homme peut faire ».

En 1967, Marvin Minsky : « dans une génération [...] le problème de la création d'une 'intelligence artificielle' en grande partie résolu ».

En 1970, Marvin Minsky (dans le magazine Life) : « Dans trois à huit ans nous aurons une machine avec l'intelligence générale d'un être humain ordinaire ».

 

La première hibernation de l'intelligence artificielle (1974−1980)

 

Dans les années 1970, l'intelligence subit critiques et revers budgétaires, car les chercheurs en intelligence artificielle n'appréhendent pas les difficultés des problèmes auxquels ils sont confrontés. Leur immense optimisme a engendré une attente excessive et quand les résultats promis ne se matérialisent pas, les investissements consacrés à l'intelligence artificielle s'étiolent70. Dans la même période, le connexionnisme a été presque complètement mis sous le boisseau pour 10 ans par la critique dévastatrice de Marvin Minsky sur les perceptrons.

 

La crise : le second hiver de l'IA 1987−1993

 

La fascination de la communauté économique pour l'intelligence artificielle a gonflé puis chuté dans les années 1980 en suivant le schéma classique d'une bulle économique. L'effondrement de l'IA a eu lieu au niveau de la perception que les investisseurs et les agences gouvernementales en avaient — le domaine scientifique continue ses avancées malgré les critiques.

 

L'expression « hiver de l'IA » a circulé parmi les chercheurs qui, ayant déjà vécu les coupes de budget de 1974, réalisent avec inquiétude que l'excitation autour des systèmes experts est hors de contrôle et qu'il y aurait sûrement de la déception derrière. Leurs craintes sont effectivement fondées : entre la fin des années 1980 et le début des années 1990, l'intelligence artificielle a subi une série de coupes budgétaires.

 

Les premiers indices d'une tempête à venir ont été le brusque effondrement du marché du matériel informatique spécialiste de l'intelligence artificielle en 1987. Les ordinateurs de bureau d'Apple et IBM ont progressivement amélioré leur vitesse et leur puissance et en 1987 ils deviennent plus performants que les fleurons du marché, tels que la meilleure machine Lisp de Symbolics. Il n'y a donc plus aucune raison de les acheter. Du jour au lendemain, une industrie d'un demi-milliard de dollars disparait totalement.

 

À la fin des années 1980, la Strategic Computing Initiative de la DARPA a complètement et abruptement coupé ses subsides à l'intelligence artificielle. Une nouvelle direction de la DARPA ayant conclu que l'intelligence artificielle n'est plus de « dernière mode », elle a redirigé les subventions vers des projets plus propices à des résultats rapides.

 

et pourtant... en 1982, John Joseph Hopfield, physicien reconnu, donna un nouveau souffle au neuronal en publiant un article introduisant un nouveau modèle de réseau de neurones (complètement récurrent). Cet article eut du succès pour plusieurs raisons, dont la principale était de teinter la théorie des réseaux de neurones de la rigueur propre aux physiciens.

 

Vers 1991, les objectifs impressionnants listés en 1981 par le Japon pour ses Ordinateurs de cinquième génération n'ont pas été atteints. D'ailleurs certains d'entre eux, comme le fait de « mener une conversation ordinaire » ne l'ont toujours pas été vingt ans plus tard. Comme pour d'autres projets en intelligence artificielle, la barre a été placée beaucoup trop haut.

 

(Source : Wikipedia)

Commenter cet article