Accueil

Web

FaceBook

Telechargement

Contact

 

Ajouter aux Favoris

    Bienvenue ! 21/11/2024 @ 10:12:21 - IP : 3.149.235.66 -



L'intelligence artificielle
 




 

Microsoft

Télécharger

SQL Server 2012

Pinpoint

Visual Studio

Choisir son PC

 
 

Developpement

Visual Basic

Langage C

Java

Assembleur

Delphi

SQL

Python

WinDev

 
 

Systèmes OS

Ms Dos

Windows 9.x

Windows Nt

Windows Vista

Unix

Linux

Mac Os

 
 

Conception Web

PHP

ASP

Html

XmL

Flash Adobe

Director Adobe

WebDev

Java Script

 




Livre GRATUIT:
Livre gratuit pour maitriser Google Docs



 
 

 

Sommaire :

Introduction - Histoire - Test de Turing - Recherche Heuristique

 

L'intelligence artificielle

 

 

60's : démarrage de la discipline

 

Développer et déployer facilement vos sites web

Télécharger gratuitement Office 2013

Héberger votre site web sur des serveurs gratuits

Visual Studio 2013

Télécharger et apprenez gratuitement

Trucs et Astuces

Découvrez Windows 8.1 et télécharger le gratuitement

 

 

Au début des années 60, les chercheurs réalisent que pour faire apprendre et comprendre quelque chose à un ordinateur, il faut qu'il puisse se représenter la connaissance. Mais l'apprentissage de la connaissance par la machine est alors trop complexe, il est remis à plus tard (voir plus bas dans les 70's et 80's). Les sixties font naître les systèmes experts : types de programmes informatiques visant à simuler un expert humain dans l'analyse, le diagnostique ou la prise de décision dans un domaine bien précis. Ils sont généralement composés d'un ensemble de règles (du type "Si…, alors…"), et d'une "coquille" comprenant une base de connaissances, un mécanisme de recherche et une interface utilisateur permettant le dialogue en langage naturel. Le premier système expert s'appelle "Dendral", il permet aux chimistes d'analyser la structure globale d'une molécule. Plus tard, "MYCIN" est construit pour aider le médecin à diagnostiquer les maladies infectieuses du sang. Une des grandes avancées permises par les systèmes experts est la souplesse qu'ils offrent dans l'ajout et la modification de règles. Un des sujets qui intéressent aussi les chercheurs en IA à cette époque est la compréhension du langage par l'ordinateur rendant possible le dialogue en langage naturel. Différentes méthodes sont mises à jour : l'une d'elles consiste à faire rechercher par la machine des "patrons", sortes de mots clés contenus dans un index. Les inconvénients de cette méthode sont multiples : on doit beaucoup transformer la phrase pour que l'ordinateur la comprenne, et celui-ci ne peut pas réduire les ambiguïtés. Une autre méthode se base sur le concept de "grammaire formelle" définie par Noam Chomsky. La grammaire et la syntaxe sont formulées dans un cadre mathématique où on ne fait référence ni au sens, ni au contenu. Mais cette méthode se révèle inapplicable au langage humain : pour preuve ce fameux exemple d'un aller-retour de traduction en russe "L'esprit est fort mais la chair est faible" devient "La vodka est bonne mais la viande est pourrie". Par la suite, d'autres techniques sont développées qui se basent, elles, sur des réseaux sémantiques. Mais leur difficulté est la faiblesse de l'espace mémoire des machines. Les chercheurs s'arrêtent vers la fin de la décennie sur un échec dans leur tentative de traduction automatique

70's : maturation

Un creux de la vague se fait sentir aux Etats-Unis et en Grande-Bretagne. Les philosophes se mettent à douter de l'IA : celle-ci se base sur les présupposés d'un monde physique impliquant que nos connaissances sont acquises par nos sens et sont ensuite traduites intérieurement. Certains obstacles à l'IA sont toujours présents aujourd'hui : le besoin de spécifier au programme toutes les conséquences d'une action, toutes les exceptions à la règle "Si…, alors…", toutes les règles pour appliquer une règle. C'est pourtant pendant cette période que les systèmes experts se développent et que leur nombre croît. "MYCIN" est crée en 1974 (voir plus haut dans les 60's). On se rend compte que la représentation et le traitement des connaissances sont vitaux pour un système expert. Les chercheurs s'intéressent alors à la formalisation du  savoir, et aux systèmes d'apprentissage. Il y a les essais d'analyse du langage de Roger Schank, la théorie des "cadres" de Marvin Minsky qui aidera, plus tard, à résoudre le problème du sens commun (voir plus bas dans les 80's). Douglas Lénat étudie, lui, l'apprentissage automatique. Le domaine de la vision des ordinateurs intéresse David Marr. La discipline s'institutionnalise : après la "Joint Conference on Artificial Intelligence" à Washington en 1969, la revue "Artificial Intelligence" naît en même temps que la première association "American Association for Artificial Intelligence" (AAAI) en 1970. L'IA a mûri, elle a acquis les attributs d'une discipline scientifique.

80's : entrée dans l'industrie

La première partie des années quatre-vingt est caractérisée par le fait que l'IA entre dans l'industrie. C'est une envolée de la discipline, les chercheurs et les capitaux affluent. On se rend compte que de dupliquer et développer un programme coûte moins cher que de former de nouvelles personnes. La plupart des grandes compagnies (Campbell's, General Electric, Bell, General motors…) développent leurs propres programmes. En 1985, 150 sociétés consacrent à elles toutes un budget d'un milliard de dollars à cette activité. Le directeur de Du Pont dit faire une économie annuelle de 10 millions de dollars grâce à ses 100 systèmes experts. Un des facteurs renforçant l'engouement pour l'IA est la démystification d'une technologie qui n'est plus réservée qu'aux universités ou aux grosses entreprises. Mais cet enthousiasme est démesuré : la rapidité des machines nous fait croire qu'elles sont plus intelligentes. En fait, les techniques de programmation n'ont pas évolué depuis vingt ans. Au milieu des années quatre-vingt, l'utilisation intensive de ces nouvelles technologies fait ressortir leurs défauts. Les systèmes experts présentent un vice de forme qui est aujourd'hui une préoccupation importante pour les industriels : ils nécessitent une mise à jour perpétuelle de leurs bases de connaissances. De plus, il est difficile de prévoir les effets qu'une nouvelle règle peut produire sur les autres : "l'opacité" est une propriété reconnue des systèmes experts. On remarque aussi la faiblesse du transfert de connaissances de l'homme à la machine : cela est dû au fait que nous ne peut pas réduire nos connaissances à un ensemble de règles. Cependant, la plus grande objection que l'on puisse faire à l'encontre des systèmes experts, c'est qu'ils ne comprennent pas ce sur quoi ils raisonnent. Ils traitent des symboles vides qui ne leur permettent pas de faire de jugement moral. Finalement, ils ne connaissent pas les limites de leur savoir, ne savent pas où trouver les informations qui leur manquent. Leur limite dans l'apprentissage de la connaissance, vient de leur faiblesse à établir des correspondances entre différentes classes d'objets : si "Tous les humains ont une mère humaine" et "Jean est un humain", l'ordinateur s'enlise dans ce type de raisonnement : "Jean a une mère humaine, la mère de Jean a une mère humaine, la mère de la mère de Jean a une mère humaine…" La tendance de cette fin de décennie va vers la reprise. Les chercheurs sont  maintenant plus réalistes quant à leurs créations. Ce qui est pour beaucoup dans cette reprise est l'intégration de systèmes experts à des produits plus classiques. Dans la recherche, la priorité va au sens commun : c'est-à-dire de permettre à l'ordinateur de communiquer en langage naturel, de voir, et de pouvoir s'adapter aux circonstances en se basant sur des exemples stockés en mémoire plutôt que sur des règles. Pour résoudre la question du sens commun, plusieurs solutions sont explorées. Il y a les chercheurs qui se fondent sur la logique, en particulier sur celle des "Principia mathematica" en y ajoutant des extensions. D'autres se fondent sur l'enregistrement d'exemples pouvant être utilisés dans la comparaison avec une situation qui se présente. Une des solutions les plus spectaculaires est celle du projet "Cyc". Le but de ses chercheurs est d'encoder dix millions de faits évidents, d'assertions élémentaires qui n'apparaissentdans aucun manuel (du type "rien ne peut être en deux endroits en même temps", "les animaux n'aiment pas souffrir"). En 2050, plus aucun ordinateur personnel n'en serait dépourvu. Moins empirique, est la démarche psychologique : c'est en étudiant le processus de la pensée que nous pouvonsen reproduire des aspects. Si, jusque dans les années septante, les chercheurs étaient limités par le "hardware", en particulier par le manque de émoire, depuis les années quatre-vingt, nous sommes confrontés à la question de mieux savoir l'exploiter.

90's : diversification

Les tendances des années quatre-vingt-dix sont difficiles à décrire car l'IA comprend de plus en plus de domaines. Mais nous pouvons dégager trois grandes tendances :"l'IA théorique" s'attache à décrire par des modèles mathématiques le fonctionnement du raisonnement et l'acquisition des connaissances, "l'IA  expérimentale" teste desidées nouvelles (concernant la mémoire, l'apprentissage) au moyen de systèmes informatiques, enfin, "l'IA appliquée" crée des systèmes pour les besoins de l'industrie ou des services. Ce qui caractérise l'IA aujourd'hui est son interaction avec un grand nombre dedisciplines scientifiques qui se présentent en deux groupes : les sciences "cognitives" avec les neurosciences, la psychologie, la linguistique, la sociologie, et les sciences "formelles" avec  les mathématiques, la logique, la physique et l'informatique.

Avenir

Quels sont les scénarios possibles pour le futur ? Michel Crevier en a proposé trois. Le pire, inspiré par fait que l'armée est la source des recherches sur l'IA (en particulier aux Etats-Unis), c'est celui où les ordinateurs prennent le contrôle de l'armement, mais où nous perdons le leur. Le deuxième, représente un autre type de pouvoir pris par la machine : la surveillance électronique. Le dernier de ses scénariosest positif : l'avènement de l'IA pourrait être comparable à celui de l'écriture, pourrait apporter autant de changements dans nos modes de pensée. Nous pouvons raisonnablement penser que l'IA va s'intégrer de plus en plus dans notre vie quotidienne, à tel point que nous ne pourrons peut-être plus nous enpasser. Cela va, entre autres, nous obliger à évaluer la responsabilité de l'utilisation de machines telles que les systèmes experts. Pour Gérard Tisseau, plusieurs évolutions sont attendues. Parmi celles que nous retenons, il y a l'idée de l'intégration d'un système dans son environnement. C'est-àdire qu'un système devra pouvoir percevoir, communiquer et prendre la décision d'agir par lui-même. Il n'aura en outre pas de structure et de fonctions définitives, mais sera capable de s'adapter et d'évoluer.

Conclusion

Quelles sont les capacités de la machine comparées à celles du cerveau humain ? Les machines ont déjà surpassé les capacités physiques du cerveau humain : parleur force, leur rapidité, leur résistance et leur précision. Contrairement à la machine, le cerveau humain est lié à des contraintes biologiques (croissance, reproduction, réparation, protoplasmes comme matériaux de transmission des impulsions), il  présente une redondance dans ses circuits (qui le rendent être très volumineux). La machine bénéficie, elle, de l'expérience de l'évolution biologique. L'ordinateur est-il capable de conscience ? Cette question n'est pas simple. D'une part, car il est impossible d'évaluer objectivement les états mentaux, d'autre part car la simulation a ses limites. Finalement, la conscience est la capacité de donner du sens aux symboles ce qui est précisément une des faiblesses de la machine. L'intelligence artificielle a contribué à mieux nousconnaître, même si l'intelligence n'est pas la seule caractéristique de la nature humaine. Qui sait si elle ne nous montrera pas que notre esprit a une origine purement matérielle ?

         

Devenez membre ZNsoft : La communauté Informatique

Cours -  Etudiants -  Concours -  Congrès -  Téléchargement -  Formations


_________________________________________________________________________________________________________
Qui sommes-nous ? | Contact | | Inviter un ami | Soutenir ZNsoft | Revue de press | Références
ZNsoft Corporation, Tous Droits Réservés © 2002/ 2024 ZNsoft RSS
  Dernière mise à jour : 18/11/2024