Le blog de Nicolas Ruiz

Aller au contenu | Aller au menu | Aller à la recherche

vendredi 7 août 2009

Quand une IA joue à Super Mario.

Quel est le meilleur moyen de comparer l'efficacité de certains algorithmes d'apprentissage automatique ? Une partie de Super Mario, bien sûr.

C'est par cette introduction simple que Le Monde publie un article où une Intelligence Artificielle apprend à jouer à Super Mario Bros. Cela rentre dans le cadre d'un concours, la Mario AI Competition, mis en place par deux enseignants de Copenhague, où le but est de faire en sorte qu'un ordinateur soit capable de jouer au jeu vidéo comme un humain, de perdre, et donc d'apprendre de ses erreurs pour la fois suivante.

Comme les humains, l'ordinateur dispose des "inconvénients" du jeu à savoir l'inertie de Mario mais aussi le fait qu'il n'accède qu'aux informations visibles de l'écran, comme nous, et pas à l'ensemble de la carte, ce qui peut l'amener à des erreurs de jugement quant à un "saut" du plombier moustachu qui l'amènerai dans un trou non visible. La vidéo du gagnant se trouve ci-dessous, on y voit alors les chemins possibles que l'ordinateur calcule, et on se rend compte avec étonnement qu'un temps de réaction de 0 avantage fortement la machine par rapport à un être humain et l'aide même à se sortir des situation délicates : à 44 secondes du début de la vidéo, vous vous rendrez ainsi compte comment l'ordinateur fait d'un défaut du jeu (la possibilité de rebondir sur les murs suite à un bug de collision) une qualité énorme pour sortir d'un trou !

mercredi 27 mai 2009

Eurisko sur Amazon.com

Eurisko vient de se faire référencer sur Amazon.com. Douce ironie, il n'est même pas référencé (pour le moment ?) sur Amazon.fr. Je serais curieux de voir des américains acheter un bouquin français...

lundi 6 avril 2009

Un robot effectue une découverte scientifique.



C'est une première mondiale. Un robot vient de faire lui-même, de manière totalement indépendante, une découverte scientifique. Adam, c'est son nom, a imaginé une théorie à propos d'un génome de levure, a mis en place une procédure de test et a effectué ce dernier. Des scientifiques ont ensuite reformulé l'hypothèse, ont refait des tests et sont arrivés au même résultat. C'est donc la première fois qu'une IA fait une découverte de manière totalement indépendante. A l'approche de la singularité ?

Lire la source et l'article complet

mercredi 25 mars 2009

Eurisko.

Après L'Histoire d'Apple, j'ai le plaisir de vous offrir à la lecture un essai écrit en 2002 sur l'Intelligence Artificielle nommé Eurisko. Ce livre a déjà été édité et je pense désormais normal de faire en sorte qu'il soit accessible à tous gratuitement. La culture n'a en effet de sens que si elle est partagée.
Dans cet essai, j'essaie de définir l'IA, son but et sa place. Très didactique, j'espère qu'il vous plaira d'autant que sa lecture me semble facile. N'hésitez pas à en débattre. Et pour ceux qui veulent l'édition papier, elle est toujours disponible ici notamment. Les droits d'auteur seront désormais reversés intégralement à une association caritative (je ne sais pas vraiment encore laquelle).

Bonne lecture !

jeudi 12 juin 2008

Quand Asimo préfigure le futur.

Les personnes qui suivent l'actualité robotique ont toutes entendu parlé de Asimo. Ce robot de chez Honda fait des "progrès" foudroyants depuis l'apparition des premiers prototypes et nous étonne à tout point de vue. 20 ans de recherche pour le faire marcher correctement, quelques années de plus pour qu'il sache courir (monstrueux), il va sans dire que Asimo représente clairement le futur sur un marché qui reste encore à créer.

Lire la suite

vendredi 5 août 2005

L'ISS se dôte de "Clarissa"

Depuis maintenant presque 2 mois, la Station Spatiale Internationale s'est dôtée d'une intelligence artificielle nommée Clarissa. Alors, 2005 l'odyssée de l'espace ?

Lire la suite

mercredi 5 janvier 2005

Premières conclusions

"Nul n'est prophète dans son pays" ; ce vieil adage n'a jamais autant collé à la réalité qu'avec l'IA. La plupart des pionniers dans ce domaine, que l'on peut considérer comme des génies, avaient affiché un fort optimisme quant à l'avenir de cette technologie. Certains scientifiques comme Marvin Minsky pensaient en effet créer une Intelligence Artificielle évoluée avant la fin de notre feu 20ème siècle. Certains pensaient même que cela arriverait avant la fin des années 1970. Et même si les systèmes experts ont connu de beaux succès dans les années 1980, il reste encore de gros progrès à faire. Il est d'ailleurs intéressant de noter que nos pionniers travaillaient sur des machines très lentes en comparaison de nos systèmes actuels : les grosses bases de données et les parcours de chaînes incessants n'étaient pas véritablement à l'ordre du jour: avant d'entreprendre le codage d'un système, les informaticiens l'optimisaient pour le rendre programmable : l'IA a longtemps été retardé par le matériel (et cela est toujours le cas dans une moindre mesure), probablement parce que le concept était visionnaire. Dans tous les cas, les plus gros progrès que fera l'IA sont encore à venir et nul doute que nous serons encore en vie pour les utiliser...

lundi 13 décembre 2004

Les objectifs de l'autonomie d'un système d'IA :

Pour être vraiment « intelligent » et posséder une certaine autonomie, nous allons résumer ici les différents objectifs à remplir pour mener à bien cette oeuvre :

- La compréhension de l'homme : cette étape peut paraître évidente mais elle reste très importante et surtout c'est une des plus compliquées à mettre en oeuvre (avec la formulation de la réponse). L'entité artificielle doit comprendre le langage naturel (comme on l'a vu plus haut) et être capable de le transformer en un langage plus simple pour traitement.
- La connaissance et la maîtrise de son environnement : l'entité doit savoir où elle est postée tant d'un point de vue hardware que géographique afin qu'elle puisse agir en conséquence. Elle doit maîtriser ce dernier en sécurisant tout ce dont elle a la charge notamment les données, qu'elles soient externes à son système intelligent ou interne et ceci dans un but d'auto-intégrité. Bref, elle doit assurer des fonctions de pare-feu ou d'anti-virus et de duplication de données via un ou plusieurs RAID.
- Appliquer la demande selon le contexte : ceci complète l'objectif précédent. Selon le contexte où l'entité se situe, elle doit adapter ses demandes et celles des autres : ainsi, si un informaticien demande à un gros système de faire un calcul qui prendra plus de 36 mois, l'entité devra être en mesure de lui proposer d'attendre la prochaine génération de microprocesseurs et ceci afin d'avoir un temps de calcul moins long mais surtout terminé avant que celui qui aurait dû être commencé n'ai terminé (36+X mois dans le cadre d'un lancement de calcul actuellement alors que ce sera (36+X)/2 si on lance le calcul dans 18 mois avec la prochaine génération). De même, le programme pourra posséder des humeurs qui selon le degré d'agressivité ou de gentillesse du maître d'oeuvre fera plus ou moins bien certaines requêtes (à déconseiller au niveau professionnel cependant). Enfin, si l'entité se révèle trop instable ou aux performances dégradées par un quelconque programme, elle conseillera alors soit de fermer l'application pour regagner des performances optimales soit d'attendre que cette application ait terminé afin que le monotâche de cette demande couplé au monotâche de l'application revienne au final plus rapide qu'une exécution simultanée (Système A.R.S.).
- La communication entre les différents modules pour la détection d'un problème ou une panne et mettre en place une solution de rechange : tout programme exécuté à l'intérieur du noyau d'IA devra communiquer en temps réel avec cette dernière afin de rendre compte de ses agissements, de ses éventuels problèmes ou des ressources nécessaires dans un but de stabilité et de rapidité. Les nouveaux systèmes d'exploitation pour particuliers commencent à être plus stables via de tels mécanismes mais la communication entre programmes d'éditeurs différents est assez difficile. En cas de problème, le système devra mettre en place des solutions afin de défendre l'intégrité des données : duplication des informations, fermeture des programmes dangereux pour le système, fermeture temporaire des modules inutiles en temps réel, etc (Système A.R.S.).
On peut donc imaginer sans problème un système d'IA qui crée un serveur local et virtuel à son lancement et qui « écoute » les logiciels qui feraient comme lui.
- Recompilation et optimisation du code afin de rendre le système plus performant : le système devra être capable via de nouvelles techniques (de tris par exemple) et au lieu de les inscrire dans sa base, les inscrira dans son propre code si la fonction est considérée comme importante : cependant, le système devra être capable de revenir en arrière et de posséder un module qui, en cas de problème grave, pourra restaurer le dernier système considéré comme stable et fonctionnel. Ce système devra être aussi capable de se remettre en service seul.
- Aider et rerouter l'homme dans ces tâches : l'homme ne doit en aucun cas se trouver face à un mur lors de l'utilisation de l'IA. Si l'IA ne reçoit aucune instruction extérieure compréhensible mais détecte une activité vis-à-vis d'elle-même, elle devra être capable de devancer les besoins du maître d'oeuvre et de l'aider si celui-ci semble perdu. Cela entrera en paradoxe avec la sécurité nécessaire car l'IA ne doit en aucun cas informer un utilisateur extérieur hostile. Par détection on considère aussi la mise en place de caméras que l'IA pourra commander si elle considère qu'un humain pénètre là où elle possède une fonction et donc pourrait à terme aider par rapport aux attitudes faciales de ce dernier.

mercredi 8 décembre 2004

Tour d'horizon : les possibilités et les limites actuelles de l'IA

Nous possédons actuellement beaucoup de technologies qui entreront en jeu lors de la mise en place d'un système intelligent. Celles-ci devront cependant s'améliorer et devenir abordable même si une mise en place d'une telle création nécessitera de très forts investissements.

Comme je l'ai souligné dans un précédént billet, la prochaine évolution de l'informatique est la nouvelle interface homme/machine qui s'ouvre à nous : la reconnaissance vocale ; actuellement, elle est loin d'être au point comme je l'ai suscité mais elle entrera sans commune mesure dans nos vies dans les 15 prochaines années et surtout elle est un maillon essentiel de la compréhension de l'homme par la machine. Il y a encore cependant du travail à effectuer mais ne doutons pas de l'avenir de cette technologie.

La deuxième technologie ou procédé technologique que nous possédons actuellement reste le RAID. Pour ceux qui ne seraient pas ce qu'est cette méthode de stockage, on simplifiera en disant que c'est la fait de mettre plusieurs disques durs sur une même unité et cela afin de dupliquer les données et donc de les sécuriser au cas où de ses disques tomberait en panne (sauf en RAID 0 mais je ne considère pas cela comme du RAID). Nous reviendrons longuement sur ce point lors que nous parlerons des objectifs d'une IA mais reconnaissons qu'une mise en place de cette dernière permettra à l'homme de ne plus se soucier de ses données et l'IA devra donc les sécuriser.

Enfin, de manière générale, tous les systèmes actuels à l'exécution de tâches quelconques préfigurent déjà l'intelligence artificielle malgré leurs limites évidentes. De même, il restent encore beaucoup de limites à la mise en place de tels systèmes.

La puissance de calcul tout d'abord : nous travaillons actuellement avec des brouettes à traîner et nous sommes en position d'attente devant nos ordinateurs au moins 20% du temps ; certes, les processeurs évoluent et donc les programmes avec mais à moins d'utiliser de vieux softs, on peste contre cette machine qui gratte encore et encore et qui permet d'écrire cela. Dieu soit loué, dans ce cas-là, cela reste très correcte. Cette technologie ne peut que s'améliorait du fait de la loi de Gordon Moore (le nombre de transistors dans un microprocesseur double tous les 18 mois) mais quelques interrogations subsistent : les coûts de fabrication des usines à CPU double aussi à chaque nouvelle génération (ce qui pose un problème pour une concurrence pure et parfaite et qui va plutôt nous tourner dans les prochaines années vers un oligopole) mais surtout on ne pourra pas suivre cette loi indéfiniment du fait des lois de la physique. Pour le 386 à 16Mhz en 1986, les ingénieurs gravaient à 1.5 Micron. Un cheveu fait 1 Micron. Aujourd'hui, on vient de passer sous la barre des 0.1 Micron. A terme (d'ici 2015), les transistors seront tellement petits que se manifestera « l'effet tunnel », c'est-à-dire que l'information sautera de transistors en transistors et se perdra finalement, du fait de la petitesse et du rapprochement de ces derniers (ne parlons même pas de la chaleur dégagée). Bref, les technologies actuelles pour la fabrication de microprocesseurs sont là aussi limitées à court terme mais ne nous inquiétons pas outre mesure, des solutions sont déjà en place (dont l'ordinateur quantique dont la recherche avance lentement mais sûrement).

La capacité de nos disques durs ensuite : une base de données d'une IA fera quelques bons To voire plus si elle s'auto-éduque. Il faut donc des très bons disques durs (comme je l'ai signalé plus haut, une solution RAID est très envisageable) avec des temps d'accès rapides, l'accès et l'affichage de l'information devant être immédiat ou quasi-immédiat. Des nouvelles normes arrivent progressivement et devraient donc permettre de tels développements. De même, l'utilisation du SCSI renforcera le tout. Les baisses de prix étant rapides, le stockage de l'information est une donnée essentielle pour le futur, qu'elle ait ou non un rapport avec l'intelligence artificielle.

Enfin, la troisième et dernière limite de nos ordinateurs aujourd'hui pour préfigurer les systèmes d'IA de demain est le système d'exploitation. Noyau central de l'ordinateur, il devra être stable, rapide, et simple d'utilisation. Si l'IA bouleverse nos vies demain, il faut que cette dernière ne dépende pas d'un constructeur (on pourrait apparenter cela à terme à une forme d'esclavage !). Il faut des noyaux spécialement réécrit pour de l'IA avec par exemple une optimisation de recherche dans une base de données ou des API déjà écrites pour que les programmeurs puissent écrire des programmes faisant appel à cette IA : l'agent intelligent régissant tout cela devra donc en plus de posséder le noyau d'IA, posséder aussi le noyau de l'OS pour comprendre son environnement et le connaître. Il faut d'ailleurs noter que le successeur de Windows XP (LongHorn) prévu pour fin 2005 devrait intégrer un peu d'Intelligence Artificielle de manière plus visible que pour Windows 2000 (je parle bien sûr des menus qui s'affichent en fonction des utilisations) et reposerait sur un format de fichiers de type SQLServer (Yukon) nommé, aux dernières nouvelles, WinFS (Windows Future Storage) ; cependant, cela restera une couche de NTFS.

Bref, on le voit bien ici, les technologies actuelles n'ont pas été pensé pour faire de la déduction, de la synthèse ou de la logique mais pour appliquer des formules mathématiques et des automatismes qui ne nécessitent aucune réflexion. Elles sont cependant sur la bonne voie car le système binaire, derrière son étonnante simplicité, cache une déconcertante complexité et un formidable potentiel.

mardi 30 novembre 2004

Créer une Intelligence Artificielle : pour quelle utilité ?

Avant d'essayer de simuler ou de recréer une quelconque intelligence, il faut savoir ce que l'on veut imiter : nous l'avons vu dans le billet précédent, les clés de l'IA commencent par une certaine approche de l'IP puis de l'IH. Pourtant, dans le cas d'un chatterbot par exemple, toutes les constantes sont-elles nécessaires ? Un chatterbot se contente en effet « simplement » de répondre à des questions, pas de voir ni de sentir. Seule la constante « Son » pourra donc être utilisée mais dans ce cas-là, cela équivaudrait à une entrée de caractères (et si reconnaissance vocale il y a, ce ne sera pas l'IA à proprement parler qui s'en occupera mais un de ses modules : nous considérerons donc que l'IA entre véritablement en jeu lorsqu'elle reçoit une chaine en paramètre qui équivaut à une requête) ; cela rejoint donc un exemple très utilisé en IA car libéré de toutes ces contraintes : le test du téléphone. Au téléphone, on ne voit pas notre interlocuteur, on ne le sent pas, on se contente de recevoir et d'envoyer des requêtes. Pour le chatterbot, c'est pareil : il est aveugle et ne peut sentir, tout ce qu'il peut recevoir reste une requête extérieure (clavier ou micro). Concevoir une IA avec ce « simple » cahier des charges (dans ces termes) reste donc la voie à explorer pour des applications grand public à moyen terme (car les applications gourmandes en sécurité ne tarderont pas à vouloir voir et reconnaître leur environnement et leurs utilisateurs).

Passons maintenant au point important de ce billet, celui qui lui donne son nom : l'utilité de l'IA. A quoi cela servirait de créer une autre intelligence ? Et bien, outre que cela pourrait nous donner des points de vue interessants, les systèmes d'IA serviront à résoudre des problèmes (ce qu'ils font déjà) mais surtout, ils passeraient pour une nouvelle évolution de l'espèce humaine : l'intelligence évoluée. La puissance des ordinateurs évoluant continuellement, leur capacité de stockage aussi, on peut espérer d'ici un siècle avoir affaire à des systèmes d'IA très performant, voire plus performant qu'un être humain dans un domaine de prédilection. Les systèmes pourraient donc aider l'homme à évoluer et à trouver des solutions que nous n'aurions pas trouver avant des siècles. Le deuxième scénario, plus chaotique, serait de dire que les robots terrasseraient la race humaine pour devenir les maîtres de la Terre. Un tel scénario a peu de chances de se produire même si l'arrivée de l'IA pourra réveiller l'envie de pouvoir de certains.

L'utilité de l'IA ne différencie donc pas des autres inventions de l'être humain : l'aider, l'assister, être à son service pour que ce dernier puisse évoluer (dans n'importe quel sens).

jeudi 25 novembre 2004

Les clés de l'Intelligence Artificielle

Avant d'essayer de programmer quoi que ce soit en IA, il faut observer l'existant et s'en inspirer. Toutes les technologies importantes (avions, automobiles) ont procédé de cette façon, il est nécessaire de les suivre dans cette voie.

L'intelligence primaire (IP) :

Les animaux peuvent être considérés comme des êtres ayant plus ou moins une intelligence primaire. Certains sont étonnants mais ne se hissent en aucun cas à notre niveau ; ils entreront aussi dans cette catégorie. Si nous analysons de visu l'IP, on constate que les animaux, en général, font la jonction entre trois constantes : - Les sons - Les images - Les odeurs

Les deux premières constantes sont les plus importantes. La troisième n'apporte qu'un complément d'information et ne peut être utilisé que peu de temps avant l'action (même l'être humain a du mal a se rappeler d'une odeur bien précise, notre vocabulaire étant trop limité pour cela : ce facteur de souvenir entrera donc uniquement en jeu lorsque l'odeur se manifestera). Le cumul de ces constantes n'est pas obligatoire pour déclencher la réponse de l'animal (l'action), mais plus il y aura de constantes en jeu, plus l'information sera vérifiée et entraînera donc l'action adéquate. Il est même intéressant de noter que si l'une de ces constantes entrent en jeu, elle peut entraîner les autres avec elle (un son déclenche le souvenir d'une image et donc d'une action). On peut donc schématiser simplement l'intelligence primaire par :


La ou les actions pouvant être des mouvements, des sentiments ou tout se qui pourrait résulter de ces constantes. Pour comprendre facilement ce concept, prenons un exemple concret et simple : le chien. Le chien réagit à son maître à des sons ou des gestes, en fonction de ce qu'il a appris. Si on dit au chien de se coucher, les constantes associées à ce son sont des images où on voit le chien être couché, ce qui lui arrive s'il ne le fait pas (douleur) et ce qui lui arrive s'il le fait (récompense). Le chien réagit aussi en termes d'espace : s'il entend une porte et qu'il n'y a pas son maître avec lui, les constantes associées au son de la porte seront l'image de cette porte, sa position dans l'espace et la raison (probable) du déclenchement de tout cela : son maître rentre à la maison : le chien sera donc capable de l'accueillir.


Il y a comme cela des dizaines d'exemples et ils doivent constituer une base à un système d'IA. En effet, de simples associations comme nous venons de le voir permettent une grande polyvalence et cache une grande complexité.

L'intelligence Humaine (IH) :


L'IH est bien plus complexe que l'IP. Bien sûr, nous résonnons en terme d'images, de sons et d'odeurs mais le fait de posséder un langage (complexe) et une connaissance commune (contrairement aux animaux, nous pouvons apprendre autrement que par nous-mêmes, par notre mère, ou par notre ADN : nous avons des encyclopédies et une histoire J) nous oblige à entrer de nouveaux paramètres? de très nombreux paramètres. Si nous vivions à même la nature, en petits groupes, sans avoir de contact avec une civilisation, l'IH serait probablement quasiment identique à l'IP. Mais le fait est que nous vivons entre nous, que nous n'avons pas besoin de chasser pour survivre et que la loi de la jungle ne s'applique plus (dans le sens premier du terme). L'essentiel de nos communications se fait donc avec nos semblables, ces derniers possédant (semble-t-il) les mêmes facultés. L'action (qui peut être un mouvement, un sentiment, ou une réponse dans un langage complexe) ne se déclenche donc plus par trois mais par quatres constantes, dont la plus importante, le langage, possède des sous catégories. Le langage est en effet composé de mots et résulte de connaissances (sinon, il n'y aurait pas de langage, c'est une condition sine qua none) : la constante « Langage » sera donc activé (s'il elle est activable, il se peut en effet que l'on ne comprenne pas ce qui se dit) par la relation Mots-clés ET connaissances, ces dernières s'activant dans les deux sens : - d'abord dans le sens de celui qui envoie la requête (il faut qu'il sache de quoi il parle) - ensuite dans le sens de celui qui va formuler une réponse à cette requête (il faut qu'il est les connaissances requises pour y répondre : dans le cas contraire, soit l'action n'est pas activé, soit elle entraîne une autre requête (dans le sens inverse) avant d'être activé (« C'est à moi que tu parles ??? ») soit elle débouche sur une réponse négative (mais cela reste une réponse correcte)). La suite est identique à l'IP mais à des degrés différents : nous ne possédons pas la même expérience que les animaux et comme je l'ai souligné, nous avons l'avantage de tout savoir sur nos aïeux (et par la même, d'en savoir plus).

mercredi 24 novembre 2004

Définir l'Intelligence Artificielle

Il est difficile de donner une définition claire et exacte de l'intelligence artificielle tant que l'on arrive pas à définir l?intelligence elle-même : pourtant, c'est le cas, puisque entre autres, on n'arrive même pas à la mesurer. Les tests du QI sont en effet loin d'être juste. Cependant, dans un souci d'avancée, on pourrait définir l'intelligence comme le fait de posséder la conscience de soi par rapport au monde qui nous entoure ainsi qu'une une certaine logique et d'appliquer cette dernière, d'en déduire des réponses qui feront avancer de nouveau cette logique. Par logique étant défini la faculté de penser et de sortir des idées sensées, c'est-à-dire admises par la majorité des gens utilisant ces idées et régissant la société à une époque donnée.

L'exemple est facilement détournable mais reste dans la plupart des cas juste. De toute façon, d'aucune façon on ne pourra sortir de définition de l'intelligence tant qu'on n'aura pas exactement compris ce qui se passait dans nos têtes ; pour définir l'intelligence artificielle, il faut donc regarder autour de nous.

Dans la vie de tous les jours, le fait de parler avec une autre personne revêt une certaine forme d'intelligence : l'intelligence artificielle peut donc être définie comme le fait de se trouver devant une entité artificielle (un ordinateur), de lui parler et de recevoir des réponses en rapport avec la question et qui auraient pu être formulé par une autre personne (même si cet ordinateur donne ces réponses par rapport à des conditions et non pas parce qu'il « pense » que c'est une bonne réponse). Un test existe d'ailleurs pour cela : le test du Turing : imaginé par la personne du même nom dans la seconde moitié du 20ème siècle, il consiste, pour simplifier, à mettre une personne devant un terminal, celle-ci devant deviné si l'entité qui répond à ces questions est un homme ou une femme. Il a été détourné au profit de l'intelligence artificielle pour tester les programmes simulant l'homme ; le test est simple : placer un homme devant un ordinateur et lui demander de dialoguer. Il ne sait pas avec qui il dialogue, soit une machine, soit un homme. Le but est de faire la distinction entre ces deux entités. Si le « cobaye » n'y arrive pas, c'est gagné : l'ordinateur aura passé le test du Turing avec succès.

Qu'on se rassure, ceci n'est encore jamais arrivé. Un des rares chatterbot (robot de discussion littéralement) des plus performants actuellement, ALICE, remporte effectivement des prix mais n'arrive pas à imiter vraiment l'humain. Elle repose en effet sur une gigantesque base de données où toutes les questions possibles et inimaginables sont inscrites ainsi que leurs réponses respectives. Mais ce système est un cul-de-sac : non seulement, il va devenir très lourd au fil du temps mais surtout on remarque qu'Alice tourne en rond quand elle ne sait quoi répondre : en bref, elle est incapable de réellement apprendre, ce qui n'en fait pas un véritable « agent intelligent ».

Car, actuellement, on ne programme pas réellement de systèmes doués d'intelligence artificielle. En effet, la plupart des programmes actuels sont bridés, incapables de progresser. Ils ne peuvent apprendre sans que leur créateur le décide. A ce moment-là, on ne possède alors que d'une base de données inaltérable, un comble ; imaginez-vous avec une base de données dans votre entreprise de ce type : elle serait aussi inutile que l'annuaire gardé depuis 10 ans ! Complètement dépassé, désuet et inutilisable dans une industrie qui va aussi vite que celle de l'informatique.

Nous avons donc une simili-définition de ce qu'est l'intelligence artificielle : un système qui apprend et qui simule la vie. Reste à savoir désormais comment mettre cela en oeuvre, d'un point de vue concepteur et utilisateur et cela afin d'arranger les deux camps.

samedi 20 novembre 2004

Galerie : de HAL 9000 aux robots de SONY :



HAL 9000 (pour Heuristic ALgorithmic Computer) apparut dans 2001, l'odyssée de l'espace, de Stanley Kubrick et Clark. Il possédait sur Terre son double, SAL 9000 et, dans le scénario original, s'appelait Athéna et possédait une voix féminine. Dans « 2001 », HAL décida de détruire tous les membres de l'équipage car une de ses règles (faire régner une grande transparence dans l'information) entrait en paradoxe avec le but ultime de la mission (dont seul lui et les membres cryogénisés connaissaient la finalité), à savoir trouvé le troisième monolithe sur Io (un satellite de Jupiter).


Les robots de Honda, désormais très célèbres pour leur habilité et surtout le fait qu'ils se déplacent avec deux jambes (ce qui nécessite un centre de gravité assez haut)



Plusieurs modèles d'AIBO (pour Artificial Intelligence roBOt) de SONY, du moins au plus récent. Le second, plus "agressif" et destiné principalement à la surveillance, eut un succès mitigé. Le troisième modèle, sorti il y a peu a donc corrigé ces défauts...



Le dernier robot sorti des laboratoires de SONY : le QRio. Haut de 35cm, il devrait pouvoir avoir plus de fonctions que les AIBO. Pas de date de sortie annoncée.