Astro-notes a écrit:Bon, ben, cela a pourtant grandement à y voir AMHA, mais finalement ReusableFan te répond et ce qui me différencie de lui, c'est la portée de l'événement aujourd'hui en plaçant sur une sonde ce que l'on a besoin d'IA pour rendre une mission utile au point de se demander en quoi la présence humaine (dans un scaphandre) ferait de mieux qu'une machine dotée d'IA me semble pertinente. Mais là où je diffère de ReusableFan c'est la perspective, lui parle de 100 ans, et moi d'une quinzaine d'années. Mais au final c'est tout.
A titre personnel, je ne suis toujours pas convaincu qu'on arrivera à créer des I.A. capables de mieux se débrouiller que l'humain pour réaliser des tâches complexes, surtout si elles ne sont pas clairement et exhaustivement spécifiées à l'avance. Il y a 2 approches en I.A. :
1) L'approche symbolique, où on tente de raisonner sur des concepts abstraits. Pour résoudre un problème, outre le raisonnement, on explicite la solution à tous les problèmes/questions imaginables. Cette approche donne de bons résultats pour jouer aux échecs, pour répondre à des questions simples avec son smartphone, mais donne de mauvais résultats pour la reconnaissance des formes ainsi que pour la prise en compte de connaissances implicites et du contexte, c'est-à-dire pour la résolution générale de problèmes.
2) L'approche apprentissage deep learning. Donne de meilleurs résultats pour la reconnaissance des formes, mais ne permet pas le raisonnement sur les concepts, et les connaissances implicites ainsi que le contexte sont tout aussi difficiles à prendre en compte, car non acquis par l'expérience progressive comme c'est le cas pour les humains.
Exemple : si vous dites à quelqu'un que JF Kennedy sera à Paris demain pour un dîner à la Tour Eiffel, personne ne vous croira. En effet, vous savez, sans que personne ne vous l'ait dit de manière explicite, qu'une personne décédée ne se déplace plus et n'a plus besoin de manger. Une I.A. peut arriver à la même conclusion uniquement si on a explicitement programmé cette règle. Or, des connaissances implicites du même style, il y a en a un nombre incalculable et personne n'est capable de les recenser, cela résulte de notre expérience de vie. Il suffit de regarder un peu les problèmes de maths, de physique ou même d'histoire géo posés à des 6ème pour s'apercevoir que les connaissances et informations implicites foisonnent. De temps en temps, un gamin fait un hors-sujet. Pour l'I.A., il est fort à parier qu'il fasse très souvent des hors-sujets ... ou soit incapable de répondre, car ne disposant pas des informations nécessaires à la contextualisation de l'énoncé. Et ce genre de problèmes n'est pas près d'être résolu. Je ne parierais donc pas sur l'I.A. pour remplacer les humains, ni à court terme, ni même peut-être sur le long terme.