Exemple d'article II : Objectifs de l'IA – Partie 1

docusign-V7dZJybxhgc-unsplash

Le problème général de la simulation (ou de la création) de l'intelligence a été décomposé en sous-problèmes. Ceux-ci consistent en des traits ou des capacités particuliers que les chercheurs s'attendent à voir chez un système intelligent. Les traits décrits ci-dessous ont reçu le plus d'attention et couvrent le champ de la recherche en IA.

Raisonnement et résolution de problèmes

Les premiers chercheurs ont développé des algorithmes qui imitaient le raisonnement pas à pas utilisé par les humains lorsqu'ils résolvent des énigmes ou font des déductions logiques. À la fin des années 1980 et dans les années 1990, des méthodes ont été développées pour traiter des informations incertaines ou incomplètes, en utilisant des concepts issus de la probabilité et de l'économie.

Beaucoup de ces algorithmes sont insuffisants pour résoudre de grands problèmes de raisonnement car ils subissent une « explosion combinatoire » : ils deviennent exponentiellement plus lents à mesure que les problèmes grandissent. Même les humains utilisent rarement la déduction pas à pas que la recherche en IA pouvait modéliser à ses débuts. Ils résolvent la plupart de leurs problèmes grâce à des jugements rapides et intuitifs. Un raisonnement précis et efficace reste un problème non résolu.

Représentation des connaissances

Une ontologie représente la connaissance comme un ensemble de concepts dans un domaine et les relations entre ces concepts.

La représentation des connaissances et l'ingénierie des connaissances permettent aux programmes d'IA de répondre intelligemment aux questions et de faire des déductions sur des faits du monde réel. Les représentations formelles des connaissances sont utilisées dans l'indexation et la recherche basées sur le contenu, l'interprétation de scènes, l'aide à la décision clinique, la découverte de connaissances (extraction d'inférences « intéressantes » et exploitables à partir de grandes bases de données), et d'autres domaines.

Une base de connaissances est un ensemble de connaissances représentées sous une forme utilisable par un programme. Une ontologie est l'ensemble des objets, relations, concepts et propriétés utilisés dans un domaine de connaissance particulier. Les bases de connaissances doivent représenter des éléments tels que : objets, propriétés, catégories et relations entre objets ; situations, événements, états et temps ; causes et effets ; connaissances sur les connaissances (ce que nous savons de ce que les autres savent) ; raisonnement par défaut (choses que les humains supposent vraies jusqu'à preuve du contraire et qui restent vraies même si d'autres faits changent) ; et de nombreux autres aspects et domaines de la connaissance.

Parmi les problèmes les plus difficiles de la représentation des connaissances figurent : l'étendue des connaissances de sens commun (l'ensemble des faits atomiques connus par une personne moyenne est immense) ; et la forme sous-symbolique de la plupart des connaissances de sens commun (une grande partie de ce que les gens savent n'est pas représentée comme des « faits » ou des « énoncés » qu'ils pourraient exprimer verbalement). Il y a aussi la difficulté de l'acquisition des connaissances, c'est-à-dire le problème d'obtenir des connaissances pour les applications d'IA.

Planification et prise de décision

Un « agent » est tout ce qui perçoit et agit dans le monde. Un agent rationnel a des objectifs ou des préférences et agit pour les réaliser. En planification automatisée, l'agent a un objectif précis. En prise de décision automatisée, l'agent a des préférences — il y a des situations dans lesquelles il préfère se trouver, et d'autres qu'il cherche à éviter. L'agent décideur attribue un nombre à chaque situation (appelé « utilité ») qui mesure à quel point il la préfère. Pour chaque action possible, il peut calculer « l'utilité attendue » : l'utilité de tous les résultats possibles de l'action, pondérée par la probabilité que le résultat se produise. Il peut alors choisir l'action avec l'utilité attendue maximale.

En planification classique, l'agent sait exactement quel sera l'effet de chaque action. Cependant, dans la plupart des problèmes du monde réel, l'agent peut ne pas être certain de la situation dans laquelle il se trouve (elle est « inconnue » ou « non observable ») et il peut ne pas savoir avec certitude ce qui se passera après chaque action possible (ce n'est pas « déterministe »). Il doit choisir une action en faisant une estimation probabiliste puis réévaluer la situation pour voir si l'action a fonctionné.

Dans certains problèmes, les préférences de l'agent peuvent être incertaines, surtout s'il y a d'autres agents ou des humains impliqués. Celles-ci peuvent être apprises (par exemple, avec l'apprentissage par renforcement inverse) ou l'agent peut chercher des informations pour améliorer ses préférences. La théorie de la valeur de l'information peut être utilisée pour évaluer l'intérêt d'actions exploratoires ou expérimentales. L'ensemble des actions et situations futures possibles est généralement d'une taille intractable, donc les agents doivent agir et évaluer les situations tout en restant incertains du résultat.

Un processus de décision de Markov possède un modèle de transition qui décrit la probabilité qu'une action particulière modifie l'état d'une certaine manière, et une fonction de récompense qui fournit l'utilité de chaque état et le coût de chaque action. Une politique associe une décision à chaque état possible. La politique peut être calculée (par exemple, par itération), être heuristique, ou être apprise.

La théorie des jeux décrit le comportement rationnel de plusieurs agents en interaction, et est utilisée dans les programmes d'IA qui prennent des décisions impliquant d'autres agents.

(source : Wikipedia)