L’IA générative nous invite à revisiter certains concepts développés par cette branche de la psychologie que sont les sciences cognitives et pose la question suivante : la logique est-elle au centre du raisonnement humain ? TACD CARTENA rend compte des travaux de Yan LeCun sur une IA plus policée.
Frege G, logicien du XIXème siècle, voulait dissocier la logique de l’intuition. Les théories qui en sont issues influencent fortement la façon dont les langages formels symboliques sont utilisés dans le domaine de l’Intelligence Artificielle pour modéliser et exploiter la connaissance. C’est tout le débat autour de la validité des LLM (large Language Models) qui fonctionnent à partir d’un réseau de neurones profonds (deep learning) sur une grande quantité de données.
Nos comportements dépendent largement de nos croyances et de la manière dont nous interprétons notre environnement. Schopenhauer voit même dans cette perception du monde saisi comme une représentation une mesure subjective de la volonté individuelle. On ne peut donc pas comprendre seulement à partir des propriétés objectives du monde ; il faut aussi prendre en compte la manière dont le monde est perçu et représenté. Ce processus semble fragiliser la pertinence de nos décisions. Pourtant, « cette obligation de cohabiter avec l’incohérence et l’incomplétude apporte à notre raisonnement ses capacités d’apprentissage et d’imagination » (Arnaud Kohler). L’IA doit donc aussi intégrer la notion de non-monotonie d’un système logique (Gärdenfors P. & Makinson D., 1991) par lequel on désigne, en Intelligence Artificielle, l’opération consistant à intégrer une nouvelle connaissance qui contredit les connaissances précédentes.
Si dans son article, Yan LeCun challenge les LLM, c’est que pour lui, les LLM ne répliquent pas le raisonnement humain. Et si l’on veut développer des machines pensantes, il faudra un modèle du monde fondé sur une architecture prédictive, celle du JEPA.
Les modèles d’architecture prédictive (JEPA) reposent en général sur le fait que les humains acquièrent une énorme quantité de connaissances sur le monde simplement en l’observant passivement. A été émise l’hypothèse selon laquelle ces informations de bon sens sont essentielles pour permettre un comportement intelligent.
Le modèle JEPA vise à prédire cette représentation à partir de la représentation d’autres parties du même objet. Il s’agit ici d’apprendre de ces représentations directement utiles pour éviter les limites des approches génératives, qui sous-tendent les LLM. Pour Yan LeCun, il faut remettre de l’humain au centre du raisonnement de l’IA, un peu comme l’église au centre du village.
https://ai.meta.com/blog/yann-lecun-ai-model-i-jepa/
Arnaud Kohler « Essai de modélisation du raisonnement humain »