LE’intelligence artificielle atteint-il notre intelligence ? Non, mais il a fait de grands progrès ces dernières années. Les modèles linguistiques (LLM) tels que ChatGPT, Gemini et Claude ont démontré des capacités étonnantes en matière de compréhension de texte, de résolution de problèmes et de génération de contenu. La puissance de ces modèles a relancé un débat de plusieurs décennies surintelligence générale artificielle (AGI)c’est-à-dire un système capable de pense Et apprendre comme un être humains’attaquer à des tâches complexes et transférer des compétences entre différents contextes. Actuellement, bien que les modèles linguistiques soient de plus en plus efficaces pour résoudre des problèmes structurés, ils manquent encore de capacité De abstraction Et généralisation nécessaire pour arriver à l’AGI.
Qu’est-ce que l’Intelligence Générale Artificielle (AGI) et pourquoi on en parle
L’AGI représente le «Saint Graal« de l’IA : un système capable de raison, plan Et apprendre de manière autonome, comme un être humain. Tout comme le Saint Graal, jusqu’à présent, il s’agit plus d’une légende que de faits et le entreprises ils font pour concours pour ceux qui peuvent l’atteindre en premier. Le terme AGI est entré dans le débat public vers 2007 et, ces dernières années, je progrès dans le modèles de langage de grandes dimensions (LLM) ont conduit certains chercheurs à considérer sérieusement l’idée qu’un une forme d’AGI pourrait être imminente et cela pourrait venir des LLM. Contrairement à l’IA actuelle, spécialisée dans des tâches spécifiques – comme jouer aux échecs ou générer du texte – l’AGI pourrait résoudre un large éventail de problèmes sans avoir besoin d’instructions détaillées. Cette réussite n’est pas qu’une curiosité scientifique : AGI pourrait révolutionner des secteurs tels que médecine, la lutte contre le changement climatique et la gestion des pandémies utilisant une IA capable de « raisonner ».
Mais où en sommes-nous avec la capacité de raisonnement des LLM ?
ChatGPT est devenu bien meilleur dans la résolution de problèmes complexes
Le dernier modèle derrière ChatGPT publié par OpenAI, ChatGPT o1j’ai résolu le problème correctement83% de problèmes dans un concours américain de mathématiques (l’AIME), tandis que le précédent, GPT-4oavait seulement résolu le 13%. Le prochain modèle, ChatGPT o3pas encore rendu public, semble avoir résolu le problème 96,7%. Cette nette amélioration est due à l’intégration au sein des modèles d’une approche appelée incitation à la chaîne de pensée (CoT)qui consiste à montrer à un LLM un exemple de la façon dont décomposer un problème en étapes plus petites pour le résoudre ou en lui demandant d’aborder le problème étape par étape.
Cependant, malgré ces améliorations, o1 Il a ses limites et il ne constitue pas encore une AGI. Deux groupes de recherche différents ont souligné que il n’est pas encore capable pour résoudre des problèmes des solutions de planification en plusieurs étapes et qu’il est incapable abstrait et généraliser les problèmes visuels. Ces deux tests ont été conçus spécifiquement pour évaluer les progrès vers l’AGI. En fait, on attend d’une AGI qu’elle soit capable de résoudre des problèmes en planifiant des solutions avec un grand nombre d’étapes (actuellement les performances diminuent lorsqu’il y a plus de 20 étapes) et d’être capable de déduire une règle abstraite à partir de quelques exemples et de l’appliquer à de nouveaux cas, une tâche que les humains accomplissent avec une relative facilité.
Pour faire abstraction, il faut construire un « modèle du monde »
Selon les neurosciences, l’intelligence humaine dérive de la capacité du cerveau à créer un « modèle du monde« , un représentation de l’environnement environnement qui vous permet de planifier, raisonner et imaginer scénarios futurs. Pour atteindre l’AGI, les modèles d’IA devront développer cette capacité, leur permettant de généraliser les compétences acquises et de relever de nouveaux défis en simulant les possibilités et en prédisant les conséquences.
Plusieurs études ont suggéré laémergence de « modèles du monde » rudimentaires. au sein des LLM, qui pourtant ils ne sont pas toujours fiables ou bien ils ne sont pas utilisés pour prendre des décisions. Par exemple, une équipe de recherche de Harvard a formé un modèle d’IA pour prédire les virages en taxi sur les itinéraires de New York et a obtenu d’excellents résultats. En analysant le modèle du monde créé par l’IA, nous avons cependant vu qu’il contenait routes avec des orientations physiquement impossibles Et passages supérieurs sur d’autres routes. Lorsque les chercheurs ont tenté d’inclure les détours inattendus, le modèle n’a pas réussi à prédire le prochain virage, ce qui suggère que Pas est capable de s’adapter à des situations nouvelles.
L’AGI pourrait encore prendre au moins dix ans
L’arrivée duintelligence artificielle générale est encore incertain et le estimations des experts varier considérablement. Certains disent que nous ne serons peut-être qu’à quelques années d’atteindre cet objectif, tandis que d’autres pensent qu’il nous faudra au moins au moins dix ans ou plus. L’absence de consensus reflète la complexité du problème et les multiples défis qui restent à relever.
Ce qui est certain, cependant, c’est qu’en plus de rechercher comment construire une AGI, il est également nécessaire intégrer la sécurité dans la conception et la régulation des systèmes d’IA. La recherche doit se concentrer sur des modèles de formation capables de assurer la sécurité de leur comportementpar exemple en calculant la probabilité que le modèle viole certaines contraintes de sécurité et en rejetant les actions potentiellement dangereuses.