À l’approche de la WWDC, des chercheurs d’Apple remettent en question les affirmations selon lesquelles l’IA serait capable de raisonnement. Ces révélations alimentent le débat sur les capacités réelles de l’IA, soulignant que les avancées technologiques ne garantissent pas toujours une compréhension profonde, dans un monde où l’innovation est reine.
Une remise en question des capacités de raisonnement en IA par les chercheurs d’Apple
L’état des lieux de l’IA : un appel à la réflexion
Alors qu’Apple se trouve en retard sur les fonctionnalités d’IA qu’elle a réellement mises en œuvre, ses chercheurs continuent de travailler à la pointe de la technologie. Dans une étude récente, ils contredisent les affirmations selon lesquelles certains modèles d’IA seraient capables de raisonnement étape par étape.
Les limites des modèles génératifs
Il est largement accepté que les modèles génératifs conventionnels, également appelés modèles de langage à grande échelle (LLM), n’ont pas la capacité de raisonner. Toutefois, certaines entreprises d’IA affirment qu’une nouvelle génération de modèles, appelés modèles de raisonnement à grande échelle (LRM), pourraient y parvenir. Ces modèles sont issus de tentatives visant à obliger les LLM à "montrer leur travail", c’est-à-dire à détailler les étapes prises pour parvenir à leurs conclusions.
Une illusion de pensée
Les chercheurs d’Apple donnent un nom à cette approche : "l’illusion de pensée". Ils soutiennent que les tests qu’ils ont réalisés sur plusieurs LRM montrent que leur capacité de raisonnement s’effondre rapidement même face à des défis logique relativement simples, tels que le célèbre puzzle de la Tour de Hanoï.
Le défi de la Tour de Hanoï
Le puzzle de la Tour de Hanoï implique trois tiges et un certain nombre de disques de tailles différentes empilés sur la première tige dans un ordre de taille décroissant (le plus grand en bas). Le but est de transférer tous les disques de la première tige à la troisième, en respectant certaines règles : déplacer un seul disque à la fois, ne prendre que le disque supérieur d’une tige, et ne jamais placer un disque plus grand sur un disque plus petit.
Une performance décevante des LRM
Les résultats des recherches menées par Apple montrent que les LRM ne réussissent pas mieux que les LLM, même sur les versions les plus simples du jeu. Les chercheurs ont constaté qu’avec un nombre d’anneaux compris entre un et trois, la précision des réponses des LRM décline rapidement avec le temps en raison d’une tendance à "trop réfléchir". L’ajout de disques supplémentaires entraîne une légère amélioration, mais les LRM échouent totalement à résoudre le puzzle lorsque le nombre de disques dépasse huit.
Les implications des résultats
Ces découvertes jettent un doute sur les revendications concernant les capacités des derniers modèles d’IA. Malgré des mécanismes de réflexion sophistiqués, les LRM ne parviennent pas à développer des capacités de raisonnement généralisables au-delà d’un certain seuil de complexité. Les chercheurs d’Apple mettent en lumière les limitations fondamentales de ces modèles.
Un besoin de dépasser les modèles actuels
Gary Marcus, professeur émérite de psychologie et de neurosciences à l’Université de New York, a longtemps soutenu que les LRM sont incapables de raisonnement. Pour lui, ces résultats soulignent la nécessité de dépasser l’espoir selon lequel la création de LLM de plus en plus sophistiqués mènera à une forme d’intelligence générale.
"Quiconque pense que les LLM sont un chemin direct vers une AGI pouvant transformer la société pour le bien est dans l’illusion", a-t-il déclaré. "Cela ne signifie pas que le domaine des réseaux neuronaux est mort, ni que l’apprentissage profond est obsolète. Les LLM ne sont qu’une forme de cet apprentissage, et peut-être que d’autres approches – notamment celles qui interagissent mieux avec des symboles – finiront par prospérer."
Conclusion
Les récents travaux des chercheurs d’Apple remettent en question la direction actuelle des recherches en IA, soulignant que les LRM, loin de constituer une avancée révolutionnaire, révèlent plutôt les limites persistantes des modèles d’IA contemporains. Les défis à relever pour réaliser une véritable intelligence artificielle demeurent immenses.
Pour des études approfondies sur le sujet de l’intelligence artificielle et des modèles de raisonnement, vous pouvez consulter l’article sur Stanford.edu.
### Qu’est-ce que les modèles de raisonnement large (LRMs) ?
Les modèles de raisonnement large (LRMs) sont une nouvelle génération de modèles d’IA qui prétendent être capables de raisonnement étape par étape. Cependant, des recherches récentes d’Apple contestent cette affirmation, soulignant que ces modèles échouent souvent dans des défis logiques simples.
### Pourquoi les LRMs sont-ils considérés comme inférieurs aux LLMs ?
Selon les résultats d’Apple, les LRMs se comportent en fait moins bien que les modèles de langage large (LLMs) sur les versions simples des problèmes, et leur performance ne s’améliore que légèrement lorsque la complexité augmente. Au-delà de huit disques dans des puzzles comme le Tower of Hanoi, les LRMs échouent complètement.
### Quelles sont les implications des résultats de recherche d’Apple ?
Les découvertes d’Apple soulignent les limites fondamentales des actuels modèles d’IA, remettant en question les idées reçues sur la capacité des LRMs à développer un raisonnement généralisable au-delà de certains seuils de complexité. Il est devenu clair que ces modèles, malgré leurs mécanismes d’auto-réflexion sophistiqués, n’atteignent pas les capacités de raisonnement souhaitées.
### Qui soutient la recherche d’Apple concernant les LRMs ?
Gary Marcus, professeur émérite à l’Université de New York, défend également l’idée que les LRMs ne sont pas capables de raisonnement. Il insiste sur le fait qu’il est nécessaire de passer au-delà de l’espoir que des LLMs de plus en plus performants mèneront à une véritable intelligence générale.

Bonjour, je m’appelle Manu Dibango et j’ai 37 ans. Cadre supérieur dans l’administration, je suis passionné par la gestion et l’organisation. Bienvenue sur Camernews où je partage ma veille sur les nouvelles technologies et l’innovation.