Révélations sur l’IA : Les chercheurs d’Apple contestent les affirmations sur sa capacité de raisonnement avant WWDC !

À l’approche de la WWDC, des chercheurs d’ remettent en question les affirmations selon lesquelles l’IA serait capable de raisonnement. Ces révélations alimentent le débat sur les capacités réelles de l’IA, soulignant que les avancées technologiques ne garantissent pas toujours une compréhension profonde, dans un monde où l’innovation est reine.

Une remise en question des capacités de raisonnement en IA par les chercheurs d’Apple

L’état des lieux de l’IA : un appel à la réflexion

Alors qu’Apple se trouve en retard sur les fonctionnalités d’IA qu’elle a réellement mises en œuvre, ses chercheurs continuent de travailler à la pointe de la technologie. Dans une étude récente, ils contredisent les affirmations selon lesquelles certains modèles d’IA seraient capables de raisonnement étape par étape.

Les limites des modèles génératifs

Il est largement accepté que les modèles génératifs conventionnels, également appelés modèles de langage à grande échelle (LLM), n’ont pas la capacité de raisonner. Toutefois, certaines entreprises d’IA affirment qu’une nouvelle génération de modèles, appelés modèles de raisonnement à grande échelle (LRM), pourraient y parvenir. Ces modèles sont issus de tentatives visant à obliger les LLM à "montrer leur travail", c’est-à-dire à détailler les étapes prises pour parvenir à leurs conclusions.

Une illusion de pensée

Les chercheurs d’Apple donnent un nom à cette approche : "l’illusion de pensée". Ils soutiennent que les tests qu’ils ont réalisés sur plusieurs LRM montrent que leur capacité de raisonnement s’effondre rapidement même face à des logique relativement simples, tels que le célèbre puzzle de la Tour de Hanoï.

Vous aimerez aussi :  Découvrez toutes les nouveautés incontournables du Pixel Feature Drop de décembre 2024 !

Le défi de la Tour de Hanoï

Le puzzle de la Tour de Hanoï implique trois tiges et un certain nombre de disques de tailles différentes empilés sur la première tige dans un ordre de taille décroissant (le plus grand en bas). Le but est de transférer tous les disques de la première tige à la troisième, en respectant certaines règles : déplacer un seul disque à la fois, ne prendre que le disque supérieur d’une tige, et ne jamais placer un disque plus grand sur un disque plus petit.

Une performance décevante des LRM

Les résultats des recherches menées par Apple montrent que les LRM ne réussissent pas mieux que les LLM, même sur les versions les plus simples du jeu. Les chercheurs ont constaté qu’avec un nombre d’anneaux compris entre un et trois, la précision des réponses des LRM décline rapidement avec le temps en raison d’une tendance à "trop réfléchir". L’ajout de disques supplémentaires entraîne une légère amélioration, mais les LRM échouent totalement à résoudre le puzzle lorsque le nombre de disques dépasse huit.

Les implications des résultats

Ces découvertes jettent un doute sur les revendications concernant les capacités des derniers modèles d’IA. Malgré des mécanismes de réflexion sophistiqués, les LRM ne parviennent pas à développer des capacités de raisonnement généralisables au-delà d’un certain seuil de complexité. Les chercheurs d’Apple mettent en lumière les limitations fondamentales de ces modèles.

Un besoin de dépasser les modèles actuels

Gary Marcus, professeur émérite de psychologie et de neurosciences à l’Université de New York, a longtemps soutenu que les LRM sont incapables de raisonnement. Pour lui, ces résultats soulignent la nécessité de dépasser l’espoir selon lequel la création de LLM de plus en plus sophistiqués mènera à une forme d’intelligence générale.

"Quiconque pense que les LLM sont un chemin direct vers une AGI pouvant transformer la société pour le bien est dans l’illusion", a-t-il déclaré. "Cela ne signifie pas que le domaine des réseaux neuronaux est mort, ni que l’apprentissage profond est obsolète. Les LLM ne sont qu’une forme de cet apprentissage, et peut-être que d’autres approches – notamment celles qui interagissent mieux avec des symboles – finiront par prospérer."

Conclusion

Les récents travaux des chercheurs d’Apple remettent en question la direction actuelle des recherches en IA, soulignant que les LRM, loin de constituer une avancée révolutionnaire, révèlent plutôt les limites persistantes des modèles d’IA contemporains. Les défis à relever pour réaliser une véritable demeurent immenses.

Vous aimerez aussi :  Surprenant Duo de Magiciens : Jude Law et Andrew Garfield Révolutionnent Apple TV+ dans un Nouveau Spectacle !

Pour des études approfondies sur le sujet de l’intelligence artificielle et des modèles de raisonnement, vous pouvez consulter l’article sur Stanford.edu.

### Qu’est-ce que les modèles de raisonnement large (LRMs) ?

Les modèles de raisonnement large (LRMs) sont une nouvelle génération de modèles d’IA qui prétendent être capables de raisonnement étape par étape. Cependant, des recherches récentes d’Apple contestent cette affirmation, soulignant que ces modèles échouent souvent dans des défis logiques simples.

### Pourquoi les LRMs sont-ils considérés comme inférieurs aux LLMs ?

Selon les résultats d’Apple, les LRMs se comportent en fait moins bien que les modèles de langage large (LLMs) sur les versions simples des problèmes, et leur performance ne s’améliore que légèrement lorsque la complexité augmente. Au-delà de huit disques dans des puzzles comme le Tower of Hanoi, les LRMs échouent complètement.

### Quelles sont les implications des résultats de recherche d’Apple ?

Les découvertes d’Apple soulignent les limites fondamentales des actuels modèles d’IA, remettant en question les idées reçues sur la capacité des LRMs à développer un raisonnement généralisable au-delà de certains seuils de complexité. Il est devenu clair que ces modèles, malgré leurs mécanismes d’auto-réflexion sophistiqués, n’atteignent pas les capacités de raisonnement souhaitées.

### Qui soutient la recherche d’Apple concernant les LRMs ?

Gary Marcus, professeur émérite à l’Université de New York, défend également l’idée que les LRMs ne sont pas capables de raisonnement. Il insiste sur le fait qu’il est nécessaire de passer au-delà de l’espoir que des LLMs de plus en plus performants mèneront à une véritable intelligence générale.

Vous aimerez aussi :  Les rumeurs sur l'iPhone Fold : Ce que vous devez savoir maintenant!

Keep Up to Date with the Most Important News

By pressing the Subscribe button, you confirm that you have read and are agreeing to our Privacy Policy and Terms of Use
Add a comment Add a comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Previous Post

L'intelligence artificielle dans le domaine de la paie : décryptage d'une promesse et de ses vérités

Next Post

Les 5 Annonces Incontournables à Attendre lors du Keynote WWDC : Préparez-vous à être Surpris!