À l’approche de la WWDC, les chercheurs d’Apple contestent les affirmations selon lesquelles l’IA pourrait réellement raisonner. Cette déclaration soulève des questions sur l’avenir de cette technologie révolutionnaire, remettant en question les avancées récentes et les attentes du public face à ses capacités cognitives.
Approche de la WWDC : Les chercheurs d’Apple contestent les affirmations sur les capacités de raisonnement de l’IA
Les limites des modèles d’IA
Alors qu’Apple semble pris de court en matière de fonctionnalités d’IA réellement mises en œuvre, ses chercheurs continuent de travailler à la pointe des avancées technologiques. Dans une étude récente, ils contredisent les affirmations selon lesquelles certains modèles d’intelligence artificielle (IA) seraient capables de raisonnement étape par étape. Les résultats de leurs tests montrent que ce n’est pas le cas.
Modèles de langage et raisonnement
Les modèles d’IA conventionnels, connus sous le nom de modèles de langage de grande taille (LLMs), n’ont pas la capacité de raisonner. Cependant, certaines entreprises d’IA affirment qu’une nouvelle génération de modèles, appelés modèles de raisonnement de grande taille (LRMs), pourrait surmonter cette limitation. Ces modèles ont émergé d’efforts visant à faire en sorte que les LLMs "montrent leurs calculs", c’est-à-dire qu’ils exposent les étapes individuelles qui les ont conduits à leurs conclusions.
Illusion de la pensée
L’idée sous-jacente est que si une IA peut être contrainte à développer une chaîne de pensée et à avancer pas à pas, cela pourrait l’empêcher de fournir des réponses erronées ou de s’écarter du sujet. Cependant, la recherche d’Apple qualifie cette approche d’“illusion de la pensée”. En réalité, les tests d’une variété de LRMs montrent que leur capacité de raisonnement s’effondre rapidement, même face à des défis logiques relativement simples, tels que le célèbre puzzle de la Tour de Hanoï.
Le puzzle de la Tour de Hanoï
La Tour de Hanoï est un puzzle composé de trois tiges et de n disques de tailles différentes empilés sur la première tige en ordre croissant de taille. L’objectif est de transférer tous les disques de la première tige à la troisième. Les mouvements valides incluent le déplacement d’un seul disque à la fois, en prenant uniquement le disque supérieur d’une tige, et en évitant de placer un disque plus grand sur un plus petit.
Résultats des tests
Les chercheurs d’Apple ont constaté que les LRMs se comportent en réalité moins bien que les LLMs dans les versions les plus simples du puzzle. Ils affichent une légère amélioration avec un nombre de disques plus élevé, mais échouent complètement lorsque le nombre dépasse huit disques.
Problèmes simples vs complexes
Des problèmes simples (N=1-3) montrent une précision initiale qui diminue avec le temps, tandis que des problèmes modérés (N=4-7) montrent une légère amélioration de la précision avec un raisonnement continu. En revanche, des problèmes complexes (N≥8) affichent une précision proche de zéro, indiquant un échec complet du raisonnement. Cela signifie que le modèle ne parvient pas à générer de solutions correctes dans le cadre de sa réflexion.
Des résultats surprenants
Les chercheurs ont même démontré que les LRMs échouent, même lorsqu’on leur fournit l’algorithme nécessaire pour résoudre le puzzle ! Ces résultats jettent un doute sur les affirmations concernant les modèles d’IA les plus récents.
Remise en question des hypothèses
Ces découvertes remettent en question les hypothèses dominantes sur les capacités des LRMs. Selon eux, malgré des mécanismes de réflexion sophistiqués, ces modèles échouent à développer des capacités de raisonnement généralisables au-delà de certains seuils de complexité. Gary Marcus, professeur émérite de psychologie et de neurosciences à l’Université de New York, soutient depuis longtemps que les LRMs sont incapables de raisonnement. Il indique que ces résultats montrent qu’il est nécessaire d’aller au-delà de l’espoir que des LLMs de plus en plus performants mèneront inévitablement à une forme d’intelligence générale artificielle (AGI).
Une vision critique de l’avenir de l’IA
Marcus avertit que quiconque pense que les LLMs constituent un chemin direct vers une AGI qui pourrait transformer la société pour le mieux se trompe. Bien que cela ne signifie pas que le domaine des réseaux neuronaux soit sur le point de disparaître ou que l’apprentissage profond soit obsolète, il souligne que les LLMs ne sont qu’une forme d’apprentissage profond. D’autres approches, notamment celles qui interagissent mieux avec les symboles, pourraient éventuellement prospérer. Mais cette approche particulière présente des limites de plus en plus évidentes.
Pour plus d’informations sur les limites de l’intelligence artificielle, visitez MIT Technology Review.
### Qu’est-ce qu’un modèle de raisonnement large (LRM) ?
Les modèles de raisonnement large (LRMs) sont une nouvelle génération de modèles d’IA qui prétendent être capables de raisonnement étape par étape. Contrairement aux modèles de langage génératifs conventionnels, ces modèles tentent de démontrer leur processus de pensée en détaillant les étapes menant à une conclusion.
### Pourquoi Apple remet-il en question les capacités des LRM ?
Apple affirme que les tests menés sur divers LRM montrent que leur capacité à raisonner s’effondre rapidement, même avec des défis logiques simples. Selon leurs recherches, ces modèles ne réussissent pas à résoudre des problèmes même lorsqu’on leur fournit l’algorithme nécessaire.
### Quels types de problèmes les LRM ont-ils des difficultés à résoudre ?
Les résultats de l’étude montrent que les LRM échouent particulièrement sur des problèmes simples, comme ceux impliquant un faible nombre de disques dans des puzzles logiques. Leur performance se dégrade encore plus lorsqu’on augmente la complexité, avec une précision proche de zéro pour des problèmes plus complexes.
### Quelle est l’opinion des experts concernant les LRM ?
Des experts, comme le professeur émérite Gary Marcus, soutiennent que les LRM ne sont pas capables de raisonnement. Ils affirment qu’il est illusoire de penser que le développement de LLMs plus capables mènera inévitablement à une intelligence générale, et que la recherche doit explorer d’autres voies.






Discussion about this post