Pourquoi les IA échouent-elles sur des tests simples

Apple vient de révéler une faille majeure dans le "raisonnement" des modèles d’intelligence artificielle avancée.
Un robot en train de galérer devant un problème de math

Une récente étude menée par des chercheurs d’Apple révèle que les capacités de « raisonnement » des modèles d’intelligence artificielle (IA) ne sont pas aussi avancées que prétendu.

En testant plusieurs modèles d’IA, y compris ceux d’OpenAI et d’autres acteurs majeurs, les chercheurs ont découvert que des changements mineurs dans des problèmes mathématiques de base provoquaient une forte augmentation des erreurs. Par exemple, l’ajout de détails insignifiants ou le remplacement de noms propres a fait chuter la précision des IA jusqu’à 65 %.

Selon les scientifiques, ces IA ne raisonnent pas vraiment comme les humains, mais s’appuient plutôt sur des schémas de reconnaissance de motifs basés sur les données d’entraînement. Cela remet en question la manière dont nous évaluons et utilisons ces modèles, en particulier dans des domaines sensibles où la précision est cruciale, comme l’éducation ou la santé. Les chercheurs soulignent l’importance de développer des modèles capables de véritable raisonnement logique.