1. Introduction & Thèse centrale

Cette analyse, basée sur les travaux d'Herbert L. Roitblat, présente un point de vue critique et contraire au récit dominant sur l'arrivée imminente de l'Intelligence Artificielle Générale (IAG). La thèse centrale postule que les modèles actuels et prévisibles d'IA générative (GenAI), y compris les grands modèles de langage (LLM), sont fondamentalement incapables d'atteindre l'IAG en raison d'une contrainte fondamentale appelée « dette anthropogène ». Cette dette désigne leur lourde et inéluctable dépendance à l'apport humain pour la structuration des problèmes, la conception architecturale et les données d'entraînement sélectionnées. L'article soutient que le risque réel de l'IA ne provient pas d'une superintelligence, mais de l'utilisation abusive de ses limitations inhérentes combinée à la crédulité humaine.

2. Le concept de dette anthropogène

La dette anthropogène est le cadre conceptuel central expliquant pourquoi l'IA moderne n'est pas sur la voie de l'intelligence générale.

2.1 Définition et composantes

La dette anthropogène englobe trois dépendances critiques :

  • Problèmes bien structurés : Les humains doivent formuler les tâches d'une manière que l'IA peut traiter.
  • Conception de l'architecture : La structure du réseau neuronal (par exemple, Transformer) est une invention humaine.
  • Données d'entraînement sélectionnées : Les ensembles de données massifs sont collectés, filtrés et étiquetés par des humains.

Cette dette signifie que les systèmes d'IA ne créent pas de nouveaux paradigmes de résolution de problèmes, mais optimisent au sein de limites définies par l'humain.

2.2 L'apport humain comme béquille

Le succès de modèles comme GPT-4 est souvent mal interprété. Roitblat soutient qu'ils réussissent parce que les humains ont déjà résolu les défis intellectuels fondamentaux, laissant au modèle le soin d'effectuer des « calculs simples » comme la descente de gradient. Le modèle est un puissant applicateur de motifs, pas un définisseur ou un résolveur de problèmes au sens général.

3. Obstacles fondamentaux à l'IAG

3.1 La limitation de l'apprentissage de motifs linguistiques

L'IA générative actuelle transforme chaque problème en un problème d'apprentissage de motifs linguistiques. Qu'il s'agisse de codage, de génération d'images ou de raisonnement, le mécanisme sous-jacent est la prédiction du prochain jeton (mot, patch de pixels) basée sur des corrélations statistiques dans les données d'entraînement. Cette approche est intrinsèquement limitée pour les problèmes nécessitant un raisonnement non linguistique, abstrait ou nouveau, non encapsulé dans l'expression humaine antérieure.

3.2 Absence de véritable autonomie

L'IAG nécessite l'autonomie — la capacité à fixer ses propres objectifs, définir de nouveaux problèmes et acquérir des compétences sans instruction explicite. Comme le notent Lu et al. (2024), les LLM se contentent de suivre des instructions. Ils manquent de la motivation intrinsèque ou de la capacité pour une maîtrise autonome des compétences, une pierre angulaire de l'intelligence générale.

3.3 Le problème de la typologie des problèmes

Un obstacle critique est l'incapacité à reconnaître les multiples types de problèmes. Certains problèmes, comme les « problèmes d'insight » (par exemple, le problème des neuf points), ne peuvent être résolus par une optimisation incrémentale ou une correspondance de motifs à partir de données. Ils nécessitent une restructuration de l'espace du problème — une capacité absente des systèmes d'apprentissage actuels basés sur le gradient.

4. Paradigmes d'évaluation erronés

4.1 Insuffisance des benchmarks

Les benchmarks comme ARC-AGI sont insuffisants pour mesurer la généralité. Réussir un test ne révèle pas comment il a été réussi. Un modèle pourrait utiliser une astuce étroite et spécifique au test (par exemple, la mémorisation) ou un principe de raisonnement général. Les benchmarks mesurent la performance, pas la généralité sous-jacente de la capacité.

4.2 Le sophisme de l'affirmation du conséquent

L'article met en lumière une erreur logique clé dans l'évaluation de l'IA : l'affirmation du conséquent. La forme est : Si une entité possède l'IAG, elle réussira le test T. L'entité réussit le test T. Donc, elle possède l'IAG. C'est un sophisme. La réussite à une tâche n'implique pas logiquement l'utilisation d'une intelligence générale, car la même sortie peut être produite par de nombreux mécanismes différents (et moins capables).

5. Le battage médiatique sur l'IAG vs. la réalité

Indicateurs clés du débat sur l'IAG

  • 88 % – Fraction estimée des capacités nécessaires à l'IAG déjà atteintes (Thompson, 2025).
  • 33 000+ – Signatures sur la lettre ouverte du Future of Life Institute pour suspendre le développement des LLM (2023).
  • 2025 – Année du Sommet d'action sur l'intelligence artificielle à Paris.

5.1 Prédictions et affirmations

Le paysage est marqué par des prédictions audacieuses de leaders de l'industrie (Altman, 2025 ; Leike & Sutskever, 2023) sur une IAG à court terme, souvent quantifiées (par exemple, « 88 % des capacités »). Celles-ci contrastent avec des avertissements symboliques comme « l'horloge de la sécurité de l'IA ».

5.2 Préoccupations croissantes et réponse réglementaire

Les prédictions ont déclenché une inquiétude significative. La déclaration du Center for AI Safety (2023) assimile le risque de l'IA aux pandémies et à la guerre nucléaire. Le rapport Gladstone (Harris et al., 2024) commandé par le Département d'État américain met en garde contre des risques « de type ADM » alimentés par la compétition entre laboratoires. Cela a stimulé les efforts de régulation, comme la proposition californienne SB-1047 avec son mandat d'« interrupteur d'arrêt d'urgence », bien qu'elle ait été opposée au veto.

6. Analyse technique & Cadre mathématique

La limitation des modèles actuels peut être partiellement comprise à travers l'objectif de leur optimisation. Un LLM standard est entraîné à maximiser la probabilité du prochain jeton $x_t$ étant donné un contexte $x_{

$$\mathcal{L}_{LLM} = -\sum_{t} \log P(x_t | x_{

où $\theta$ sont les paramètres du modèle. Cet objectif force le modèle à devenir un expert en interpolation au sein de la variété des données d'entraînement. L'IAG, cependant, nécessite l'extrapolation et l'abstraction — résoudre des problèmes en dehors de l'enveloppe convexe des exemples d'entraînement. La barrière du « problème d'insight » peut être modélisée comme la recherche d'une solution $s^*$ dans un espace $S$, où le chemin du problème $p$ à $s^*$ nécessite une transformation non différentiable $T$ non apprise à partir des données :

$$s^* = T(p), \quad \text{où } \nabla_\theta T \text{ est indéfini ou nul.}$$

L'apprentissage basé sur le gradient ($\theta \leftarrow \theta - \eta \nabla_\theta \mathcal{L}$) ne peut découvrir un tel $T$. Cela rejoint les arguments de l'IA classique, comme le « problème de l'ancrage symbolique » (Harnad, 1990), qui questionne comment la sémantique peut émerger d'une pure manipulation syntaxique.

Figure : L'écart entre interpolation et extrapolation

Diagramme conceptuel : Un plan 2D représente l'espace des problèmes et solutions possibles. Un nuage dense de points représente les données d'entraînement (problèmes et solutions fournis par l'humain). Les modèles GenAI actuels excellent à trouver des solutions au sein de ce nuage (interpolation). Le « X » rouge marque un « problème d'insight » — sa solution se trouve en dehors du nuage. Aucun chemin de gradient lisse ne mène du nuage au « X » ; l'atteindre nécessite un saut discontinu dans le raisonnement, que la descente de gradient ne peut réaliser. Cela représente visuellement la dette anthropogène : le modèle est confiné au nuage de données fournies par l'humain.

7. Cadre analytique : La matrice de capacités de l'IAG

Pour aller au-delà des benchmarks fallacieux, nous proposons une matrice d'évaluation qualitative. Au lieu de demander « A-t-il réussi le test ? », nous demandons « Quelle est la nature de sa capacité ? ». Pour toute tâche T, évaluer selon deux axes :

  1. Généralité de la méthode (G) : La méthode de résolution est-elle spécifique à T (G=0), applicable à une classe de tâches (G=1), ou agnostique au domaine (G=2) ?
  2. Autonomie dans la formulation du problème (A) : Le problème a-t-il été entièrement défini par des humains (A=0), partiellement affiné par le système (A=1), ou auto-découvert/défini par le système (A=2) ?

Exemple de cas (Benchmark ARC-AGI) : Un modèle qui mémorise les solutions à des motifs spécifiques de puzzles ARC obtient (G=0, A=0). Un modèle qui apprend une heuristique générale de raisonnement visuel applicable à des puzzles ARC non vus obtient (G=1, A=0). Un système qui non seulement résout les puzzles ARC mais identifie aussi par lui-même une nouvelle classe de puzzles de raisonnement abstrait s'approcherait de (G=2, A=2). Les modèles SOTA actuels opèrent probablement dans le quadrant (G=0/1, A=0). Une véritable IAG nécessite une opération constante à (G=2, A=2). Ce cadre rend explicite le sophisme de l'affirmation du conséquent : un score élevé à un test ne confirme que la performance, pas des scores G ou A élevés.

8. Orientations futures & Perspectives de recherche

Atteindre l'IAG nécessitera des changements de paradigme, pas seulement une mise à l'échelle des architectures actuelles.

  • Modèles du monde et cognition incarnée : La recherche doit dépasser la prédiction passive de texte pour des agents actifs qui construisent des modèles internes du monde par l'interaction, comme on le voit dans les avancées en robotique et simulation (par exemple, SIMA de DeepMind). Cela réduit la dépendance aux données linguistiques sélectionnées.
  • Hybrides neuro-symboliques : Intégrer la force de reconnaissance de motifs des réseaux neuronaux avec le raisonnement explicite et composable de l'IA symbolique (comme exploré par le MIT-IBM Watson Lab) pourrait surmonter la barrière des « problèmes d'insight ».
  • Objectifs d'apprentissage autodirigés : Développer des algorithmes de motivation intrinsèque permettant aux systèmes de générer leurs propres objectifs d'apprentissage, dépassant ainsi les fonctions de perte définies par l'humain. C'est un domaine naissant de la recherche en IA.
  • Nouvelle science de l'évaluation : Créer des benchmarks qui testent explicitement la généralité (G) et l'autonomie (A), peut-être via des suites de défis ouverts, générées automatiquement, qui sondent les compétences en méta-apprentissage et en formulation de problèmes.

L'« application » la plus immédiate de cette analyse concerne la politique et l'investissement : les régulations devraient se concentrer sur les préjudices concrets et à court terme des systèmes biaisés ou peu fiables, pas sur une prise de contrôle spéculative par l'IAG. Les investissements devraient être dirigés vers la recherche fondamentale qui réduit la dette anthropogène, et pas seulement vers la mise à l'échelle des données et des paramètres.

9. Perspective de l'analyste critique

Idée centrale : L'industrie de l'IA souffre d'un grave cas de « myopie de la sortie ». Nous sommes fascinés par des textes fluides et des images époustouflantes, confondant prouesse statistique et compréhension. La « dette anthropogène » de Roitblat est le terme parfait pour cette dépendance cachée. C'est l'éléphant dans la salle des serveurs. Chaque « percée » est, à l'examen, un témoignage de l'ingéniosité humaine dans la curation des données et la formulation des problèmes, pas d'une intelligence née de la machine. La vraie histoire n'est pas la puissance de l'IA ; c'est l'immense, et souvent invisible, main-d'œuvre humaine qui la rend puissante.

Enchaînement logique : L'argument est d'une simplicité dévastatrice et logiquement irréfutable. 1) Définir l'objectif (l'IAG comme résolution autonome et générale de problèmes). 2) Examiner l'outil (GenAI comme appareilleur de motifs sur des données humaines). 3) Identifier l'inadéquation (le fonctionnement central de l'outil dépend d'un prétraitement humain). 4) Diagnostiquer l'erreur (confondre la sortie de l'outil avec les exigences de l'objectif). 5) Exposer le défaut systémique (méthodes d'évaluation incapables de distinguer mémorisation et compréhension). Ce n'est pas de la philosophie ; c'est de la responsabilité d'ingénierie de base.

Forces & Faiblesses : Sa force est sa critique fondamentale. Elle attaque la prémisse de tout le récit « l'IAG est proche » en questionnant l'architecture même de l'espoir. Sa faiblesse, peut-être, est qu'elle ne s'engage pas pleinement avec le contre-argument de l'émergence — la possibilité que de nouvelles capacités qualitatives (comme le raisonnement en chaîne de pensée) émergent à grande échelle d'une manière que nous ne comprenons pas encore. Cependant, l'article rétorque à juste titre que l'émergence n'est pas magique ; elle reste limitée par l'objectif d'entraînement $\mathcal{L}_{LLM}$. On ne peut pas faire émerger l'autonomie d'une fonction de perte qui n'a pas de terme pour elle.

Perspectives actionnables : Pour les décideurs politiques : Ignorez le battage médiatique de science-fiction. Régulez ce qui est devant vous : vie privée des données, biais algorithmiques, déplacement de la main-d'œuvre et coût environnemental de l'entraînement. Un « interrupteur d'arrêt d'urgence » pour un modèle qui ne peut pas lacer ses propres chaussures est du théâtre de sécurité. Pour les investisseurs : Soyez profondément sceptiques envers toute entreprise dont la valorisation repose sur l'atteinte de l'IAG. Pariez sur des entreprises résolvant des problèmes spécifiques et précieux avec une IA robuste, pas sur celles vendant du « vaporware » d'IAG. Pour les chercheurs : Arrêtez de courir après les classements de benchmarks. Commencez à concevoir des expériences qui tentent délibérément de briser l'illusion de compréhension de votre modèle. Poursuivez des architectures qui minimisent la dette anthropogène. La voie à suivre ne passe pas par plus des mêmes données, mais par des principes d'apprentissage fondamentalement différents. L'horloge ne compte pas à rebours vers l'IAG ; elle compte à rebours vers le moment où nous réaliserons que nous avons optimisé la mauvaise fonction.

10. Références

  1. Roitblat, H. L. (Source PDF). Some things to know about achieving artificial general intelligence.
  2. Chollet, F. (2019). On the Measure of Intelligence. arXiv preprint arXiv:1911.01547.
  3. Lu, Y., et al. (2024). [Référence sur les LLM suivant des instructions].
  4. Harris, J., Harris, T., & Beal, B. (2024). The Gladstone Report. U.S. Department of State.
  5. Center for AI Safety. (2023). Statement on AI Risk. https://www.safe.ai/work/statement-on-ai-risk
  6. Future of Life Institute. (2023). Pause Giant AI Experiments: An Open Letter. https://futureoflife.org/open-letter/pause-giant-ai-experiments/
  7. Harnad, S. (1990). The Symbol Grounding Problem. Physica D: Nonlinear Phenomena, 42(1-3), 335–346.
  8. Zhu, J., et al. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. Proceedings of the IEEE International Conference on Computer Vision (ICCV). (CycleGAN comme exemple d'apprentissage sans données appariées et sélectionnées par l'humain — un petit pas pour réduire une forme de dette anthropogène).
  9. DeepMind. (2024). SIMA: Generalist AI Agent for 3D Virtual Environments. https://www.deepmind.com/sima (Exemple de recherche s'orientant vers des agents incarnés construisant des modèles du monde).