Le 15 janvier 2026, George Hotz (alias GeoHot) publie sur son blog un article cinglant intitulé "Anthropic Made a Huge Mistake". Il y critique vivement la décision d'Anthropic de créer un langage de sécurité déclaratif (RAL – Responsible AI Language) pour contraindre le comportement des LLMs plutôt que d’investir plus directement dans leur alignement comportemental profond.
L’article suscite un fort écho sur Hacker News et d'autres réseaux techniques, où GeoHot est régulièrement perçu comme une voix technique solide et provocatrice, notamment pour ses prises de position tranchées sur l'open source, l’alignement IA et les stratégies Big Tech.
Signal notable : GeoHot dénonce RAL (Responsible AI Language) comme une erreur stratégique majeure de la part d’Anthropic, considérant que “tenter d’écrire l’éthique en YAML”
Ce désaccord met en lumière la tension entre ingénierie du comportement IA par script de règles vs évolution de modèle, et pointe une possible crise de crédibilité pour les initiatives de “sécurité déclarative”.
Cette déclaration illustre une fracture croissante dans les stratégies IA :
- Visions opposées sur la régulation du langage généré : RAL comme couche externe vs alignement en amont par entraînement,
- Critique sévère d’un acteur majeur (Anthropic) par une personnalité très suivie de la scène IA/tech,
- Potentiel effet d’image sur la communauté open source, dans un contexte où la transparence et l’interopérabilité sont déjà débattues chez les leaders IA.
Cet épisode alimente le débat sur la pertinence des “couches éthiques articulées en langage” face à des approches d’alignement plus intégrées et techniques.
Add new comment