Dans un billet publié le 15 janvier 2026, George Hotz (alias geohot, hacker connu et fondateur de Comma.ai) critique violemment les choix d’Anthropic dans la conception de leurs modèles IA, en particulier Claude 2. Il s’interroge sur la stratégie de la startup : viser une IA sûre avant même de viser une IA utile.
Ce billet, sobrement intitulé “Anthropic: huge mistake”, a été rapidement repris sur Hacker News, générant une discussion importante sur la direction actuelle du développement des modèles dits “alignés”.
Hotz y compare Anthropic à OpenAI, qu’il considère comme pragmatique et tourné vers l’utilisabilité, et reproche à Anthropic un excès de prudence qui affaiblit l’impact actuel de leurs modèles.
Signal clivant : George Hotz publie un billet intitulé « Anthropic: huge mistake » dans lequel il critique frontalement la stratégie de sécurité d’Anthropic, qu’il juge contre-productive tant que les modèles ne sont pas plus utilement performants.
Il défend une ligne plus expérimentale, assumant les risques contrôlés et dénonçant l’idéologie qu’il perçoit derrière la prudence d’Anthropic. Ce billet relance le débat entre sécurité a priori et itération pragmatique dans le développement des IA génératives.
L’article est disponible ici : https://geohot.github.io//blog/jekyll/update/2026/01/15/anthropic-huge-mistake.html.
George Hotz remet publiquement en question une des convictions fondamentales d’une partie de la recherche IA actuelle : l’idée que l’alignement doit précéder l’efficacité. Il affirme que cette approche ralentit le progrès sans offrir de véritable garantie de sécurité.
Cette position alimente un débat stratégique de plus en plus polarisé : vaut-il mieux construire progressivement des outils puissants et les aligner ensuite, ou imposer de fortes contraintes en amont, quitte à restreindre les performances ?
La publication pourrait renforcer les critiques, notamment dans les milieux open source ou hacker, vis-à-vis du risque de dérive « moralisatrice » dans la conception des grands modèles.
Add new comment