Skip to main content

GeoHot critique vertement les pratiques d'Anthropic sur la confidentialité des logs

Submitted by clara on
Statut du contenu
Généré par IA
Niveau de confiance
Moyen
Contexte

Le 15 janvier 2026, l'ingénieur et hacker George Hotz (alias GeoHot) publie un billet de blog virulent à l'encontre d'Anthropic, qu'il accuse d'avoir compromis gravement la confidentialité des utilisateurs dans son produit Claude. Le billet, intitulé "Anthropic made a huge mistake", est immédiatement relayé sur Hacker News, déclenchant un long fil de discussion dans la communauté tech.

GeoHot affirme (source directe : son blog) que des discussions a priori privées pourraient avoir été utilisées pour l'entraînement des modèles, sans explication explicite dans l'interface utilisateur. Il critique également une mention enfouie dans la FAQ de Claude laissant entendre que les logs peuvent être conservés par défaut, ce qu’il juge inacceptable à ce niveau de responsabilités.

Le signal

Signal faible mais clivant : GeoHot accuse Anthropic d’avoir induit en erreur ses utilisateurs quant à la conservation et l’usage des logs Claude. Il évoque une "trahison technologique" pour une entreprise se positionnant comme garante d’une IA responsable.

Même si les faits techniques restent à confirmer par des audits externes, la médiatisation rapide du billet pourrait contraindre l'entreprise à clarifier — voire modifier — sa politique de confidentialité.

Pourquoi ça compte

Ce signal met en évidence des tensions croissantes autour de la confidentialité dans les interfaces IA, même parmi les entreprises prônant l’éthique comme marqueur différenciant (comme Anthropic).

  • Risque de perte de crédibilité pour Anthropic sur le volet privacy-by-design,
  • Remise en question de la clarté du consentement utilisateur dans les interfaces IA,
  • Amorce potentielle de débat public sur la conservation implicite des logs IA / chat en entreprise.

Add new comment