Lewis Campbell a réalisé une exploration approfondie de l'outil en ligne de commande (CLI) proposé par OpenAI pour interagir avec ChatGPT de manière locale, en utilisant une clé d’API personnelle via l’environnement OpenAI.
Contrairement à une simple interface textuelle, cette CLI expose plusieurs comportements révélateurs de ce que fait réellement le modèle : inspection des appels réseau, mise en cache locale, gestion des contextes, stockage temporaire des conversations.
La CLI officielle de ChatGPT n’est pas une simple interface texte mais un outil structurant fortement la relation à l’API. Elle conserve localement les prompts, les enrichit automatiquement (avec des éléments comme le nom du fichier ou la configuration de session) et injecte des comportements implicites comme la complétion contextuelle ou le formatage conversationnel.
Cette découverte renforce l’idée qu’une partie significative de l’expérience utilisateur est déterminée par le logiciel intermédiaire, et non par le modèle seul.
Le fonctionnement de cette CLI soulève des questions importantes sur la manière dont les requêtes sont formées, stockées et transmises. Certaines fonctionnalités évoquent une logique de sandbox ou de wrapper, et non de communication directe entre l'utilisateur et l'API brute.
Cela nourrit une interrogation croissante sur le statut exact de ces outils : sont-ils des passerelles neutres ou embarquent-ils une logique éditoriale, de filtrage ou même de pré-structuration du prompt ?
Add new comment