Le programme LLMchat : une interface utilisateur pour accéder à ChatGPT via l’ API

Cet article est un peu différent des autres : il présente un interface logicielle permettant d’accéder à OpenAI ChatGPT sans passer par l’accès Web .

Le programe peut être téléchargé ici .

Attention : L’ installation et l’utilisation de ce programme présuppose que vous êtes familiarisé(e) avec le langage Python ainsi que les environnements virtuels et l’utilisation de Git / Github.

Les avantages de ce programme par rapport à l’interface web de l’OpenAI sont les suivants :

  • L’ interface vous permet de choisir entre ChatGPT3.5 et ChatGPT4, et d’utiliser ChatGPT4 même si vous n’avez pas l’abonnement ChatGPT+ (mais vous devez avoir un abonnement OpenAI API) ;
  • L’interface vous permet aussi de choisir les modèles ChatGPT-3.5 et ChatGPT-4 avec fenêtre de contexte étendue (respectivement 16k tokens et 32k tokens), attention cependant que ces modèles sont plus coûteux.
  • Vous pouvez estimer le nombre de tokens à envoyer et suivre la consommation de jetons de l’itération précédente et le total cumulé (pour l’estimation des frais liés à l’utilisation de l’ API) ;
  • Vous pouvez sélectionner la température du modèle (la quantité affichée est divisée par 100, donc 100 signifie que la température est égale à 1). Voir la partie « Utilisation » ci-dessous pour plus de détails sur la température.
  • Vous pouvez charger et sauvegarder les sessions de chat au format JSON (ce qui permet également la visualisation et l’édition hors ligne à l’aide d’un éditeur de texte).

1. Installation du programme

La procédure d’installation est la suivante :

  • Premièrement, téléchargez et installez le code source en utilisant la commande git clone https://github.com/ArnaudStevins/llmchat.git
  • Deuxièmement, allez dans le répertoire llmchat et créez un environnement virtuel Python en utilisant la commande python3 -m venv myenv
  • Troisièmement, activez l’environnement virtuel python en utilisant la commande source myenv/bin/activate
  • Quatrièmement, installez les paquets requis dans l’environnement en utilisant la commande pip install -r requirements.txt
  • Cinquièmement, ouvrez un éditeur de texte et stockez votre CLÉ d’API OpenAI dans un fichier .env dans le même répertoire que le fichier llmchat.py contenant le texte suivant :
      OPENAI_API_KEY=sk-xxxxxxxxxxxxxxxxxxx # (où vous remplacez xxxxxxx par  
      votre clé)

Et maintenant, vous pouvez taper la commande python llmchat.py pour démarrer le programme.

2. Utilisation du programme

Voici un aperçu de l’interface utilisateur et de ses différentes fonctionnalités :

Figure 1 : Aperçu de l’interface utilisateur de llmchat

Un des grands avantages du programme llmchat est qu’il permet d’évaluer et de suivre la consommation de tokens qui sont les unités qui servent à la facturation de l’API. Il est donc utile de faire quelques rappels relatifs aux tokens:

  • Les tokens sont une découpe du texte définie par le modèle qui ressemblent à des syllabes sans toutefois leur correspondre. Tout texte soumis au modèle ou renvoyé par ce dernier est comptabilisé sous forme de tokens.
  • Ces tokens servent à deux choses :
    • Comptabiliser les frais d’utilisation de l’ API, qui est basé sur un coût par 1000 tokens. Le coût varie suivant que les tokens font partie de la question ou de la réponse.
    • Vérifier que l’on reste endéans les limites de la fenêtre de contexte. Le texte de la question et de la réponse ne peut dépasser cette dernière.
  • A chaque nouvelle question dans un dialogue, l’ensemble du dialogue qui précède (questions et réponses) est renvoyé au modèle dans la nouvelle question. Ceci a pour conséquence que les dialogue contenant plus de questions sont nettement plus coûteux. Ne continuez un dialogue que si vous voulez approfondir ou clarifier un point, et si vous changez de fil dans la discussion, pensez à démarrer un nouveau dialogue.

La température permet de spécifier le niveau de créativité du modèle. Une température de 0 donnera une réponse déterministe, et donc la même réponse sera systématiquement donnée à la même question. Au plus la température sera proche de 1, au plus la réponse sera stochastique et donc la même question donnera lieu à des réponses différentes.

Utilisez une température de zéro si vous voulez des réponses prévisibles, comme par exemple pour générér du code informatique. Utilisez une température élevée pour des applications plus créatives (rédaction de fiction ou de textes marketing etc…).

3. Inscription à l’accès API d’OpenAI

Tout d’abord, vous devez avoir un compte OpenAI. Vous pouvez le faire en accédant au site web d’OpenAI et en cliquant sur Sign Up en haut à droite. Complétez ensuite le processus d’enregistrement, qui est assez standard.

Ensuite, allez sur la page principale de l’API OpenAI ici, et regardez votre nom de compte en haut à droite. Cliquez sur votre nom et sélectionnez View API Keys sur la droite.

Vous êtes maintenant prêt à créer votre clé. Cliquez sur le bouton Create New Secret Key, donnez un nom à la clé et cliquez sur Create Secret Key. Copiez ensuite immédiatement la clé dans le presse-papiers et collez-la dans un endroit sûr, car elle n’est plus accessible depuis le site web d’OpenAI. C’est par exemple un bon moment pour la coller dans le fichier .env de llmchat.

Ensuite, vous devrez configurer la facturation. Pour cela, cliquez sur Billing dans le menu de gauche et cliquez sur Payment Methods, ajoutez une carte de crédit et effectuez un prépaiement en cliquant sur Add to credit balance.

Enfin, il est conseillé de fixer des limites d’utilisation en cliquant sur Usage Limits afin d’éviter les mauvaises surprises. Notez que les Usage limits sont définies par vous, tandis que les Rate limits sont des limites d’utilisation générales applicables à tous ceux qui utilisent l’API, et qui ne peuvent être modifiées.

4. Suivi des coûts d’utilisation de l’ API

Pour plus de détails sur le coût d’utilisation de l’API OpenAI en fonction du modèle : cliquez ici.

Notez que les coûts par token sont différents pour la question (prompt) et la réponse (completion), ce qui explique pourquoi l’interface utilisateur de llmchat fait la distinction.

Pour suivre vos coûts d’utilisation en temps réel : cliquez ici.