Utilisation des modèles conversationnels VII : Réflexions et conclusions

Après ce tour d’horizon de l’utilisation des modèles conversationnels, je voudrais partager avec vous quelques rélexions personnelles, à la fois concernant leur utilisation mais aussi les opportunités et risques qui leur sont propres.

L’utilisation de ces modèles, que ce soit pour la question initiale ou le dialogue ultérieur, s’améliore avec la pratique et le temps. Les articles précédents doivent être vus comme des illustrations de ma propre pratique après quelques mois mais il est possible d’aller plus loin en termes d’utilisation. Un peu comme l’utilisation des engins de recherche que nous avons appris à apprivoiser au fil des années.

Si vous voulez aller plus loin et approfondir vos connaissances, je vous conseille le guide du Prompt Engineering qui est accessible ici.

Il y a aussi une dimension sociale à l’apprentissage de ces outils. De nombreux sites répertorient les meilleures pratiques identifiées par les utilisateurs et il est utile de les parcourir pour se familiariser avec leurs idées, alors qu’ils suivent la même courbe d’apprentissage. Vous trouverez ici un lien vers le site PromptVine qui contient une des plus grandes collections librement accessibles de prompts pour ChatGPT.

Ces modèles ont aussi pour avantage qu’ils peuvent étendre le champ des possibles. Je suis un programmeur assez moyen car c’est une compétence que je n’utilise que de manière assez sporadique. Mais ChatGPT remédie en partie à mes lacunes. Il suffit que je lui explique ce que je veux et je lui demande une première mouture du programme. Elle est en général imparfaite mais suffisante pour que je puisse l’utiliser comme point de départ et l’adapter. Et si j’éprouve d’autres difficultés, je peux toujours demander des éclaircissements ou d’autres blocs de code connexes (routines, fonctions…).

Pour rebondir là-dessus, cela ne se limite pas à la programmation au sens strict. Pour prendre un exemple personnel récent, je voulais utiliser un langage textuel pour décrire et générer les diagrammes de mon blog, mais je ne connaissais pas de langage permettant de le faire. J’ai demandé à ChatGPT non seulement de me proposer des langages de description graphiques mais aussi de générer une première mouture du code correspondant. C’est ainsi que j’ai appris à utiliser GraphViz et Mermaid qui répondent élégamment à mes besoins graphiques et me permettent maintenant de générer les diagrammes dont j’ai besoin par le truchement d’un premier codage via ChatGPT.

Bien utilisés par un esprit alerte, ces modèles poussent à la curiosité et à la découverte. La compétence horizontale et universelle de ces modèles en fait des assistants idéaux, non seulement pour exécuter des tâches précises, mais également pour enrichir et discuter librement d’idées partiellement formées.

Les modèles de langage sont certes assez doués pour générer des volumes importants de texte syntaxiquement corrects. Malheureusement, leur tendance structurelle à halluciner restreint leurs applications pratiques. Il subsiste toutefois un certain nombre de domaines dans lesquels la forme et l’originalité priment sur l’exactitude, et donc sont susceptibles d’être transformés en profondeur par les modèles de langage, comme :

  • Le support à la réalisation d’oeuvres de fiction sous toutes leurs formes : littérature, cinéma etc…, puisque dans ce cas seul le caractère plausible et créatif du texte importe et non son exactitude.
  • Les activités purement rédactionnelles, dans lesquelles l’effort principal est la génération du texte en tant que tel, alors que le contenu est déjà connu de l’utilisateur, qui pourra rapidement adapter le texte si besoin est. Ce champ d’action est assez large, et reprend par exemple de nombreuses activités marketing et promotionelles, la correspondance administrative etc…

Bien sûr, si les hallucinations peuvent être suffisamment réduites voire éliminées des modèles futurs, le champ applicatif s’élargira considérablement.

Pourquoi les Modèles de Langage ont-ils une fâcheuse tendance à halluciner? N’oublions pas que le modèle cherche toujours à prédire le mot le plus probable. En pratique, cela va parfois le pousser à « broder » une réponse là où il n’a pas été exposé à des données pertinentes. Et la pertinence des données est le second point faible. Ces modèles ont été entraînés grosso modo sur l’ensemble d’Internet et, vu la taille, il est pratiquement impossible d’éliminer les informations inexactes avant l’entraînement. Donc le modèle se retrouve parfois exposé à des informations erronées lors de son entraînement. Inexactitudes qu’ils n’hésitera pas à vous exposer fièrement à la première occasion.

Mais il y a pire : comme ces modèles sont utilisés pour générer du nouveau contenu sur internet (blogs, tweets…), qui va à son tour servir à entraîner la prochaine génération de modèles générationnels, on risque de se retrouver dans la situation du serpent qui se mord la queue…

Soit on arrive à mettre en place une réglementation qui permet d’identifier systématiquement le contenu autogénéré (par exemple via le watermarking) et on arrive progressivement à améliorer la pertinence des bases d’entraînement, soit on n’y arrive pas et les modèles divergent progressivement et deviennent de moins en moins fiables.

La régulation arrive toujours en retard, et c’est normal. Le RGPD est arrivé il y a environ cinq ans pour réglementer les réseaux sociaux et a suscité une prise de conscience progressive quant à la désinformation et le caractère confidentiel des données personnelles.

Maintenant il va falloir essayer de faire la même chose avec l’ Artificial Intelligence Act en cours de ratification par l’Union Européenne, loi qui doit d’ailleurs être modifiée pour tenir compte des modèles génératifs qui sont apparus en plein milieu du processus législatif…

Un dernier rappel sur la sécurité : actuellement toutes vos intractions avec ChatGPT sont envoyées à OpenAI et cela pose un sérieux souci de confidentialité. Il en est de même pour les autres modèles. Cela semble difficilement acceptable pour de nombreuses applications en entreprise, sans parler des données personnelles, qui sont allergiques à tout voyage transatlantique…

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.