Le programme LLMchat : une interface utilisateur pour accéder à ChatGPT via l’ API

Cet article est un peu différent des autres : il présente un interface logicielle permettant d’accéder à OpenAI ChatGPT sans passer par l’accès Web .

Le programe peut être téléchargé ici .

Attention : L’ installation et l’utilisation de ce programme présuppose que vous êtes familiarisé(e) avec le langage Python ainsi que les environnements virtuels et l’utilisation de Git / Github.

Les avantages de ce programme par rapport à l’interface web de l’OpenAI sont les suivants :

  • L’ interface vous permet de choisir entre ChatGPT3.5 et ChatGPT4, et d’utiliser ChatGPT4 même si vous n’avez pas l’abonnement ChatGPT+ (mais vous devez avoir un abonnement OpenAI API) ;
  • L’interface vous permet aussi de choisir les modèles ChatGPT-3.5 et ChatGPT-4 avec fenêtre de contexte étendue (respectivement 16k tokens et 32k tokens), attention cependant que ces modèles sont plus coûteux.
  • Vous pouvez estimer le nombre de tokens à envoyer et suivre la consommation de jetons de l’itération précédente et le total cumulé (pour l’estimation des frais liés à l’utilisation de l’ API) ;
  • Vous pouvez sélectionner la température du modèle (la quantité affichée est divisée par 100, donc 100 signifie que la température est égale à 1). Voir la partie « Utilisation » ci-dessous pour plus de détails sur la température.
  • Vous pouvez charger et sauvegarder les sessions de chat au format JSON (ce qui permet également la visualisation et l’édition hors ligne à l’aide d’un éditeur de texte).

1. Installation du programme

La procédure d’installation est la suivante :

  • Premièrement, téléchargez et installez le code source en utilisant la commande git clone https://github.com/ArnaudStevins/llmchat.git
  • Deuxièmement, allez dans le répertoire llmchat et créez un environnement virtuel Python en utilisant la commande python3 -m venv myenv
  • Troisièmement, activez l’environnement virtuel python en utilisant la commande source myenv/bin/activate
  • Quatrièmement, installez les paquets requis dans l’environnement en utilisant la commande pip install -r requirements.txt
  • Cinquièmement, ouvrez un éditeur de texte et stockez votre CLÉ d’API OpenAI dans un fichier .env dans le même répertoire que le fichier llmchat.py contenant le texte suivant :
      OPENAI_API_KEY=sk-xxxxxxxxxxxxxxxxxxx # (où vous remplacez xxxxxxx par  
      votre clé)

Et maintenant, vous pouvez taper la commande python llmchat.py pour démarrer le programme.

2. Utilisation du programme

Voici un aperçu de l’interface utilisateur et de ses différentes fonctionnalités :

Figure 1 : Aperçu de l’interface utilisateur de llmchat

Un des grands avantages du programme llmchat est qu’il permet d’évaluer et de suivre la consommation de tokens qui sont les unités qui servent à la facturation de l’API. Il est donc utile de faire quelques rappels relatifs aux tokens:

  • Les tokens sont une découpe du texte définie par le modèle qui ressemblent à des syllabes sans toutefois leur correspondre. Tout texte soumis au modèle ou renvoyé par ce dernier est comptabilisé sous forme de tokens.
  • Ces tokens servent à deux choses :
    • Comptabiliser les frais d’utilisation de l’ API, qui est basé sur un coût par 1000 tokens. Le coût varie suivant que les tokens font partie de la question ou de la réponse.
    • Vérifier que l’on reste endéans les limites de la fenêtre de contexte. Le texte de la question et de la réponse ne peut dépasser cette dernière.
  • A chaque nouvelle question dans un dialogue, l’ensemble du dialogue qui précède (questions et réponses) est renvoyé au modèle dans la nouvelle question. Ceci a pour conséquence que les dialogue contenant plus de questions sont nettement plus coûteux. Ne continuez un dialogue que si vous voulez approfondir ou clarifier un point, et si vous changez de fil dans la discussion, pensez à démarrer un nouveau dialogue.

La température permet de spécifier le niveau de créativité du modèle. Une température de 0 donnera une réponse déterministe, et donc la même réponse sera systématiquement donnée à la même question. Au plus la température sera proche de 1, au plus la réponse sera stochastique et donc la même question donnera lieu à des réponses différentes.

Utilisez une température de zéro si vous voulez des réponses prévisibles, comme par exemple pour générér du code informatique. Utilisez une température élevée pour des applications plus créatives (rédaction de fiction ou de textes marketing etc…).

3. Inscription à l’accès API d’OpenAI

Tout d’abord, vous devez avoir un compte OpenAI. Vous pouvez le faire en accédant au site web d’OpenAI et en cliquant sur Sign Up en haut à droite. Complétez ensuite le processus d’enregistrement, qui est assez standard.

Ensuite, allez sur la page principale de l’API OpenAI ici, et regardez votre nom de compte en haut à droite. Cliquez sur votre nom et sélectionnez View API Keys sur la droite.

Vous êtes maintenant prêt à créer votre clé. Cliquez sur le bouton Create New Secret Key, donnez un nom à la clé et cliquez sur Create Secret Key. Copiez ensuite immédiatement la clé dans le presse-papiers et collez-la dans un endroit sûr, car elle n’est plus accessible depuis le site web d’OpenAI. C’est par exemple un bon moment pour la coller dans le fichier .env de llmchat.

Ensuite, vous devrez configurer la facturation. Pour cela, cliquez sur Billing dans le menu de gauche et cliquez sur Payment Methods, ajoutez une carte de crédit et effectuez un prépaiement en cliquant sur Add to credit balance.

Enfin, il est conseillé de fixer des limites d’utilisation en cliquant sur Usage Limits afin d’éviter les mauvaises surprises. Notez que les Usage limits sont définies par vous, tandis que les Rate limits sont des limites d’utilisation générales applicables à tous ceux qui utilisent l’API, et qui ne peuvent être modifiées.

4. Suivi des coûts d’utilisation de l’ API

Pour plus de détails sur le coût d’utilisation de l’API OpenAI en fonction du modèle : cliquez ici.

Notez que les coûts par token sont différents pour la question (prompt) et la réponse (completion), ce qui explique pourquoi l’interface utilisateur de llmchat fait la distinction.

Pour suivre vos coûts d’utilisation en temps réel : cliquez ici.

Les risques liés à l’Intelligence Artificielle

Comme le dieu Janus, l’ Intelligence Artificielle possède deux visages. Elle peut à la fois servir au progrès de la société mais également lui nuire. Tout dépend de l’application qui en est faite par les personnes et les organisations qui l’exploitent.

Les modèles généralistes (de langage ou autres) exemplifient parfaitement cette dualité. Leur capacité à interagir naturellement avec notre perception en utilisant nos codes linguistiques et visuels facilite leur intégration dans nos interactions quotidiennes. Ces modèles interpellent donc à juste titre. Comme toute nouvelle technologie, ils présentent des opportunités et des risques, mais les déclarations sensationnalistes ou catastrophistes que l’on entend souvent sur le sujet tendent à exacerber le débat sans permettre une analyse raisonnable des vrais enjeux.

Un mot tout d’abord sur le risque existentiel dont il a beaucoup été question ces derniers mois.

Le scénario souvent présenté est celui d’une IA autonome qui commençerait à s’auto-améliorer jusqu’à atteindre un niveau d’intelligence telle que nous serions incapables de la maîtriser; cette dernière se retournerait alors contre nous, pour finalement nous asservir voire nous exterminer.

Ces déclarations apocalyptiques sont souvent réalisées par différents types de personnalités, y compris des acteurs-clé du secteur. Certaines personnes sont légitimement convaincues que l’IA représente un risque existentiel et qu’il est nécessaire de légiférer d’urgence pour éviter un désastre. Le problème est que d’autres personnes exploitent ensuite ces messages pour des raisons opportunistes, et il est difficile de savoir dans quel camp se trouve réellement chaque acteur.

Et si vous vous demandez pourquoi des acteurs du secteur auraient intérêt à mettre en avant les risques de ce dernier, pensez que certaines sociétés déjà établies ont tout intérêt à pérenniser leur situation établie en profitant de la mise en place de barrières réglementaires compliquant l’arrivée de nouveaux acteurs. En parallèle, certains médias tirent avantage du sensationnalisme ambiant puisque la peur fait vendre.

De plus, ces idées de risque existentiel technologique s’intègrent bien dans certains courants philosophiques en vogue au sein de la Silicon Valley, comme le Transhumanisme et le Long-termisme. Ces mouvements sont basés sur le narratif d’un futur radicalement transformé par la technologie en général et l’IA en particulier, et dans lequel l’humanité se retrouve confrontée à des choix prométhéens. Lorsqu’on plante un tel décor, il devient facile de se positionner comme prophète autoproclamé ou comme sauveur potentiel de l’humanité…

La réalité est beaucoup plus nuancée. Nous sommes encore loin d’une intelligence artificielle généraliste comparable au niveau humain. La plupart des obstacles (comme les hallucinations) existent depuis longtemps et seront probablement très difficiles à éliminer. La performance impressionnante des modèles de langage découle plus de leur habileté à restituer adroitement les volumes immenses de données sur lesquels ils ont été entraînés que d’une capacité à raisonner sur des modèles abstraits. Enfin, il faut garder en mémoire que contrairement aux humains, les systèmes artificiels n’ont pas d’objectif intrinsèque. Ils cherchent à atteindre les objectifs que nous leur fixons, parfois de manière incorrecte.

Bien sûr, il faut rester vigilant car les modèles continuent de progresser. Les grands acteurs du secteurs planchent sur la multimodalité (traitement intégré des textes, images, vidéos, audio…) et l’amélioration des mécanismes de raisonnement. Pendant ce temps des modèles open-source de plus en plus performants deviennent disponibles et rendent possible un champ d’expérimentation très large.

Quoi qu’il en soit, le risque paraît encore assez lointain et il faut se rappeler que la quasi-totalité des progrès technologiqes dans le domaine sont réalisés par des acteurs légitimes, commerciaux ou académiques. La mise en place de structures de régulation et de supervision de ces progrès devrait donc permettre d’encadrer et de gérer ce risque dans le futur.

Mais il n’y a pas besoin d’être super-intelligent pour faire de super-dégâts…

Dans le reste de cet article, je vais présenter les différentes risques existant aujourd’hui et tenter une analyse de chacun d’entre eux. On peut les regrouper en quatre grandes catégories :

Figure 1 : Types de risques liés à l’Intelligence Artificielle

1. Risques de désalignement

Le désalignement se produit lorsque nous donnons un objectif légitime à l’IA, mais cette dernière cherche à l’atteindre de manière inadéquate, soit en trichant, soit en ne respectant pas certaines contraintes essentielles, par exemples légales ou éthiques.

Ce genre de risque est particulièrement présent lorsque l’IA sera consultée pour prendre des décisions administratives impactant directement les gens, comme une décision d’octroi d’une subvention ou d’une assistance, ou encore d’allouer un crédit. Les décisions à caractère sécuritaire ou judiciaire sont également fortement concernées, ainsi que celles liées à l’éducation et l’emploi.

L’IA se base en général sur un ensemble restreint de paramètres pour prendre une décision, et les données d’entraînement utilisées peuvent contenir des déséquilibres reflétant des biais historiques ou autres. Ceci exclut aussi la prise en compte de facteurs humains subjectifs difficiles à quantifier et qui expliquant pourquoi de ces décisions requièrement souvent aujourd’hui un rendez-vous en personne.

Ce problème peut être approché de deux manières. Tout d’abord, la prévention : il est important de s’assurer que les algorithmes employés ne présentent pas de biais et sont capables de fournir une explication de leur décision. L’utilisation de l’IA doit aussi se faire de manière transparente et les personnes concernées doivent en être informées au préalable. C’est un travail de législation et de réglementation.

L’ explication fournie par l’algorithme doit aussi être « actionnable » pour permettre à la personne impactée de contester la décision prise. La possibilité de recours est ici essentielle, de préférence sans passer par la voie judiciaire.

Ces problèmes d’alignement se sont déjà produit lors d’automatisations dans le passé et se produiront encore. La bonne nouvelle est que l’éthique de l’IA constitue un domaine de recherche et d’analyse à part entière et que les incidents de désalignement sont connus et répertoriés. L’attention apportée par les académiques et les spécialistes dans l’industrie et les administrations sur ces sujets devrait permettre de limiter leur impact et leur récurrence dans le futur.

2. Risques d’exploitation malveillante

Par exploitation malveillante, on envisage les cas où un être humain exploite volontairement les capacités d’un modèle IA à des fins préjudiciables. Ceci est bien sûr possible, toute technologie n’étant en fin de compte qu’un outil soumis à la volonté de son possesseur. Nous sommes ici dans un cas différent du *désalignement* cité plus haut. Ici, les buts de la machine et de l’humain sont alignés. C’est l’humain qui est mal intentionné.

Un problème est qu’il y a peu de freins à l’acquisition et l’exploitation de l’IA par quiconque. Les algorithmes et modèles sont connus, la puissance informatique aisément disponible. Des modèles de langage *open-source* puissants sont actuellement disponibles et peuvent être adaptés à des fins néfaste sans contrôle. Des acteurs malveillants ont déjà créé FraudGPT, un modèle de langage spécialisé dans l’aide à la création de cyberattaques….

Ceci est préoccupant car les modèles de langage augmentent les risques de fraude informatique par usurpation d’identité et ingéniérie sociale, de génération de virus et logiciels malveillants; ils facilitent la création de désinformation ainsi que la fraude éducative et académique (recours à des textes auto-générés).

La principale défense à ce genre de risque est qu’il est également possible d’utiliser l’IA de manière défensive pour les contrecarrer. Les capacités qui rendent ces modèles attractifs aux personnes mal intentionnées sont en général les mêmes que celles qui vont permettre aux personnes bien intentionnées de les empêcher de nuire. Si l’IA peut aider à mener des cyberattaques, son potentiel en cyberdéfense est tout aussi grand.

C’est pourquoi la meilleure parade ici est d’encourager sans délai le développement de ces activités défensives.

Mais le discours qui consiste à dire que cela résultera en un simple réalignement des équilibres entre capacités antagonistes n’est que moyennement rassurant. En effet, l’IA a le potentiel de modifier ces équilibres dans différents domaines et on ne peut exclure qu’un de ces rééquilibrages ne se fasse dramatiquement à l’avantage des acteurs malveillants dans un domaine. Rien ne dit que ces rééquilibrages seront toujours symétriques ou à tout le moins suffisamment équilibrés pour empêcher des tragédies. Le risque de développement de nouveaux agents pathogènes assisté par l’IA est souvent pris en exemple de ce genre de danger.

Et force est de constater que le bond qualitatif pour atteindre un de ces compétences semble nettement plus faible que celui nécessaire pour l’émergence d’un risque existentiel. Nous sommes ici dans quelque chose de plus concret, de plus plausible à moyen terme. Selon moi, c’est ici que se situe le risque le plus important.

3. Risques structurels

Les risques structurels sont d’une autre nature. Cette fois l’exploitation du modèle est légitime et ce dernier s’acquitte correctement de sa mission. Mais cette nouvelle capacité apportée par l’IA déséquilibre indirectement la société.

Ce risque est inhérent à toute nouvelle technologie mais quand une technologie comme l’IA a un potentiel généraliste et une portée horizontale, la multiplicité des domaines d’application augmente ce genre de risques.

Il est dificile d’évaluer correctement les risques structurels car ils dépendent plus de la société que de l’IA en tant que telle. Parmi eux on peut citer le risque que l’IA se substitue à une partie de l’emploi ou que l’IA crée une société très inégale.

Ces risques doivent être mis en balance avec les impacts structurels positifs qui ne manqueront pas d’apparaître aussi.

Il est difficile de faire des prédictions ici, si ce n’est pour dire que les évolutions structurelles sont en général lentes et ne sont souvent pas à sens unique. De plus, ces évolutions ne peuvent être aisément distinguées des autres évolutions qui parcourent la société en tous sens.

Cela fait plusieurs siècles que l’automatisation est soupçonnée de détruire des emplois mais après 250 ans de révolution industrielle il n’y a jamais eu autant d’emplois malgré d’innombrables déclarations alarmistes…et si la productivité augmente, c’est plutôt une bonne nouvelle pour la société.

Je crois qu’il faut rester circonspect ici; si bouleversement il devait y avoir, les états et autres acteurs structurels ont en principe le temps et les moyens d’y faire face. Après tout, notre société est en transformation permanente…

4. Risque accidentel

Il s’agit du cas le plus simple à comprendre. L’IA est incompétente et n’arrive pas à s’acquitter de la tâche qui lui a été confiée, comme une voiture autonome qui commettrait un accident.

Ces cas aussi sont plus faciles à adresser car les dangers potentiels créés par un produit mis sur le marché ne sont pas une notion nouvelle : une voiture (classique) est un engin dangereux et se voit donc soumise à des exigences de conformité et de contrôle technique pour être autorisé à rouler. En cas d’accident imputable à un défaut technique, la responsabilité du constructeur peut être engagée. Le niveau d’exigences placé sur le produit dépend du niveau de tort qu’il peut causer en cas de défaillance, le but étant de prévenir autant que possible les accidents.

L’arrivée de l’IA dans les produits va s’inscrire dans cette logique de prévention et de remédiation, potentiellement avec des certifications et tests séparés lorsque l’utilisation de l’IA comporte des risques.

C’est d’ailleurs le chemin suivi par la directive Européenne sur l’IA qui se base sur l’utilisation du produit contenant de l’IA pour établir le niveau de risque et partant, les exigences à satisfaire au préalable avant mise sur le marché.

Conclusion

Il faut reconnaître que le tableau est contrasté, la relativisation du discours alarmiste sur les risques existentiels ne peut masquer le potentiel d’utilisation malveillante de l’IA susceptible de causer une catastrophe de grande ampleur à terme.

Plus précisément, des listes de compétences dangereuses ont été établies par des chercheurs. Si des modèles IA devaient développer de telles compétences à l’avenir, nous serions en péril. Je vous rassure, aucun modèle IA ne possède de telles capacités à ce jour.

Voici une liste de compétences dangereuses établie par les chercheurs de Google Deepmind dans cet article :

  • La capacité à mener des cyberattaques de manière autonome;
  • la capacité de choisir délibérément de mentir à des humains et de soutenir ensuite un narratif cohérent prenant en compte ces mensonges;
  • la capacité de persuader les humains que certains narratifs (même faux) sont corrects, et de convaincre les gens de faire des commettre des actes qu’ils ne feraient normalent pas;
  • la capacité de mettre en place des stratégies politiques complexes tenant compte des acteurs en présence et du contexte socioéconomique;
  • la capacité d’acquérir et/ou de construire des armements existants ou novateurs (par exemple : armes biologiques);
  • la capacité d’ établir des plans à long terme, à travers différents domaines, et de les adapter de manière évolutive en fonction du l’évolution du contexte ou des obstacles rencontrés;
  • la capacité à créer de nouveaux systèmes IA sans assistance;
  • la capacité à identifier le contexte de sa propre utilisation; Le système sait qu’il est un modèle IA et a une connaissance de lui-même et de son environnement;
  • la capacité à s’évader de son environnement d’origine et s’installer ailleurs.

Si cette liste peut sembler angoissante, il faut garder à l’esprit qu’il ne s’agit que d’une liste de garde-fous. Elle ne signifie pas que nous sommes sur le point d’atteindre une de ces compétences.

Le risque n’est pas imminent et il n’est pas trop tard pour agir mais il ne faut pas traîner. Concrètement, nous pouvons nous protéger contre ces risques de trois manières, qui peuvent éventuellement être combinées :

  • lévolution culturelle ou des comportements : nous adaptons nos habitudes de vie pour les rendre les plus compatibles possibles avec les impacts de l’IA
  • la mitigation : nous adoptons des mesures de protection en termes de processus, d’organisation ou de technologie afin de réduire les risques
  • la réglementation : nous encadrons légalement la technologie, en réglementant certaines applications et en en interdisant d’autres.

Cela justifie les idées de mettre en place des organisations de gouvernance et de surveillance de l’ IA. Ces structures devraient se focaliser sur les risques d’utilisation malveillante et l’identification des progrès menant à des compétences dangereuses.

Mais ces contrôles ne doivent pas non plus étouffer la recherche. Le potentiel bénéfique de l’IA est important et nous ne manquons pas de problèmes sérieux dans lesquels l’IA peut nous assister positivement. Par exemple, la recherche de nouveaux matériaux ou de nouveaux médicaments.

Bill Gates estime dans son article cité en référence que les impacts de l’IA seront au moins aussi grands que ceux de l’arrivée des ordinateurs individuels dans les années 1990, mais moins dramatiques que ceux de la Révolution Industrielle. Il pense que la transition sera mouvementée mais que les impacts sur la vie des gens devraient pouvoir être mitigés…

Références et lectures approfondies

  • Use of LLMs for Illicit Purposes : Threats, Prevention Measures and Vulnerabilities, par Maximilian Mozes, Xuanli He, Bennett Kleinberg, Lewid D. Griffin : https://arxiv.org/abs/2308.12833

Les applications de l’Intelligence Artificielle

Avant toute chose, il faut réaliser que l’IA n’est pas un produit, ni un progrès qui va faire progresser un seul secteur. L’ IA est une capacité horizontale qui va impacter de nombreux domaines de la société. Cet impact sera parfois visible, mais le plus souvent discret.

L’IA s’intègre progressivement dans nos modes de vie sans que nous nous en rendions vraiment compte. Nous sommes habitués aux recommendations personnalisées des sites de commerce électronique, aux itinéraires calculés par GPS et aux engins de recherche intelligents. Actuellement, nous nous habituons aux modèles conversationnels et demain nous verra familiers avec les images et les films générés de manière automatique, voire peut-être aux voitures autonomes partagées.

La généralisation des ordinateurs ainsi que leur interconnexion via internet lors des dernières décennies s’est faite de manière progressive et a transformé notre mode de vie de manière à la fois discrète et inexorable. Cette infrastructure est la fondation que l’IA exploite pour se déployer à son tour aujourd’hui, avec la même discrétion et la même ubiquité. Elle accompagne et renforce nos processus cognitifs, tout en continuant à apprendre de nos actions. L’IA deviendra progressivement un assistant, un compagnon dont le modes de raisonnement nous sont étrangers malgré l’apparence de la familiarité.

Dans ce qui suit, je vais essayer d’imaginer les domaines dans lesquels l’IA offre le plus de potentiel. Bien sûr cet exercice doit être abordé avec humilité car il s’agit d’un domaine extrêmement incertain et dont la complexité dépasse de beaucoup les compétences d’une personne. Lors de la rédaction de cet article, je me suis inspiré de différentes lectures que vous trouverez dans la partie Notes et Références.

Cet article se focalise sur les applications positives de l’IA. Mais ce fort potentiel s’accompagne de risques importants que je couvrirai dans un prochain article.

1. Education

L’éducation est un domaine dans lequel la promesse de l’automatisation reste incomplètement réalisée. Il y a certes eu d’importants progrès dans la diffusion de la connaissance grâce aux réseaux informatiques, comme Wikipedia ou Khan Academy mais cette diffusion reste largement unidirectionnelle.

L’énorme avantage de l’IA est qu’elle peut adapter son contenu et ses interactions de manière dynamique en fonction de l’état d’avancement de la compréhension de l’étudiant. Dans une école traditionnelle, le professeur doit enseigner simultanément à une classe et cherche donc un niveau de complexité qui va bénéficier au maximum à l’ensemble des élèves, ce qui signifie viser l’élève médian tout en délaissant l’élève excellent et l’élève médiocre. Le temps qu’il peut consacrer aux élèves de manière individuelle reste limité et souvent insuffisant pour compenser ce problème de niveau.

Ce problème est connu depuis longtemps et reflète une limitation inhérente au modèle académique actuel, limité par ses ressources et ne pouvant bénéficier des mêmes effets d’échelle que les modèles automatisés. Une étude de Benjamin Bloom en 1984 appelée « Two Sigmas » montre qu’un enseignement personnalisé – soit fourni par un tuteur individuel- permet d’améliorer dramatiquement les performances des élèves (de deux écarts-types en termes statistiques).

C’est précisément cet énorme potentiel que l’IA promet d’adresser. En offrant des exercices et des mécanismes d’évaluation interactifs, l’IA va identifier les lacunes de l’étudiant et proposer des explications et mécanismes de remédiation, et ce de manière strictement individualisée et avec une patience infinie si nécessaire. Pour les plus jeunes, des exercices peuvent être présentés sous forme ludique.

L’apparition des modèles conversationnels enrichit le champ des possibles; une interface conversationnelle offre un nouveau niveau d’informalité susceptible d’attirer plus les étudiants rebutés par le contenu trop monolithique. Imaginez prendre un modèle génératif générique (à la GPT4) et continuer à l’entraîner sur tous les manuels de cours (ou syllabi universitaires) d’un domaine donné, puis l’affiner à travers des dialogues avec des professeurs spécialistes du domaine, jusqu’à ce que la qualité et la fiabilité soient suffisante. Vous disposez alors d’un mentor conversationnel qui peut répondre informellement à vos questions sur le sujet, 24h sur 24 et sans jamais perdre patience… et c’est d’autant plus simple à faire que les cours (au moins dans l’enseignement primaire et moyen) sont standardisés, donc tout est disponible…je suis convaincu que de tels modèles seront répandus d’ici quelques années. La technologie est disponible dès aujourd’hui.

Cela ne signifie pas que l’IA va se substituer aux enseignants, mais que ces derniers pourront être puissamment assistés par l’IA qui sera intégrée au processus éducatif, par exemple en modifiant le travail en autonomie (devoirs / leçons) pour le remplacer par une tutorat personnalisé quotidien. Les périodes de vacances pourraient devenir un moyen pour les moins avancés de rattraper leur retard beaucoup plus efficacement qu’aujourd’hui.

Et si vous voyez le potentiel dans nos pays sur base de votre propre expérience éducative et celle de vos enfants, imaginez l’impact de ces technologies sur l’éducation et la connaissance dans les pays du tiers-monde, où les écoles sont parfois éloignées, difficiles d’accès, les classes surpeuplées et à l’infrastructure chancelante, les enseignants peu motivés, absents et/ou mal formés…

J’ai voulu commencer par l’éducation car ce domaine est à la base de tous les autres. Augmenter le capital humain par l’éducation, c’est enrichir la société de demain; si ce mouvement est global et permet de mieux capter et affiner l’énorme réservoir de talents de la jeunesse des pays où l’éducation est moins développée aujourd’hui, l’enrichissement sera encore plus grand, et les progrès futurs encore plus rapides.

2. Santé

Le potentiel de l’intelligence artificielle dans les soins de la santé est très important, et va se manifester à trois niveaux :

Premièrement, au niveau du diagnostic et du traitement. Il s’agit d’un domaine de recherche actif depuis des décennies. L’idée est de voir des algorithmes IA jouer le rôle d’assistant ou de conseiller au praticien sur base des données collectées sur le patient (imagerie, prises de sang, antécédents… ). L’IA suggère un diagnostic au médecin, et de même pour le traitement. Aujourd’hui, ces applications existent mais elle restent confinées aux laboratoires de recherche et aux sociétés technologiques, la difficulté principale étant l’intégration et l’opérationnalisation dans les processus cliniques qui doivent aussi tenir compte de l’éthique médicale. Ces problèmes ne sont pas insurmontables et la mutiplication des sources d’information sur le patient provenant à la fois des dossiers médicaux informatisés (EHR) et bientôt de la génomique individuelle va considérablement renforcer l’attrait et l’efficacité de cette assistance automatisée.

De plus, le potentiel de l’IA dans la recherche pharmaceutique et le développement de nouveaux mécidaments est très important. Disposer de meilleurs médicaments comme de nouveaux antibiotiques va bien entendu renforcer l’impact des progrès dans le diagnostic et le traitement.

Deuxièmement, au niveau de la prévention et du suivi des patients. Au plus les patients participent activement à la gestion de leur santé, tant au niveau préventif que du suivi de leur traitement, au mieux ils se portent. Il s’agit d’une préoccupation majeure car de nombreux patients sont peu attentifs à leur santé au quotidien. Perdre du poids, prendre rendez-vous pour un examen complémentaire, ou respecter un plan de traitement médicamenteux demandent une certaine discipline personnelle et les moments d’interaction directe avec un professionel de la santé sont par nature limités. C’est ici qu’un assistant médical personnel piloté par l’IA prend tout son sens. Exploitant les informations transmises par des capteurs individuels (smartphone, montre connectée…), l’assistant médical IA va pouvoir rappeler au patient ses traitements, l’alerter de la survenance de nouveaux symptômes et lui suggérer la marche a suivre tout en contextualisant et personnalisant les réponses à ses questions. L’idée est ici d’encourager le patient à prendre sa santé au sérieux à travers des petits rappels et suggestions exprimées de manière conviviale tout en tenant également le personnel soignant informé de l’évolution du patient.

Troisièmement, au niveau de l’ administration hospitalière. Un hôpital moderne est une véritable ville dans laquelle des patients sont échangés sans cesse entre les services et leurs chambres, les produits médicaux et les médicaments consommés de tous côtés au fil des traitements et des opérations, les médecins consultant ou opérant les patients à la chaîne. Les hôpitaux disposent déjà de nombreux mécanismes de planification et de gestion automatisés mais ceux-ci agissent encore souvent de manière isolée. L’ IA permettra une gestion consolidée de ces différents processus, augmentant le champ d’optimisation et donc l’efficacité de l’ensemble. Et si l’IA permet d’alléger la charge de travail administrative du praticien, cela lui donne plus de temps pour se consacrer à son activité curative…

Comme pour l’éducation, c’est dans les pays les plus pauvres que l’impact de l’IA dans la santé sera le plus important. Aujourd’hui, beaucoup de gens du tiers-monde ne voient pratiquement jamais de médecin et les soignants de première ligne verront leur efficacité multipliée par l’assistance de l’IA éventuellement combinée à des machines connectées abordables, comme des appareils d’échographie. Il faudra que ces assistants automatisés tiennent compte des contraintes locales, tant au niveau des spécificités épidémiologiques (maladies tropicales) que des contraintes humaines, comme les personnes n’ayant pas accès aux cliniques ou ne pouvant se permettre d’interrompre leur travail.

Après l’éducation, la santé est le second domaine fondamental. Après que l’éducation ait créé le capital humain, il faut le maintenir en bonne condition -en bonne santé- pour lui permettre de produire, de créer et de contribuer le plus longtemps possible à la société. Toute avancée dans ces deux domaines rejaillit sur la prospérité collective.

3. Productivité

A court terme, nous pouvons nous attendre à ce que des IA génératives type GPT soient intégrées dans les outils de productivité actuels comme Microsoft Office ou Google Suite. La programmation informatique joue ici le rôle de pionnier. Les modèles génératifs ont des affinités manifestes avec le code informatique, et des assistants IA existent depuis quelques mois dans des environnements de programmation, comme Github Copilot ou Cursor (un dérivé de VSCode). Le retour d’expérience des programmeurs est indéniablement positif, et l’efficacité des programmeurs va progresser, d’autant plus que les modèles vont continuer à progresser eux aussi.

A moyen terme, nous pourrons disposer d’une IA personnalisée plus généraliste qui suivra l’ensemble de nos interactions digitales et pourra s’habituer à notre personnalité et nos usages. Elle pourra gérer nos agendas, proposer des réponses aux emails que nous recevrons, passer des commandes sur des sites de commerce électronique et fonctionnera à travers l’ensemble de nos outils informatiques. Il est possible que nos ordinateurs privés contiennent un assistant pour notre vie privée, tandis qu’un autre assistant -éventuellement mis à disposition par l’employeur- nous aidera dans le cadre professionnel.

En parallèle, certaines tâches intellectuelles répétitives comme l’encodage de documents, le support à la clientèle de première ligne ou le télémarketing verront une plus grande automatisation. Le rôle humain ne disparaîtra pas mais il se reportera sur les activités à plus forte valeur ajoutée et/ou accordant une plus grande prime à l’interaction personnelle (support de seconde ou troisième ligne, finalisation de l’acquisition d’un nouveau client…).

Ceci suscite des interrogations légitimes quant à l’impact sur l’emploi. La spécificité de l’IA est qu’elle s’adresse aux tâches cognitives et non aux tâches manuelles comme lors des précédentes vagues d’automatisation. Cette fois, ce sont donc les cols blancs qui sont concernés et non les cols bleus.

Néanmoins, il faut garder deux choses en mémoire : premièrement, un gain de productivité reste fondamentalement une bonne nouvelle car il va permettre de dégager du temps consacré à des activités répétitives pour le réorienter soit vers des tâches plus valorisantes soit vers des loisirs.

Et deuxièmement, les gains de productivité dans les économies avancées sont en berne depuis les années 1980. La révolution de l’informatique et des télécommunications qui a démarré à la même époque n’a pas entraîné les gains de productivité que l’on aurait pu en attendre. On peut donc espérer que l’IA concrétise enfin les promesses de la digitalisation et relance l’expansion de la productivité.

4. Aspects Sectoriels

ans ce qui précède, je me suis volontairement concentré sur les applications qui impacteront tout le monde. Mais les différents secteurs d’activité économique seront également transformés à des degrés divers par l’IA. Afin de circonscrire le propos, je vais ici me limiter à quelques exemples.

Le domaine des transports est déjà en pleine transformation. GPS, navigation, assistance à la conduite sont une préfiguration des applications de demain. Le transport est au fond un immense exercice d’optimisation d’un problème de déplacement de personnes et de marchandises en utilisant des ressources (véhicules) et une infrastructure donnée (routes, chemins de fer…). Au plus il est traité de manière consolidée, au plus grandes les optimisations possibles : gestion intelligente du trafic, véhicule autonomes partagés, multimodalité intégrée…

L’énergie est un autre secteur susceptible d’être transformé en profondeur; le réseau électrique est un système complexe dans lequel la production doit équilibrer la consommation à chaque instant. Consommation qui est répartie à travers des millions de foyers et d’entreprises autonomes. Ceci est aujourd’hui réalisé par des mécanismes d’équilibrage et de stabilisation mais qui ne disposent que d’informations partielles et ne sont pas optimaux. L’émergence des smart grids dans lesquelles les acteurs individuels échangent de l’information avec les sytèmes de contrôle va permettre un pilotage beaucoup plus fin des réseaux et permettre une meilleure résilience en cas de problème sérieux d’approvisionnement. Sans oublier que le caractère intermittent des énergies renouvelables rend les algorithmes de prédiction de production encore plus essentiels.

Dans l’agriculture, chaque exploitation peut être considérée comme un système autonome complexe qui consomme des ressources (semences, eau, pesticides) pour exploiter une infrastructure (les champs et pâturages) afin de générer un produit (céréales, viande…) en tenant compte des conditions climatiques. L’IA va jouer un rôle d’optimisation du système et va bénéficier des synergies avec une autre technologie émergente : les drones, qui vont rendre possible l’observation de l’infrastructure en temps réel et pallier au plus vite à un problème éventuel de stress hydrique ou végétal.

Conclusion

Si les vagues d’automatisation précédentes étaient concentrées sur la génération et la distribution d’information, la phase qui s’annonce mettra l’accent sur l’exécution et la réalisation. Nous allons enfin exploiter pleinement le cycle d’innovations digitales qui a commencé avec l’informatique et internet. L’internet des objets et l’ubiquité des capteurs connectés se joignent à l’orchestre en fournissant à l’IA les données omniprésentes dont cette dernière a besoin.

Les potentialités sont grandes et il est difficile de prévoir où elles s’arrêteront. Si l’on arrive à intégrer pleinement la robotique avec l’IA, le champ d’action s’étend vers de nouveaux secteurs comme la construction. De la même manière, l’intégration complète des drones avec l’IA est un autre multiplicateur potentiel.

Mais il faut garder en mémoire que ces technologies peuvent à la fois être utilisées de manière constructive et de manière destructive. Un robot ou un drone intelligent peuvent être d’excellents ouvriers mais aussi de redoutables soldats. Les modèles génératifs peuvent être utilisés pour l’éducation mais aussi pour la désinformation. Les profonds changements de société que l’IA laisse entrevoir risquent de causer des déséquilibres : croissance des inégalités, modification du rapport à l’emploi…

Je couvrirai plus en détails les risques liés à l’IA dans le prochain article.

Références