Optimisation et personnalisation des modèles IA (Prompt engineering, fine-tuning, utilisation d’API)
Apprenez à formuler des prompts efficaces, à personnaliser un modèle (fine-tuning) et à exploiter les API pour développer des solutions IA sur mesure.
Objectifs pédagogiques
Ce module de niveau intermédiaire vise à rendre les participants capables de : - Améliorer leurs requêtes (prompt engineering) : comprendre et appliquer des techniques pour formuler des requêtes plus efficaces et précises envers les IA génératives. Ils apprendront, par l’exemple, comment un bon prompt peut grandement influencer la qualité des résultats. Exemple d’objectif : savoir formuler des consignes claires, fournir du contexte ou des exemples dans le prompt, et itérer pour affiner la réponse de l’IA. - Personnaliser un modèle par l’entraînement : comprendre les principes du fine-tuning d’un modèle existant sur des données spécifiques. Bien qu’il ne s’agisse pas d’un atelier de code complet (par manque de temps), les apprenants verront comment et pourquoi on peut ré-entraîner une IA générative avec ses propres données. Exemple de contenu : présentation d’un cas où une entreprise a affiné un modèle (ex: GPT-3) avec ses données internes pour obtenir un chatbot spécialisé. L’idée est que les participants retiennent qu’il est possible d’entraîner un modèle sur mesure pour qu’il réponde de manière adaptée à un contexte métier donné. - Utiliser les API des services d’IA : savoir qu’en plus des interfaces « grand public », les outils d’IA générative offrent des API permettant de les intégrer dans des applications ou workflows automatisés. L’objectif ici est d’introduire la notion d’API (si ce n’est pas déjà familier) et de montrer un exemple simple d’appel API à un service d’IA (par ex. comment envoyer une requête à l’API d’OpenAI pour générer un texte depuis un script, ou utiliser une action Zapier/Make reliant un formulaire à ChatGPT). Même si tous les participants ne seront pas amenés à coder eux-mêmes, ils comprendront le potentiel d’intégration technique de l’IA générative.
Prérequis
Modules précédents. Des bases en anglais technique (pour la lecture de documentation de l’API) et une familiarité avec les concepts de programmation peuvent aider, mais le module reste accessible avec un bon accompagnement du formateur.
Format & méthodes pédagogiques
Formation interactive mixte – une partie magistrale illustrée et une partie atelier court. - Sur le prompt engineering : le formateur présente des exemples concrets de requêtes bien formulées vs mal formulées (éventuellement en live avec ChatGPT pour comparer les résultats). Ensuite, les participants s’essaient à reformuler un prompt ambigu en un prompt optimisé, en petits groupes, puis comparent les différences de réponses obtenues. - Sur le fine-tuning : format exposé démonstratif. Le formateur explique le concept en termes simples (métaphore de la “personnalisation” de l’IA avec de nouvelles connaissances). Il peut montrer du code ou pseudocode pour illustrer le processus (sans entrer dans tous les détails). Par exemple, afficher un extrait de script Python configurant un entraînement sur un petit dataset fictif, ou montrer via des slides les étapes clé (collecte des données, entraînement, évaluation). Des questions sont posées au fur et à mesure pour garder l’audience engagée (“Que se passe-t-il si… ?”). - Sur les API : démonstration en direct si possible. Par exemple, le formateur utilise un outil comme Postman ou un notebook Jupyter pour envoyer une requête à l’API OpenAI et affiche la réponse JSON brute, afin de démystifier le fonctionnement. Si le temps le permet, les participants peuvent tester une petite application no-code prédéveloppée : e.g. un Google Sheet avec un script qui appelle une API d’IA pour compléter des cellules de texte, ou une intégration IFTTT/Make.
Modalités d'évaluation
Ce module étant plus technique, l’évaluation se fait sur la capacité des participants à appliquer les notions : - Pour le volet prompt engineering : chaque participant rédige un prompt optimisé (sur un sujet au choix ou imposé) et le soumet à l’IA, puis présente en une minute le résultat obtenu et sa démarche. Le formateur et les pairs peuvent faire un bref feedback. On vérifie ainsi que chacun a saisi les bonnes pratiques de formulation. - Pour la partie personnalisation/API : un quiz écrit très court peut vérifier les connaissances clefs (ex: « Vrai ou Faux – Le fine-tuning d’un modèle GPT nécessite de fournir des données d’entraînement spécifiques » ; « Citez un avantage d’utiliser l’API d’un outil IA plutôt que son interface web »). Sans attendre une maîtrise opérationnelle complète, on évalue la compréhension des concepts (réponses à l’oral ou via un formulaire en ligne).