0% ont trouvé ce document utile (0 vote)
196 vues32 pages

Guide Formation IA & Prompt Engineering

Ce guide complet sur le prompt engineering enseigne comment formuler des prompts efficaces pour interagir avec des modèles de langage comme ChatGPT. Il aborde le fonctionnement des intelligences artificielles, les différents types de prompts, et les spécificités de plusieurs modèles tels que GPT, Claude, Mistral et Gemini. Le document souligne également l'importance de la clarté des prompts et les limites des modèles, notamment en matière de biais et de véracité des informations.

Transféré par

Hamidou Diatta
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
196 vues32 pages

Guide Formation IA & Prompt Engineering

Ce guide complet sur le prompt engineering enseigne comment formuler des prompts efficaces pour interagir avec des modèles de langage comme ChatGPT. Il aborde le fonctionnement des intelligences artificielles, les différents types de prompts, et les spécificités de plusieurs modèles tels que GPT, Claude, Mistral et Gemini. Le document souligne également l'importance de la clarté des prompts et les limites des modèles, notamment en matière de biais et de véracité des informations.

Transféré par

Hamidou Diatta
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Guide complet - IA & Prompt

Engineering

Bonjour et bienvenue dans ce guide complet sur le prompt engineering !

Au cours de ce programme, nous commencerons par comprendre ensemble ce


qu’est un prompt, comment fonctionne un modèle de langage comme ChatGPT,
puis nous plongerons dans des techniques concrètes pour construire des
prompts clairs, efficaces et parfaitement adaptés à vos besoins.

À la fin de cette formation, vous saurez :

●​ Comprendre comment fonctionne une intelligence artificielle


générative, sans jargon technique inutile, mais suffisamment pour en faire
un partenaire de travail intelligent.​

●​ Formuler des prompts efficaces, clairs et stratégiques que ce soit pour


créer du contenu, résoudre un problème, développer une idée, ou
automatiser une tâche.​

●​ Identifier les différents types de prompts et savoir quand utiliser l’un ou


l’autre que ce soit un prompt direct, un prompt conversationnel, un
prompt avec rôles, ou un prompt par itérations.​

●​ Corriger et affiner vos prompts au fil des essais : parce que le prompt
engineering, ce n’est pas magique, c’est un processus d’amélioration
continue où l’on apprend à ajuster ses demandes pour obtenir des
réponses toujours plus pertinentes.​

●​ Et surtout : développer une vraie autonomie.​


L’objectif, c’est qu’à la fin, vous n’ayez plus besoin d’exemples tout faits.​
Vous saurez construire vos propres prompts, adaptés à votre style, votre
activité, votre façon de penser.​

1- Introduction au Prompt Engineering

Vous avez déjà entendu parler de l’intelligence artificielle, ou peut-être même


utilisé ChatGPT ou un autre outil du genre.​
Et vous vous êtes posé une question simple :​
“Comment tirer le meilleur de ces outils ?”

La réponse tient en un mot : le prompt.

●​ Qu’est-ce qu’un prompt ?

Un prompt, c’est tout simplement une instruction que vous donnez à une
intelligence artificielle.​
C’est la manière dont vous communiquez avec elle.

Vous pouvez :

●​ lui poser une question,​

●​ lui demander d’écrire un texte,​

●​ lui faire jouer un rôle,​

●​ ou encore lui confier une tâche complexe.​

Le prompt, c’est votre façon de dire à l’IA ce que vous attendez d’elle.

Imaginez que l’IA, c’est votre employé. Et vous, vous êtes son manager.

Si vous expliquez très bien la mission à un employé compétent il vous fera du bon
travail.

Si vous êtes mauvais en délégation, même un bon employé ne vous donnera pas
le résultat escompté.

Un Prompt vague c’est par exemple :​

“Écris un article.”


L’IA va écrire… quelque chose. Peut-être un article de blog, ou un article
de journal… sans vraiment savoir ce que vous attendez.

Et un Prompt clair :

“Écris un article de 500 mots, pour un blog de cosmétiques bio, destiné


à des femmes de 25 à 40 ans, sur les bienfaits de l’aloe vera pour la
peau.”​
Là, l’IA comprend exactement quoi écrire, pour qui, et dans quel
style.
Mais comment ça fonctionne, une intelligence artificielle ?

Alors attention, on ne va pas entrer dans les détails techniques ici.​


Mais pour faire simple, imaginez que l’IA est comme un très grand jeu de
devinettes.

Chaque fois que vous lui écrivez quelque chose, elle essaie de prédire ce qui doit
venir ensuite.​
Un mot, une phrase, une idée.

Imaginez un enfant qui a lu tous les livres du monde, regardé toutes les vidéos
YouTube, et entendu toutes les conversations possibles.​
Mais il ne comprend pas le monde comme vous et moi. Il ne réfléchit pas
vraiment. Il fait juste des associations. Il devine.

Si vous commencez une phrase par :

“Aujourd’hui, j’ai mangé une…”​


Il va penser : “Banane ? Pizza ? Glace ?”​
Et il va choisir la réponse la plus probable en fonction de tout ce qu’il
a appris.

C’est exactement comme ça qu’un modèle de langage comme ChatGPT


fonctionne.

Pour Résumer,

●​ Un prompt, c’est une instruction que vous donnez à l’IA.​

●​ Plus il est clair, précis et structuré, plus la réponse sera pertinente.​

●​ L’IA ne comprend pas comme un humain, elle devine ce qui est le plus
logique.​

●​ Et votre mission, en tant que prompt engineer, c’est d’apprendre à lui


parler de la bonne manière.​

Dans la prochaine partie, nous verrons comment les modèles de langage


fonctionnent en coulisses, toujours avec des métaphores simples et des
exemples concrets.​
●​ Comment fonctionne un modèle de langage (LLM) en 3
mn chrono ?

Maintenant que vous savez ce qu’est un prompt, il est temps de comprendre à


qui vous parlez vraiment quand vous l’utilisez.

C’est-à-dire : comment fonctionne une intelligence artificielle comme ChatGPT


ou Claude et plus précisément, ce qu’on appelle un modèle de langage, ou LLM
(Large Language Model).

Alors pourquoi c’est important de comprendre ça ?

Parce que si vous savez comment l’IA réfléchit ou plutôt devine, vous saurez
mieux formuler vos prompts pour qu’elle vous donne des résultats utiles,
cohérents et percutants.

Ok, mais c’est quoi un modèle de langage ?

Un modèle de langage, c’est un programme entraîné à prédire le mot suivant


dans une phrase.

C’est tout. Pas plus, pas moins.

Il ne pense pas. Il ne comprend pas le sens comme un humain.​


Il ne connaît pas vos émotions, vos intentions ni vos objectifs.

Il fait simplement ça : “Deviner le mot suivant, puis encore le suivant, puis encore
le suivant…”

Imaginez que vous jouiez au jeu du “fin de phrase” avec un ami.​

Vous dites :

“Ce matin, je me suis réveillé avec une grande envie de…”

Et votre ami complète :

“…manger une crêpe.”​


Ou : “…tout casser.”​
Ou : “…partir en vacances.”

Il devine ce que vous vouliez dire à partir du contexte.

Eh bien, un LLM fait exactement la même chose. Mais à une vitesse folle, et avec
des milliards de phrases qu’il a vues pendant son entraînement.

Une autre image très simple.


Imaginez un enfant qui a lu tout Internet : tous les livres, tous les articles, toutes
les conversations sur les forums, les scripts de films, les posts sur les réseaux
sociaux…

Il n’a pas compris tout ce qu’il a lu, mais il a mémorisé les formes, les structures,
les habitudes de langage.

Et maintenant, quand vous lui parlez, il recrache des réponses en essayant de


copier ce qu’il a déjà vu des millions de fois.

Si vous écrivez dans un prompt :

“Les chats aiment dormir, et les chiens aiment…”

Le modèle va très probablement compléter avec :

“…jouer.”

Pourquoi ? Parce que dans les milliards de phrases qu’il a lues, c’est la suite la
plus fréquente, la plus probable dans ce contexte.

Mais attention :

Le modèle ne vérifie pas la vérité. Il ne fait pas de recherche sur Google.​


Il devine. Il statistiquement suppose ce qui semble correct.

Donc si votre prompt est flou ou ambigu, la réponse peut partir dans tous les
sens.

C’est pour ça que la qualité de votre prompt est essentielle.

Et c’est là que beaucoup de gens se trompent sur les LLM comme ChatGPT et l’IA
en général.

Les gens pensent qu’ils réfléchissent et qu’ils raisonnent.

Ce n’est pas du tout le cas.

Pour résumer :

●​ Un modèle de langage est un devineur de mots ultra puissant.​

●​ Il fonctionne grâce à tout ce qu’il a lu pendant son entraînement.​

●​ Il ne pense pas. Il prédit.​

●​ Et plus vous lui donnez un contexte clair et précis, plus il vous donne une
réponse utile.
2- Comprendre les modèles (sans trop se faire mal à la tête)

Maintenant nous allons plonger dans le cœur du réacteur : les modèles de


langage eux-mêmes.​
Mais rassurez-vous, l’objectif ici n’est pas de vous assommer avec des formules
mathématiques ou du vocabulaire de laboratoire.

Au contraire : on va comprendre l’essentiel, de manière claire, simple, sans


jargon… mais avec suffisamment de précision pour que vous sachiez ce que vous
utilisez vraiment lorsque vous écrivez un prompt.

Pourquoi c’est important de comprendre les LLM ?

Parce que lorsque vous interagissez avec une IA comme ChatGPT, Claude, Mistral
ou Gemini, vous n’utilisez pas un outil abstrait ou magique.​
Vous dialoguez avec un modèle bien précis, qui a été entraîné d’une certaine
manière, et qui a des particularités, des points forts… mais aussi des limites.

Et voici ce qu’il faut absolument retenir :​


Le même prompt, utilisé sur deux modèles différents, peut donner des réponses
complètement différentes.

Autrement dit, si vous voulez devenir bon en prompt engineering, vous devez
d’abord apprendre à comprendre les modèles et à choisir celui qui convient le
mieux à votre besoin.

Mais tous les modèles ne se valent pas.

Aujourd’hui, plusieurs entreprises ont développé leurs propres modèles


d’intelligence artificielle.


Tous ont été entraînés sur des montagnes de textes, tous savent générer du
contenu, mais ils n’ont pas les mêmes forces, pas la même “personnalité”, et
pas les mêmes limites.

GPT (de OpenAI).

C’est sans doute le modèle le plus connu, car c’est celui qui propulse ChatGPT.​
Développé par OpenAI, il en est à sa quatrième génération : GPT-4, avec plusieurs
variantes comme GPT-4o.

Ses points forts :


●​ Très bon en rédaction, créativité et structure.​

●​ Excellente compréhension des consignes longues.​

●​ Très polyvalent : marketing, code, analyse.​

À savoir que GPT peut halluciner (comme tous les modèles), mais il est
généralement plus “prudent” que d’autres.

Claude de Anthropic.

Claude est un modèle développé par Anthropic, une autre entreprise américaine.​
Il se distingue par une compréhension fine du contexte, un ton souvent plus
“humain” et diplomate, et une capacité à gérer de très longs textes (jusqu’à
200 000 tokens pour certaines versions).

Ses points forts :

●​ Très bon pour résumer, structurer ou analyser des documents longs.​

●​ Ton poli, nuancé, parfois “éthique” dans ses réponses.​

À savoir que Claude peut refuser certaines demandes qu’il juge sensibles, même
si elles sont inoffensives.

Mistral.

Mistral est un modèle open source développé en France.​


Il fait partie d’une nouvelle génération de modèles plus légers, plus rapides, et
surtout open source, ce qui veut dire que vous pouvez l’utiliser localement ou
l’intégrer à vos propres systèmes.

Ses points forts :

●​ Très rapide, léger, efficace.​

●​ Idéal pour des tâches techniques ou intégrations personnalisées.​



Il est encore en phase de rattrapage sur la partie créativité ou
compréhension profonde du langage.
Gemini (de Google).

Anciennement appelé Bard, le modèle Gemini, développé par Google, est intégré
à l’écosystème de Google Workspace.​
Il peut interagir avec vos documents Google Docs, vos mails, votre Drive, etc.

●​ Il est intégré à l’univers Google.


●​ Et est très bon en recherche, analyse d’information, synthèse.​

Les réponses sont parfois un peu neutres, ou moins personnalisées que GPT ou
Claude.

Il existe aussi d’autres modèles comme : LLaMA, Command R, Grok, etc.

Dans 90 % des cas, vous travaillerez avec GPT, Claude, Mistral ou Gemini.

Et ce qu’il faut retenir, c’est que chaque modèle réagit différemment à un


même prompt.​
D’où l’intérêt, parfois, de tester le même prompt sur plusieurs modèles pour
comparer les résultats.

En résumé :

●​ GPT est le plus polyvalent.​

●​ Claude est le plus nuancé et “littéraire”.​

●​ Mistral est léger, rapide, et open source.​

●​ Gemini est fort dans l’écosystème Google.​

Les limites des modèles et biais potentiels


Même si ces outils sont puissants, ce n’est pas de la magie, ni de l’intelligence
humaine. Ils ont des limites techniques. Par exemple, ils ne peuvent traiter qu’une
quantité limitée de texte à la fois, ce qui veut dire qu’ils ne peuvent pas tout
garder en mémoire quand vous leur envoyez des informations longues. Parfois, ils
peuvent aussi inventer des informations, c’est ce qu’on appelle les hallucinations.
Ce n’est pas qu’ils veulent mentir, ils génèrent juste des réponses basées sur ce
qu’ils ont appris, sans vérifier si c’est vrai ou faux.
En plus, il faut savoir qu’ils ne comprennent pas le texte comme un humain le
ferait. Ils se contentent de prédire quel mot vient ensuite en fonction des
exemples qu’ils ont vus. Donc, il y a toujours un risque que leurs réponses soient
fausses ou imprécises.

Un autre point important, c’est que ces modèles ont appris à partir de milliards de
textes écrits par des humains. Du coup, ils peuvent reproduire des stéréotypes,
des préjugés ou même des erreurs qui existaient déjà dans ces textes. Cela peut
entraîner des réponses sexistes, racistes ou discriminatoires, même si ce n’est pas
voulu.

C’est pourquoi il est essentiel, quand vous utilisez ces outils, de rester critique.

Ne prenez jamais leurs réponses pour argent comptant. Il faut toujours vérifier,
recouper les informations, et ne pas hésiter à ajuster ou reformuler vos questions
pour obtenir de meilleures réponses.

En résumé, les modèles de langage sont incroyablement puissants, mais ils ne


sont pas parfaits. Ils peuvent halluciner, ils peuvent reproduire des biais.
Comprendre ça, c’est la clé pour les utiliser de manière intelligente et efficace.

Les modèles ouverts vs fermés


Jusqu’ici, on a parlé des différents modèles que vous pouvez utiliser.​
Mais ce qu’on n’a pas encore vu, c’est une distinction très importante entre deux
grandes familles : les modèles ouverts et les modèles fermés.

C’est un peu comme la différence entre une voiture de location et votre propre
voiture.

Un modèle fermé, comme GPT ou Claude, c’est un modèle que vous utilisez via
une interface fournie par l’entreprise. Vous n’avez aucun accès à l’intérieur. Vous
posez une question, vous recevez une réponse, point. Vous ne pouvez pas
changer son fonctionnement, ni voir sur quelles données il a été entraîné. Il est
performant, pratique, mais complètement verrouillé. C’est une boîte noire.

À l’inverse, un modèle ouvert, comme ceux de Mistral, LLaMA ou certains


modèles open source, est libre d’utilisation et modifiable. Vous pouvez le
télécharger, l’installer sur vos propres serveurs, l’adapter à vos besoins, voire le
réentraîner avec vos propres données si vous en avez les moyens. C’est votre
voiture. Vous ouvrez le capot, vous touchez au moteur, vous personnalisez tout.

Pourquoi c’est important ? Parce que les deux approches ont leurs avantages et
leurs inconvénients.
Avec un modèle fermé, vous avez une solution clé en main, rapide, souvent plus
performante pour un usage quotidien. Mais vous êtes dépendant d’un
fournisseur. Si demain l’entreprise décide de couper l’accès, d’augmenter les prix
ou de modifier les règles, vous n’avez pas votre mot à dire.

Avec un modèle ouvert, vous gagnez en liberté, en transparence, en contrôle.


Vous pouvez l’intégrer à vos outils, garantir la confidentialité des données, voire
l’adapter à un usage très spécifique. Mais ça demande plus de compétences
techniques, et souvent plus de ressources pour l’héberger.

Alors, lequel choisir ?


Tout dépend de vos besoins. Si vous voulez aller vite, tester des idées, ou démarrer
sans prise de tête, un modèle fermé fera très bien l’affaire. Si en revanche vous
avez des exigences de confidentialité, d’intégration spécifique, ou si vous
développez une solution à long terme, un modèle ouvert peut être un bon
investissement.

Ce qu’il faut retenir, c’est que comprendre cette distinction vous permet de faire
un choix éclairé, et d’éviter de dépendre aveuglément d’une seule solution.

Dans la suite, on verra justement comment choisir le bon modèle pour le bon
usage, en fonction de votre cas : marketing, code, rédaction, service client, etc.

Le concept de token et de température


Maintenant que vous avez une vue d’ensemble sur les types de modèles,​
il est temps de s’arrêter sur deux notions techniques qui reviennent très souvent
quand on parle de prompt engineering :

●​ les tokens
●​ la température

Pas besoin d’avoir un doctorat pour les comprendre.

Vous allez voir, c’est simple… une fois qu’on a la bonne image mentale.

1. Qu’est-ce qu’un token ?

Un token, c’est tout simplement un morceau de texte que le modèle découpe


pour traiter votre prompt.

Mais attention : un token n’est pas forcément un mot entier.


Prenons un exemple :

Le mot banane = 1 seul token​


Le mot anticonstitutionnellement = 3 tokens​
Une phrase comme Bonjour, comment allez-vous ? = environ 6 tokens

En résumé, les modèles découpent le texte en petites unités appelées tokens,


pour mieux analyser et prédire ce qui vient ensuite.

Imaginez que le modèle de langage est un enfant qui apprend à lire syllabe par
syllabe, plutôt que mot par mot.

Plutôt que de lire directement “conversation”, il voit : con, ver, sa, tion.

Chaque morceau est un token. Et il construit des phrases en assemblant ces


pièces de puzzle.

Pourquoi c’est important de connaître ça ?

Parce que les modèles ont une limite de tokens.​


Ils ne peuvent pas traiter une infinité d’informations d’un coup.

Par exemple :

●​ GPT-3.5 peut gérer environ 4 000 tokens (environ 2 500–3 000 mots)​

●​ GPT-4 ou Claude 3 peuvent aller jusqu’à 128 000 voire 200 000 tokens​

Cela comprend à la fois votre prompt et la réponse générée.

Donc si vous rédigez un prompt trop long ou chargez des documents entiers,
vous risquez d’atteindre la limite, et le modèle ne pourra pas tout “voir”.

2. Qu’est-ce que la température ?

La température, c’est un paramètre qui détermine le degré de créativité ou de


variété dans les réponses du modèle.

●​ Une température basse (par exemple 0 ou 0.2) = réponse très précise,


prédictible, stable.​
→ Idéal pour du code, des calculs, des instructions strictes.​

●​ Une température haute (par exemple 0.8 ou 1) = réponse plus créative,


spontanée, parfois imprévisible.​
→ Utile pour du brainstorming, des histoires, de la rédaction créative.​
Pensez à la température comme au niveau d’improvisation d’un musicien.

●​ Température 0 = il suit exactement la partition, sans aucune variation.​

●​ Température 1 = il improvise, change le rythme, ajoute des notes


inattendues.​

Dans le prompt engineering, vous pouvez ajuster cette température selon ce


que vous attendez :

●​ Vous voulez une réponse fiable et répétable ? Baissez la température.​

●​ Vous voulez des idées originales ou décalées ? Montez-la.​

Ce qu’il faut retenir

●​ Un token = un petit morceau de texte. Les modèles raisonnent en tokens,


pas en mots.​

●​ La température contrôle la créativité : plus elle est haute, plus la réponse


est variée (et parfois chaotique).​

Comprendre ça vous permet d’optimiser vos prompts, et d’ajuster le


comportement du modèle selon vos objectifs.

Introduction à l’API d’OpenAI


Maintenant que vous avez compris les modèles, leurs différences, et comment les
utiliser dans des cas concrets… on va passer à un niveau plus technique mais
promis, on va y aller simplement, étape par étape.

Vous avez aussi peut-être déjà entendu parler de l’API d’OpenAI.​


Mais à quoi ça sert, concrètement ? Et pourquoi ça peut devenir un vrai
superpouvoir dans votre travail ?

Pourquoi s’intéresser à l’API ?


L’API, c’est l’interface technique qui vous permet d’intégrer l’intelligence d’un
modèle comme GPT directement dans vos propres outils, sites ou
applications.

Ça veut dire que vous n’êtes plus obligé d’utiliser ChatGPT via son site web.​
Vous pouvez connecter GPT à un formulaire sur votre site, à une interface de
chatbot, à un outil de traitement de documents, ou même à un script
automatique qui répond à vos emails ou génère des idées de contenu.

Vous passez du statut d’utilisateur à celui d’intégrateur.​


Et c’est là que vous commencez à décupler votre productivité.

Concrètement, comment ça marche ?

Une API, c’est comme une porte d’entrée.​


Vous envoyez une requête (un prompt, par exemple), et le modèle vous renvoie
une réponse, en quelques millisecondes.​

C’est une conversation entre votre application et l’intelligence artificielle, sans


interface visible.

Pour utiliser l’API d’OpenAI par exemple, vous avez besoin de :

1.​ Créer un compte sur platform.openai.com​

2.​ Générer une clé secrète API, un peu comme un mot de passe qui identifie
votre application​

3.​ Envoyer des requêtes via des outils comme Postman, Python, JavaScript,
ou même sans coder avec des plateformes no-code comme Make ou
Zapier​

Et vous payez à l’usage, en fonction du nombre de tokens traités, pas à l’heure


ou à la demande.

Pourquoi c’est puissant ?

Parce que l’API vous permet de créer vos propres applications IA.

Par exemple :

●​ Une extension Chrome qui résume automatiquement les articles que vous
lisez​
●​ Un assistant de rédaction intégré dans votre outil interne​

●​ Un bot qui répond aux questions de vos clients à partir de votre base de
connaissances​

●​ Une automatisation qui génère un texte tous les jours à heure fixe et vous
l’envoie par email​

L’API, c’est ce qui permet de connecter l’intelligence artificielle à votre


quotidien pro.

Pas besoin d’être développeur senior.

Je vous rassure : même si vous n’avez jamais codé, vous pouvez comprendre et
utiliser les bases.​
Et si vous êtes entrepreneur, chef de projet, marketeur, formateur… connaître
l’existence et le potentiel de l’API vous permet de collaborer efficacement avec
des développeurs et de donner des directives claires.

3. Les bases d’un bon prompt



On entre maintenant dans le cœur du sujet : comment écrire de bons prompts.

Maintenant vous avez compris comment fonctionnent les modèles, à quoi ils
servent, et comment les connecter à des outils… Mais sans bon prompt, tout ça
tombe à plat.

Vous pouvez avoir le meilleur modèle du monde…​


si votre prompt est flou, mal formulé, ou mal structuré, vous aurez une réponse
moyenne, voire à côté de la plaque.

C’est exactement comme parler à quelqu’un d’intelligent… mais lui poser une
question vague, confuse ou hors contexte.​
Résultat : il vous répond, oui, mais pas du tout ce que vous attendiez.

Les objectifs de ce module

Dans ce module, vous allez maintenant apprendre à :


●​ Comprendre ce qui fait un prompt efficace​

●​ Maîtriser les principes de base pour structurer vos demandes​

●​ Faire la différence entre un prompt direct, un prompt implicite, un prompt


créatif ou analytique​

●​ Et découvrir des techniques simples, comme le zero-shot, ou encore le


one-shot prompting. Autrement dit : comment guider le modèle, sans
tourner autour du pot, même si vous n’êtes pas développeur.​

Pourquoi c’est important ?

Parce que le prompt, c’est votre langage face à l’IA.

C’est vous qui donnez le ton, la clarté, la structure.​


Un prompt mal formulé, c’est un brief raté.​
Un prompt bien structuré, c’est une réponse claire, pertinente, et souvent
impressionnante.

C’est aussi ce qui fait la différence entre quelqu’un qui bricole un peu avec l’IA… et
quelqu’un qui en fait un vrai levier de performance.

Et pas besoin d’être écrivain ou ingénieur.​


Il faut juste apprendre à parler au modèle comme à un bon collaborateur.

Et c’est exactement ce qu’on va voir ici.

Dans la suite, on va commencer par la structure d’un prompt efficace.​


Comment construire un prompt clair, compréhensible, et exploitable par
n’importe quel modèle.

4. Structure d’un prompt efficace : contexte, rôle,


tâche, format
Pour bien commencer, on va voir la base de la base : comment structurer un
prompt de manière claire et logique, pour obtenir exactement ce que vous voulez.

Un bon prompt, c’est comme une bonne consigne : plus c’est précis, plus le
modèle a de chances de comprendre votre intention… et d’y répondre
correctement.
Il existe une structure simple, qu’on utilise dans la majorité des cas, et qui repose
sur 4 éléments clés : le contexte, le rôle, la tâche, et le format attendu.

1. Commençons par le contexte.

C’est le point de départ. Le modèle n’a pas de mémoire magique, il ne sait pas qui
vous êtes, ni de quoi il s’agit.​
Il faut donc lui donner un minimum d’informations.

Par exemple :

"Je suis responsable marketing dans une entreprise de cosmétiques


bio."

Ou encore :

"J’écris une newsletter hebdomadaire pour des entrepreneurs."

Ce genre de phrase permet au modèle de comprendre le cadre dans lequel il va


devoir s’exprimer.​
Plus vous donnez de contexte pertinent, plus la réponse sera ciblée.

2. Le rôle.

Ensuite, vous attribuez un rôle au modèle.​


Et oui, il peut jouer n’importe quel personnage : expert, conseiller, coach,
journaliste, formateur, etc.

Par exemple :

"Agis comme un expert en stratégie digitale."​


"Tu es un rédacteur senior spécialisé en beauté naturelle."

Ça l’aide à adopter le bon ton, le bon niveau de langage, le bon vocabulaire.

3. La tâche.

C’est là que vous expliquez ce que vous attendez.​


Une action claire, précise. Pas vague. Pas floue.

Par exemple :

"Écris-moi une introduction engageante pour un article sur les


bienfaits de l’huile de jojoba."​
"Propose 5 idées de sujets pour une vidéo Instagram."

Le modèle doit pouvoir identifier ce qu’il doit faire. Il ne devine pas. Il suit les
consignes.
4. Le format attendu.

Et enfin, très important : dites-lui comment vous voulez la réponse.

En liste ? En tableau ? En phrases courtes ? En format HTML ?​


Ne partez pas du principe qu’il va deviner.

Par exemple :

"Présente la réponse sous forme de tableau avec deux colonnes : 'idée'


et 'accroche'."​
"Donne-moi une version longue (150 mots) et une version courte (50
mots)."

Quand vous combinez les quatre éléments contexte + rôle + tâche + format,
vous donnez au modèle tout ce qu’il lui faut pour produire une réponse claire,
utile et ciblée.

C’est la base.​
Et même si vous ne retenez qu’une seule chose de tout ce module… que ce soit
ça.

Dans la suite, on va voir des techniques simples mais puissantes pour affiner vos
prompts.​
Direct ou implicite ? Avec des exemples ou pas ? Une seule consigne ou plusieurs
?

Techniques de base : poser les bonnes questions,


de la bonne manière
Maintenant que vous connaissez la structure d’un prompt (contexte, rôle, tâche,
format), on va voir comment jouer avec le style de votre demande pour
influencer la qualité de la réponse.

Parce que ce n’est pas juste ce que vous demandez qui compte, mais comment
vous le demandez.​
C’est comme avec un enfant ou un collègue : si vous êtes flou, ou trop vague, la
réponse va partir dans tous les sens.​
Mais si vous êtes malin, clair et un peu stratège… le résultat est bien meilleur.

Et c’est là que les techniques de base entrent en jeu.


Avant de continuer avec les autres techniques, voici une

Erreurs courantes à éviter:

Un prompt direct, c’est quand vous demandez exactement ce que vous voulez.​
C’est précis, clair, sans détour.

Exemple direct :

“Donne-moi 10 idées de réels Instagram pour promouvoir un savon


naturel.”​
“Rédige une bio LinkedIn professionnelle pour un coach business.”​
“Explique-moi ce qu’est une landing page, avec un exemple simple.”

Le modèle comprend tout de suite quoi faire.

Maintenant, un prompt implicite, c’est plus flou. Vous donnez une idée… sans
poser la question clairement.

Exemple implicite :

“Je travaille dans le savon bio et je veux me faire connaître.”​


“Je suis coach business, et j’aimerais améliorer mon profil.”

C’est moins clair. Le modèle va deviner ce que vous voulez, et parfois, il va bien
tomber… parfois, pas du tout.

Donc, si vous voulez une réponse efficace : parlez comme si vous donniez un
ordre à un assistant qui vous connaît pas encore. Plus c’est direct, mieux c’est.

On va maintenant attaquer petit à petit des techniques avancées.

La technique du : zero-shot, one-shot et


few-shot.
Ne paniquez pas avec ces noms bizarres.​
On va les simplifier avec une métaphore de la vie de tous les jours.

Imaginez que vous montrez à quelqu’un comment faire un gâteau.

Zero-shot.

Vous ne donnez aucun exemple. Vous dites juste :


“Fais-moi un gâteau au chocolat.”​
La personne se débrouille. Elle peut bien faire… ou complètement
rater.

Dans un prompt, ça donne :

“Écris un email de relance client.”​


Le modèle fait ce qu’il peut, selon sa logique interne.

One-shot.

Là, vous lui montrez une seule fois comment faire.

“Voici une recette de gâteau au chocolat que j’aime. Maintenant fais-en


un autre.”

En prompt :

“Voici un exemple d’email de relance efficace :​


Bonjour [Prénom], j’espère que vous allez bien...​
Maintenant, écris-en un autre dans le même style.”

Le modèle s’appuie sur cet exemple pour copier le ton, le style, la structure.

La technique Few-shot.

Et là, vous montrez plusieurs exemples. 2, 3, 5…

“Regarde ces trois recettes de gâteaux. Trouve-moi une nouvelle


version à partir de ça.”

En prompt :

“Exemple 1 :​
Objet : Votre commande est arrivée ?​
Bonjour, nous espérons que votre colis est bien arrivé…

Exemple 2 :​
Objet : On prend de vos nouvelles​
Bonjour, un petit message pour savoir si tout s’est bien passé…

Maintenant, écris un troisième email dans le même style.”

👉 En résumé :
●​ Zero-shot = pas d’exemple​

●​ One-shot = un seul exemple​


●​ Few-shot = plusieurs exemples​

Plus vous donnez des exemples clairs, plus le modèle comprend ce que vous
attendez.

Astuce importante

Si vous avez un modèle qui fait toujours “à sa sauce” et que vous n’aimez pas le
résultat, faites un few-shot avec vos propres exemples.​
C’est comme lui apprendre à parler votre langage.

La technique du prompt chaining.


Nous allons maintenant entrer dans les Techniques intermédiaires, et plus
précisément dans un concept-clé qui va vous permettre de démultiplier la
puissance de vos prompts : le prompt chaining, ou en français, l’enchaînement
de prompts.

Mais avant de vous expliquer comment cela fonctionne concrètement, prenons


un instant pour comprendre pourquoi cette technique est importante.

Jusqu’ici, vous avez appris à construire un bon prompt : clair, structuré, adapté à
l’objectif, avec le bon ton et le bon niveau de créativité ou d’analyse. C’est déjà un
excellent point de départ. Mais dans des cas réels, notamment en entreprise, un
seul prompt ne suffit souvent pas à accomplir une tâche complexe.

Prenons un exemple simple : vous voulez que le modèle rédige un article de


blog professionnel.​

Si vous lui demandez tout en une seule fois « Rédige-moi un article de blog de 1
000 mots sur l’intelligence artificielle dans la santé », vous obtiendrez
probablement un texte un peu générique, parfois mal structuré, ou sans véritable
angle.

Avec le prompt chaining, vous allez découper cette tâche en plusieurs étapes
logiques, et guider le modèle étape par étape, comme si vous travailliez avec un
assistant intelligent que vous briefez en temps réel.

Vous pourriez, par exemple, commencer par une première requête qui génère
une liste de titres potentiels. Ensuite, choisir l’un de ces titres et demander une
structure en sous-parties. Puis, pour chaque sous-partie, générer un paragraphe
spécifique. Enfin, terminer par une conclusion ou un appel à l’action.
En procédant ainsi, vous gagnez plusieurs choses :​

Vous contrôlez la logique, vous affinez le style à chaque étape, et surtout, vous
obtenez un contenu beaucoup plus ciblé, précis et exploitable.


C’est aussi une technique fondamentale si vous voulez un jour automatiser des
tâches via API ou construire un agent conversationnel personnalisé.

Parce que dans ces cas-là, vous ne gérez pas une seule question, mais tout un
flux de dialogue intelligent.

En agissant ainsi, vous gagnez en précision, en qualité de réponse, et en


contrôle. Vous devenez le stratège de la conversation, et non plus un simple
utilisateur passif.

Mais attention, cette méthode demande une chose essentielle : garder une
cohérence d’intention et de contexte entre les étapes. À chaque nouvelle
instruction, vous devez rappeler brièvement ce qui a été fait auparavant, pour que
le modèle comprenne bien la continuité. Par exemple : “Reprenons le plan que
vous avez proposé dans l’étape précédente. Rédigez maintenant la section 2, en
gardant le ton professionnel et pédagogique que vous avez utilisé.”

Autrement dit, vous construisez une mémoire artificielle temporaire au fil de la


discussion.

Alors, est-ce que cette technique est réservée aux experts ? Pas du tout. Au
contraire, elle vous permettra de produire des contenus plus solides, de diviser vos
tâches complexes en mini-objectifs accessibles, et surtout… de mieux collaborer
avec l’intelligence artificielle.

Pour utiliser cette technique, voici les étapes à suivre :

Étape 1 : Générer des idées de guide à offrir (lead magnet).

Je lui donne comme prompt :

Tu es un expert en marketing de contenu.

Tu aides des consultants à créer des guides PDF à destination de prospects B2B.

Leur audience est composée d’entrepreneurs qui lancent leur startup.

Propose-moi 5 idées de guides à offrir gratuitement, avec un titre accrocheur


pour chacun et une courte description.

Fais preuve d’originalité et vise des sujets concrets, à forte valeur perçue.
1.​ Première réponse obtenue : 15 Signes que ton Business Va Planter (et
Comment l'Éviter)

Un guide franc et sans langue de bois qui aide les fondateurs à repérer les erreurs
classiques (mauvais positionnement, tunnel de vente bancal, obsession produit…)
et à pivoter intelligemment avant de brûler leur cash.

2. "Tunnel d'Or : Le Blueprint d’un Funnel Qui Convertit en 7 Jours"

Une méthode visuelle étape par étape pour construire un funnel de conversion
simple mais redoutable, testé dans des secteurs variés (SaaS, service, formation).
Avec des exemples concrets et des templates prêts à adapter.

3. "L’Offre Irrésistible : Crée une Proposition Qui Fait Dire 'Shut up and Take
My Money!'"

Un guide pratique pour formuler une offre percutante en B2B (même sans
communauté), en s’appuyant sur des leviers psychologiques, des structures de
copywriting, et des études de cas de jeunes startups qui ont explosé.

4. "Les 20 Premiers Clients : Comment les Dénicher Sans Ads Ni Audience"

Le guide de survie pour trouver ses premiers clients en mode débrouille :


stratégies de prospection manuelle, messages qui déclenchent des réponses,
hacks LinkedIn, et techniques pour transformer chaque appel en opportunité.

5. "Lean Branding : Construis une Marque Forte Sans Te Ruiner"


Un condensé d’astuces pour bâtir une image de marque crédible dès les débuts
(logo, storytelling, voix, design minimaliste) sans passer par une agence ou cramer
5K dans un branding qui "fait pro mais vend pas".

📌 Étape 2 : Je vais choisir le 4 et je vais demander à chatgpt la structure du guide


à partir de l’idée choisie

Le Prompt :

Reprenons l’idée suivante, Les 20 Premiers Clients : Comment les Dénicher Sans
Ads Ni Audience

Propose une structure pour le guide.

Pour chaque partie, donne un titre clair et une courte description de 2-3 phrases.

Adopte un ton professionnel, engageant, clair et direct.

Le lecteur est un fondateur de startup au début de son projet.

Il me donne 7 parties très intéressantes et en plus il me rajoute des annexes.

J’avais prévu un prompt à la fin pour faire l’introduction mais il me rajoute même
une introduction.

Maintenant Étape 3 : Rédiger les 7 sections du guide (une par une)

J’utilise le prompt ci-dessous pour la section 1 :

Rédige-moi la première section du guide.

Structure ton texte avec :

Un titre clair

Une anecdote introductive ou une mise en situation.


Une explication précise du problème.

Des exemples des problèmes que vit le client.

Une solution concrète, directement applicable

Le ton doit être direct, factuel, avec une vraie valeur.

Il me génère la section comme je le veux, c’est incroyable.

Reste à faire la même chose pour les autres sections.

Étape 4 : Rédiger l’introduction du guide.

Rédige une introduction engageante pour ce guide, en 3 à 5 paragraphes.

Commence par une accroche percutante, parle du problème que rencontrent les
fondateurs de startup, puis présente ce que le lecteur va apprendre dans ce
guide.

Le ton doit être à la fois professionnel, clair et motivant.

Étape 5 : Rédiger la conclusion du guide

Prompt :

Rédige une conclusion pour ce guide.

Rappelle l’objectif du guide, insiste sur l’importance d’appliquer les conseils, et


termine par un appel à l’action.

Par exemple : s’abonner à une newsletter, découvrir un autre contenu, ou


contacter le consultant.

Étape 6 : Générer un titre final plus percutant

Prompt :

Voici le contenu complet du guide : [colle tout].

Propose 3 variantes de titre encore plus percutantes que le titre d’origine.


Fais en sorte qu’ils donnent envie de cliquer et de télécharger.

Le ton doit rester professionnel et orienté business.

BONUS

Lien prompts :
https://chatgpt.com/share/685d01e4-76cc-8000-899e-a388dbfbef95

Les erreurs à éviter avec la technique du


prompt chaining :
Sauter des étapes ou condenser plusieurs actions dans un
seul prompt.

●​ Pourquoi c’est un problème ? Tu perds en précision, et tu risques de te


retrouver avec une réponse brouillonne.
●​ Solution : découpe bien ton process. Même si ça fait 7 ou 8 prompts, c’est
pas grave, chaque étape joue un rôle.

Vouloir le résultat final d’un coup.

●​ Erreur : dire à ChatGPT “écris-moi un article de 1200 mots sur comment


lancer une marque de cosmétiques bio” sans l’avoir guidé.
●​ Pourquoi c’est un problème ? Le texte sera incomplet.

Négliger le format de sortie.

●​ Erreur : ne pas dire dans quel format tu veux la réponse.


●​ Résultat : ChatGPT t’invente un format
●​ Solution : sois clair : “format bullet points”, “3 paragraphes”, “tableau”, etc.

Oublier de relire et d’ajuster.

●​ Erreur : prendre les réponses telles quelles sans les modifier.


●​ Pourquoi c’est un problème ? Même si ChatGPT est un bon assistant, il
n’est pas dans ta tête.
●​ Solution : relis, réajuste, reformule. Tu es le chef d’orchestre. GPT est juste
ton violoniste.

En résumé :

Découpe ton objectif final

Formate tes demandes

Relis et personnalise.

La Décomposition des tâches complexes.


Pourquoi c’est important

●​ Un prompt trop vague ou trop chargé entraîne souvent des réponses


superficielles ou incohérentes.​

●​ La décomposition permet de guider le modèle pas à pas pour obtenir des


réponses plus fiables et précises.​

●​ Cela permet aussi de mieux diagnostiquer où le modèle bloque ou produit


des erreurs.​

Différence avec le prompt chaining

●​ La décomposition se fait dans un seul prompt, avec des sous-tâches


clairement listées.​

●​ Le prompt chaining se fait en plusieurs étapes, où la réponse d’une requête


devient l’entrée de la suivante.​

●​ La décomposition est plus simple et plus rapide à mettre en œuvre pour


des cas ponctuels.​

Dans quels cas l’utiliser


●​ Quand votre demande implique plusieurs étapes intellectuelles (analyser,
résumer, proposer une action…).​

●​ Quand vous voulez structurer un plan, un raisonnement, une stratégie, etc.​

●​ Quand vous obtenez des réponses floues ou incomplètes à une demande


globale.​

En quoi ça consiste

●​ Il s’agit de découper une tâche globale en étapes plus simples, que le


modèle peut traiter plus facilement.​

●​ Chaque étape est formulée dans le prompt de manière explicite, sous


forme de liste ou d’instruction séquencée.​

●​ Cela oblige le modèle à raisonner de manière structurée plutôt que


d’improviser une réponse globale.​

Comment l’utiliser efficacement

●​ Formulez votre demande principale.​

●​ Réfléchissez aux étapes nécessaires pour y répondre.​

●​ Rédigez un prompt structuré avec ces étapes en les numérotant ou en les


encadrant clairement.​

●​ Donnez un format de réponse attendu pour chaque sous-tâche si


nécessaire.​

Étude de cas 1 : Analyse stratégique d’un marché

Prompt à tester dans ChatGPT :

“Vous êtes un consultant en stratégie.

Je souhaite faire une analyse du marché des soins capillaires bio en France.

Veuillez répondre en suivant les étapes suivantes :


1.​ Identifier les grandes tendances du marché en 2024​

2.​ Présenter les profils types de consommateurs​

3.​ Dresser une liste des 3 concurrents majeurs et leur positionnement​

4.​ Suggérer deux pistes d’innovation produit à explorer”​

Ce que vous devriez obtenir :

→ Une réponse structurée avec des sections claires, des données contextualisées,
et une vraie aide à la décision.

→ Un prompt unique, mais une réponse détaillée et lisible.

Étude de cas 2: Rédaction d’un article de blog structuré

Prompt à tester dans ChatGPT :

“Vous êtes un expert en rédaction web SEO.

Aidez-moi à rédiger un article de blog sur les bienfaits de l’huile de figue de


barbarie pour la peau.

Procédez en 4 étapes :

1.​ Proposer un titre accrocheur adapté au SEO​

2.​ Définir l’introduction en contextualisant le sujet​

3.​ Décomposer l’article en 3 parties principales avec titres et contenus​

4.​ Rédiger une conclusion engageante avec appel à l’action”​

Ce que vous devriez obtenir :

→ Un article structuré, optimisé pour le web, avec un ton professionnel, une mise
en forme claire, et un contenu réutilisable directement sur un blog cosmétique.

Dans quel cas utiliser la décomposition ?


Utiliser la décomposition dans un seul prompt est la bonne décision quand :
– Vous avez besoin d’une réponse complète d’un seul coup, sans vouloir intervenir
entre chaque étape.

– La tâche n’est pas trop longue ni trop complexe, donc elle peut tenir
logiquement dans un seul prompt sans surcharger le modèle.

– Vous voulez gagner du temps en évitant les allers-retours et obtenir directement


un livrable structuré (ex. article, analyse, plan…).

En résumé :

→ Décomposition = efficacité, rapidité, une seule interaction.

→ Prompt chaining = précision maximale, mais plus lent, plus interactif.

Erreurs à éviter

●​ Être trop vague dans la formulation des sous-tâches (“fais une analyse” au
lieu de “liste les concurrents et leur positionnement”)​

●​ Empiler trop d’étapes dans un seul prompt : restez entre 3 et 5 étapes pour
éviter les réponses bâclées​

Technique 4 : Boucles de feedback avec


les LLM
Pourquoi c’est important

●​ Les LLM produisent souvent de bonnes premières versions, mais rarement


la version parfaite du premier coup.

●​ Une boucle de feedback permet d’améliorer la qualité, la clarté ou la


pertinence d’une réponse en faisant participer le modèle lui-même à son
propre perfectionnement.​

○​ C’est un moyen d’automatiser une forme d’auto-relecture


intelligente, sans forcément refaire tout le prompt initial.​

Dans quels cas l’utiliser

●​ Quand la première réponse est correcte, mais pas assez qualitative,


percutante ou claire.​

●​ Pour des tâches créatives ou sensibles à la formulation (rédaction,


argumentaire, pitch).​

●​ Lorsqu’on veut faire évoluer une idée par itérations successives (ex.
brainstorming, stratégie, design).​

●​ Quand on souhaite intégrer une vérification qualité automatique dans une


chaîne d’actions.​

En quoi ça consiste
●​ On demande au modèle de relire, juger, améliorer ou commenter une de
ses propres productions.​

●​ On peut le faire de manière directe (“Peux-tu améliorer cette réponse ?”),


ou plus technique (“Agis comme un expert et critique cette réponse en 3
points”).​

●​ On peut aussi combiner plusieurs modèles ou versions pour les faire


s’évaluer entre eux.​

Comment l’utiliser efficacement

●​ Démarrez avec un premier prompt pour obtenir un contenu de base.​

●​ Donnez ensuite une instruction de feedback explicite, par exemple :​



– “Relis cette réponse et améliore la clarté des arguments.”​

– “Compare les deux versions suivantes et explique laquelle est meilleure.”​

– “Corrige cette réponse en adoptant un ton plus professionnel.”​

●​ Répétez la boucle si nécessaire jusqu’à obtenir un résultat satisfaisant.​

Applications

Étude de cas 1 : Optimisation d’une accroche marketing.

Prompt initial :

“Propose une accroche percutante pour promouvoir un sérum bio à base de figue
de barbarie.”

Améliorer l’accroche :

“Relis cette accroche. Peux-tu la rendre plus concise, avec un impact émotionnel
plus fort, tout en restant factuelle ?”

Nouvelle réponse :
Étude de cas 2 : Relecture critique d’un plan stratégique.

Prompt initial :

“Rédige un plan de lancement pour une marque de cosmétiques bio en ligne.”

Feedback prompt :

“Agis comme un expert en business digital. Analyse ce plan et donne trois points
d’amélioration précis.”

Réponse du modèle :

→ Le modèle devient son propre consultant, et vous bénéficiez d’un second regard
expert.

Erreurs à éviter

●​ Ne pas préciser quel type de feedback vous attendez (style, ton, structure,
pertinence…).​

○​ Évitez de dire “Améliorer ça” sans donner de critères clairs.​

●​ Croire que le feedback doit toujours venir à la fin : parfois, l’intégrer après
chaque étape d’un prompt chaining améliore aussi le flux.

Vous aimerez peut-être aussi