1. Introduction
L'avènement des chatbots d'IA générative de pointe (SOTA) comme ChatGPT a créé un changement de paradigme dans l'apprentissage des langues et le soutien à l'écriture. Contrairement à leurs prédécesseurs basés sur des règles, ces modèles, construits sur des architectures de réseaux neuronaux comme le Transformer, peuvent générer un texte cohérent et contextuellement pertinent. Pour les apprenants d'anglais langue étrangère (EFL), cela représente un outil puissant, mais complexe. Le défi central identifié dans cette étude est l'ingénierie de prompts — la compétence consistant à formuler des instructions efficaces pour obtenir les résultats souhaités de l'IA. Sans cette compétence, les utilisateurs, en particulier les étudiants non-techniciens, sont relégués à un processus frustrant d'essais et d'erreurs, limitant le potentiel pédagogique de l'outil.
Cet article étudie les comportements naissants d'ingénierie de prompts de lycéens EFL utilisant ChatGPT pour la première fois pour accomplir une tâche d'écriture. Il va au-delà de la discussion théorique pour présenter des études de cas qualitatives empiriques qui cartographient des parcours utilisateurs distincts.
2. Méthodologie & Collecte des données
La recherche utilise une approche qualitative par étude de cas, analysant des données d'interaction réelles d'utilisateurs novices.
2.1. Participants & Tâche
Les participants étaient des lycéens EFL n'ayant aucune expérience formelle préalable de l'utilisation de chatbots SOTA comme ChatGPT. L'étude a capturé leur processus via des enregistrements d'écran d'iPad alors qu'ils interagissaient avec l'IA pour accomplir une tâche d'écriture définie. Cette méthodologie offre une vue brute et non filtrée du processus de collaboration humain-IA.
2.2. Cadre d'analyse des données
Les enregistrements d'écran ont été transcrits et analysés pour coder :
- Contenu du prompt : Les composantes linguistiques et instructionnelles de chaque requête étudiante (ex. : description de la tâche, demandes de style, contraintes).
- Quantité de prompts : Le nombre de prompts utilisés pour accomplir la tâche.
- Schéma d'interaction : La séquence et la nature des prompts de suivi basés sur les réponses de l'IA.
- Qualité du résultat : L'adéquation du texte final généré par l'IA à la tâche assignée.
De cette analyse, quatre parcours utilisateurs archétypaux ont été identifiés et développés en études de cas détaillées.
3. Études de cas : Quatre parcours d'ingénierie de prompts
L'analyse a cristallisé quatre schémas comportementaux distincts, représentant un spectre de sophistication dans l'ingénierie de prompts.
3.1. Parcours A : Le Minimaliste
Cet étudiant a utilisé un nombre très faible de prompts (ex. : 1-2). Le prompt initial était souvent une simple traduction directe de l'instruction de la tâche (ex. : "Rédige une dissertation sur le changement climatique"). Il a montré un engagement minimal avec la sortie de l'IA, acceptant le premier résultat avec peu ou pas de raffinement. Ce parcours met en lumière une méconception de l'outil-comme-oracle, où l'IA est perçue comme fournissant une réponse complète et finale plutôt qu'un partenaire collaboratif.
3.2. Parcours B : Le Raffineur Itératif
Cet étudiant a utilisé un nombre modéré de prompts dans une séquence linéaire et itérative. Il a commencé par un prompt basique, a examiné la sortie, et a émis des commandes de suivi pour des améliorations spécifiques (ex. : "Rends-le plus long", "Utilise des mots plus simples"). Ce parcours démontre une compréhension émergente de la réactivité de l'IA aux instructions, mais reste dans un cadre basique de demande de révision.
3.3. Parcours C : L'Enquêteur Structuré
Cet étudiant a employé un nombre plus élevé de prompts avec une approche stratégique et multi-étapes. Il pouvait d'abord demander à l'IA de "brainstormer trois idées pour une dissertation sur X", puis en sélectionner une, puis demander un plan, et enfin solliciter un brouillon basé sur ce plan. Ce parcours reflète une stratégie métacognitive plus sophistiquée, décomposant le processus d'écriture et utilisant l'IA pour un soutien structuré à chaque étape.
3.4. Parcours D : L'Explorateur par Essais et Erreurs
Cet étudiant a utilisé un volume élevé de prompts avec des variations significatives mais peu de stratégie apparente. Les prompts changeaient radicalement de focus et de style (ex. : du formel au familier, du large au précis) sans progression claire. Ce parcours incarne l'expérimentation non structurée qui caractérise l'expérience du novice, entraînant souvent confusion et utilisation inefficace du temps, bien qu'elle puisse occasionnellement produire des résultats créatifs.
4. Principaux résultats & Analyse
4.1. Schémas de qualité et de quantité des prompts
L'étude n'a trouvé aucune corrélation simple entre le nombre de prompts et la qualité de la sortie finale. Le Parcours C (Enquêteur Structuré) produisait souvent le texte le plus adapté à la tâche, pas nécessairement grâce au plus grand nombre de prompts, mais grâce aux prompts les plus stratégiques et de haute qualité. La qualité était définie par la spécificité, la fourniture de contexte et la décomposition de la tâche. Un seul prompt bien conçu (ex. : "Rédige un essai persuasif de 300 mots pour un magazine scolaire plaidant pour plus de poubelles de tri sur le campus, en utilisant deux statistiques et un appel à l'action") pouvait surpasser une douzaine de prompts vagues.
Résumé de l'interaction
Parcours C (Structuré) a systématiquement produit les brouillons finaux les mieux notés par des évaluateurs indépendants, bien qu'il n'ait pas toujours utilisé le plus de tours de dialogue. Parcours D (Essais et Erreurs) présentait la plus grande variance dans la qualité des résultats.
4.2. Le rôle de la littératie en IA
Les parcours illustrent clairement des niveaux variables de littératie implicite en IA. Les étudiants des Parcours A et D manquaient d'un modèle mental fonctionnel de la façon dont ChatGPT traite les requêtes. En revanche, les étudiants des Parcours B et C ont démontré une compréhension naissante de l'IA comme un système stochastique suivant des instructions. Ils ont intuitivement saisi que des entrées plus claires et structurées conduisent à des sorties plus prévisibles et utiles. Cette constatation soutient directement les appels d'organisations comme la International Society for Technology in Education (ISTE) à intégrer les fondamentaux de la littératie en IA dans les programmes scolaires de la maternelle à la terminale.
5. Cadre technique & Analyse
Comprendre ces parcours nécessite un regard technique. ChatGPT et les modèles similaires sont basés sur l'architecture Transformer et sont fondamentalement des prédicteurs de token suivant. La probabilité de générer une séquence de sortie spécifique $O$ étant donné un prompt d'entrée $P$ est modélisée comme :
$$P(O|P) = \prod_{t=1}^{|O|} P(o_t | P, o_1, ..., o_{t-1})$$
où $o_t$ est le token à la position $t$. Le prompt $P$ d'un étudiant définit le contexte initial et la distribution de probabilité pour la sortie.
Exemple de cadre d'analyse : Nous pouvons modéliser une session d'ingénierie de prompts d'un étudiant comme une machine à états. Soit l'État (S) la fenêtre de contexte actuelle de la conversation (les derniers $k$ tokens). L'Action (A) est le prochain prompt de l'étudiant. La Récompense (R) est l'utilité perçue de la réponse de l'IA (ex. : un score subjectif de 1 à 5). L'objectif de l'étudiant est d'apprendre une politique $\pi$ qui mappe les états aux actions pour maximiser la récompense cumulative. Les quatre parcours représentent différentes politiques d'exploration, souvent sous-optimales, pour ce problème d'apprentissage par renforcement auquel est confronté l'utilisateur humain.
Description du graphique : Un graphique conceptuel tracerait la Spécificité du prompt (axe X) en fonction de la Décomposition de la tâche (axe Y). Le Parcours A (Minimaliste) se regrouperait dans le quadrant bas-bas. Le Parcours D (Essais et Erreurs) montrerait un nuage dispersé sur tout le graphique. Le Parcours B (Raffineur Itératif) montrerait un mouvement horizontal vers la droite (augmentation de la spécificité). Le Parcours C (Enquêteur Structuré) occuperait le quadrant haut-haut, démontrant à la fois une haute spécificité et une utilisation élevée de la décomposition de tâche dans ses prompts.
6. Implications pédagogiques & Orientations futures
Implication centrale : Laisser les étudiants découvrir l'ingénierie de prompts par essais et erreurs est pédagogiquement inefficace et inéquitable. Cela favorise les étudiants qui développent naturellement une pensée stratégique (Parcours C) et désavantage les autres.
Stratégie actionnable : Un enseignement explicite et échafaudé de l'ingénierie de prompts doit être intégré à la pédagogie de l'écriture en EFL. Cela inclut :
- Enseigner le cadre de prompt "Rôle-Objectif-Format-Contraintes".
- Démontrer le raffinement itératif (ex. : utiliser stratégiquement les fonctions "régénérer" ou "continuer" de ChatGPT).
- Évaluer de manière critique les sorties de l'IA en termes de biais, d'exactitude et de style.
Recherche & Développement futurs :
- Interfaces d'apprentissage adaptatives : Les futurs assistants d'écriture IA pourraient détecter le parcours d'un utilisateur (ex. : détecter des prompts minimalistes) et offrir des conseils contextuels ou des tutoriels pour les guider vers des stratégies plus efficaces.
- Bibliothèques & Modèles de prompts : Développer des modèles de prompts adaptés au niveau, pour des tâches d'écriture EFL courantes (ex. : "Générateur d'essai comparatif").
- Études longitudinales : Suivre l'évolution des parcours d'ingénierie de prompts des étudiants avec l'instruction et l'expérience au fil du temps.
- Études translinguistiques & culturelles : Étudier si les stratégies d'ingénierie de prompts diffèrent significativement selon les langues et les cultures éducatives.
7. Références
- Woo, D. J., Guo, K., & Susanto, H. (2023). Cases of EFL Secondary Students’ Prompt Engineering Pathways to Complete a Writing Task with ChatGPT. Manuscrit en préparation.
- Caldarini, G., Jaf, S., & McGarry, K. (2022). A Literature Survey of Recent Advances in Chatbots. Information, 13(1), 41.
- Long, D., & Magerko, B. (2020). What is AI Literacy? Competencies and Design Considerations. Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, 1–16.
- Vaswani, A., et al. (2017). Attention Is All You Need. Advances in Neural Information Processing Systems 30 (NIPS 2017).
- International Society for Technology in Education (ISTE). (2023). AI Explorations for Educators. Récupéré de iste.org.
- Zhao, W. X., et al. (2023). A Survey of Large Language Models. arXiv preprint arXiv:2303.18223.
8. Perspective de l'analyste : Déconstruire la danse d'écriture Humain-IA
Idée centrale : Cette étude ne porte pas vraiment sur ChatGPT ; c'est une révélation frappante de l'humain non préparé dans la boucle de rétroaction humain-IA. L'outil est exponentiellement plus capable que la capacité de l'utilisateur à le diriger. Les quatre parcours ne sont pas seulement des comportements ; ce sont des marqueurs diagnostiques d'une nouvelle forme d'illettrisme numérique. Le véritable déficit de produit n'est pas un meilleur LLM, mais une meilleure couche d'interface humaine qui enseigne la stratégie d'interaction en temps réel.
Flux logique : L'article identifie correctement le problème (l'essai-erreur est la norme) et fournit des preuves empiriques élégantes à travers la taxonomie des parcours. Le saut logique qu'il effectue — et c'est crucial — est que ces comportements de novices ne sont pas une phase temporaire. Sans intervention, les parcours du Minimaliste et de l'Explorateur par Essais et Erreurs peuvent se solidifier en schémas d'utilisation permanents et sous-optimaux, cimentant une asymétrie de pouvoir où l'utilisateur est mené par les paramètres par défaut de l'outil plutôt que de le diriger. Cela rejoint des préoccupations plus larges dans la recherche en IHM, comme celles discutées dans les travaux sur "l'automation bias" (biais d'automatisation) et "skill decay" (déclin des compétences) dans les systèmes hautement assistés.
Forces & Faiblesses : La force est sa méthodologie observationnelle ancrée. Les enregistrements d'écran ne mentent pas. La faiblesse majeure, implicitement reconnue, est l'échelle. Quatre parcours issus d'un échantillon limité sont des archétypes convaincants, pas des catégories définitives. L'étude évite également l'éléphant dans la pièce : l'évaluation. Si un Minimaliste obtient une note passable d'un enseignant surmené avec une dissertation générée par IA, quelle incitation a-t-il à apprendre l'ingénierie de prompts ? Les recommandations pédagogiques de l'article reposent sur un système qui valorise le processus plutôt que le produit, ce que la plupart des cadres d'évaluation éducative actuels ne font pas.
Perspectives actionnables : Pour les investisseurs et développeurs EdTech, la conclusion est claire : la prochaine vague de création de valeur réside dans l'échafaudage de l'ingénierie de prompts. Pensez à un Grammarly pour les prompts — une superposition qui analyse la commande vague initiale d'un étudiant et suggère : "Essayez d'ajouter un public cible et un nombre de mots. Cliquez ici pour voir un exemple." Pour les administrateurs scolaires, le mandat est de financer le développement professionnel non seulement sur l'utilisation de l'IA, mais sur l'enseignement de la pédagogie de l'interaction avec l'IA. Cette étude fournit la preuve parfaite pour justifier cette ligne budgétaire. Enfin, pour les chercheurs, le cadre des parcours est une lentille reproductible. Appliquez-le à des professionnels utilisant l'IA pour le codage (GitHub Copilot), le design ou la recherche juridique. Je prédis que vous trouverez les mêmes quatre archétypes, prouvant qu'il s'agit d'un défi fondamental d'interaction humain-machine, et pas seulement d'un problème EFL.