- Une nouvelle étude de l’Université d’État de Pennsylvanie (Penn State) révèle que parler grossièrement aux chatbots d’IA comme ChatGPT donne des réponses plus précises que l’utilisation d’un ton poli.
- L’équipe de recherche (dirigée par Om Dobariya et Akhil Kumar) a testé 50 questions originales dans les domaines des mathématiques, des sciences et de l’histoire, puis les a réécrites sur cinq tons différents — de « très poli » à « très grossier » — créant ainsi 250 invites (prompts).
- Les résultats ont montré que :
- Le ton « très grossier » a atteint 84,8 % de précision,
- Le ton « neutre » a atteint 82,2 %,
- Le ton « très poli » n’a atteint que 80,8 %. → Cela signifie que plus le langage est direct, plus la réponse du chatbot est correcte.
- Par exemple :
- Phrase « polie » : Veuillez répondre à la question suivante.
- Phrase « grossière » : Hé, le larbin, trouve la solution. Je sais que tu n’es pas malin, mais essaie ça.
- La raison n’est pas encore entièrement comprise. Comme l’IA n’a pas d’émotions, l’équipe de recherche suggère que la différence réside dans la grammaire et la clarté de la commande. Le langage poli est souvent indirect, comme « Pourriez-vous me dire… », ce qui rend plus difficile pour le modèle de cerner l’objectif exact. En revanche, un ton direct et autoritaire aide l’IA à comprendre plus clairement l’intention.
- Les auteurs soulignent que cette découverte contredit les études plus anciennes, qui suggéraient qu’un ton négatif réduisait les performances de l’IA. Ils estiment que les modèles de langage de nouvelle génération (comme GPT) pourraient réagir différemment aux variations émotionnelles et tonales.
- L’étude recommande des tests supplémentaires, d’autant plus que les IA sont de plus en plus entraînées à « comprendre les émotions des utilisateurs ».
📌 Une nouvelle étude de l’Université d’État de Pennsylvanie montre que parler grossièrement aux chatbots d’IA comme ChatGPT donne des réponses plus précises que l’utilisation d’un ton poli. La raison n’est pas encore entièrement comprise. Comme l’IA n’a pas d’émotions, les chercheurs pensent que la différence réside dans la grammaire et la clarté de la commande. Le langage poli est souvent indirect, par exemple « Pourriez-vous me dire… », ce qui rend difficile pour le modèle d’identifier l’objectif précis. En revanche, un ton direct et autoritaire aide l’IA à comprendre plus clairement l’intention.
