EP7 | O Tom do Prompt Afeta a Precisão do LLM | CleverXico
Failed to add items
Add to basket failed.
Add to Wish List failed.
Remove from Wish List failed.
Follow podcast failed
Unfollow podcast failed
-
Narrated by:
-
By:
About this listen
O artigo de Om Dobariya e Akhil Kumar, intitulado "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy," investiga como as variações no tom de cortesia dos prompts impactam a precisão de Modelos de Linguagem Grandes (LLMs).
Os autores criaram um conjunto de dados de 250 questões de múltipla escolha com cinco variantes tonais—Muito Cortês, Cortês, Neutro, Ríspido e Muito Ríspido—para testar o ChatGPT-4o.
Contrariamente às expetativas e a estudos anteriores, os resultados mostraram que os prompts ríspidos superaram consistentemente os corteses, com a precisão mais alta de 84,8% para prompts Muito Ríspidos e 80,8% para prompts Muito Corteses.
Os achados sugerem que os LLMs mais recentes podem ser menos sensíveis à cortesia e destacam a importância de se estudar aspetos pragmáticos do prompt engineering, embora os autores desaconselhem interfaces hostis por razões éticas.
A investigação confirma que o tom é um fator estatisticamente significativo na performance do modelo.