EP7 | O Tom do Prompt Afeta a Precisão do LLM | CleverXico cover art

EP7 | O Tom do Prompt Afeta a Precisão do LLM | CleverXico

EP7 | O Tom do Prompt Afeta a Precisão do LLM | CleverXico

Listen for free

View show details

About this listen

O artigo de Om Dobariya e Akhil Kumar, intitulado "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy," investiga como as variações no tom de cortesia dos prompts impactam a precisão de Modelos de Linguagem Grandes (LLMs).

Os autores criaram um conjunto de dados de 250 questões de múltipla escolha com cinco variantes tonais—Muito Cortês, Cortês, Neutro, Ríspido e Muito Ríspido—para testar o ChatGPT-4o.

Contrariamente às expetativas e a estudos anteriores, os resultados mostraram que os prompts ríspidos superaram consistentemente os corteses, com a precisão mais alta de 84,8% para prompts Muito Ríspidos e 80,8% para prompts Muito Corteses.

Os achados sugerem que os LLMs mais recentes podem ser menos sensíveis à cortesia e destacam a importância de se estudar aspetos pragmáticos do prompt engineering, embora os autores desaconselhem interfaces hostis por razões éticas.

A investigação confirma que o tom é um fator estatisticamente significativo na performance do modelo.

No reviews yet
In the spirit of reconciliation, Audible acknowledges the Traditional Custodians of country throughout Australia and their connections to land, sea and community. We pay our respect to their elders past and present and extend that respect to all Aboriginal and Torres Strait Islander peoples today.