#33. Por Que Modelos de Linguagem Alucinam? cover art

#33. Por Que Modelos de Linguagem Alucinam?

#33. Por Que Modelos de Linguagem Alucinam?

Listen for free

View show details

About this listen

O documento explora as causas estatísticas das alucinações em modelos de linguagem (LLMs), desde sua origem no pré-treinamento até sua persistência pós-treinamento. Ele argumenta que os LLMs alucinam porque os procedimentos de treinamento e avaliação os recompensam por adivinhar em vez de admitir incerteza. A análise estabelece uma conexão entre erros geradores e a taxa de erro de classificação binária, explicando por que as alucinações não são misteriosas, mas sim um resultado de pressões estatísticas naturais e modelagem inadequada de fatos arbitrários. Os autores propõem uma solução sociotécnica: modificar a pontuação dos benchmarks existentes para penalizar menos as respostas incertas e, assim, direcionar o campo para sistemas de IA mais confiáveis.

No reviews yet
In the spirit of reconciliation, Audible acknowledges the Traditional Custodians of country throughout Australia and their connections to land, sea and community. We pay our respect to their elders past and present and extend that respect to all Aboriginal and Torres Strait Islander peoples today.