#15 Von der Halluzination zur Präzision: Ein Blick in die Trickkiste der KI-Entwicklung cover art

#15 Von der Halluzination zur Präzision: Ein Blick in die Trickkiste der KI-Entwicklung

#15 Von der Halluzination zur Präzision: Ein Blick in die Trickkiste der KI-Entwicklung

Listen for free

View show details

About this listen

Wir alle nutzen KI-Sprachmodelle, doch wie verlässlich sind ihre Antworten wirklich? Studien zeigen, dass selbst fortschrittliche Modelle wie GPT-4 bei Faktenfragen oft nur eine Trefferquote von rund 60 % erreichen und zum "Halluzinieren" neigen. Aber es gibt Methoden, das zu ändern.
In dieser Folge sprechen wir mit Nicolas Kohl, der sich im Rahmen seiner Bachelorarbeit bei SAP genau diesem Problem gewidmet hat. Er erklärt den Ansatz der "Retrieval-Augmented Generation" (RAG), bei dem eine KI lernt, ihre Antworten auf Basis externer, verlässlicher Dokumente zu formulieren, anstatt sich auf ihr eigenes, manchmal fehlerhaftes Wissen zu verlassen.
Wir tauchen tief ein in die Optimierung dieser Methode und klären, warum es nicht nur darauf ankommt, der KI überhaupt Daten zu geben, sondern auch darauf, ihr die richtigen Daten in der richtigen Menge zu präsentieren.
No reviews yet
In the spirit of reconciliation, Audible acknowledges the Traditional Custodians of country throughout Australia and their connections to land, sea and community. We pay our respect to their elders past and present and extend that respect to all Aboriginal and Torres Strait Islander peoples today.