KI und Data, Teil 4
13.01.2025, 00:00 Uhr
Anpassen oder erweitern?
Um spezifischere Anforderungen zu erfüllen, brauchen Sprachmodelle etwas „Nachhilfe“. Zwei Methoden hierfür sind Fine-Tuning und Retrieval-Augmented Generation (RAG).
Die Entwicklung von künstlicher Intelligenz (KI) hat mit dem Aufkommen von Large Language Models (LLMs) einen neuen Meilenstein erreicht [1]. Das betrifft auch die Möglichkeiten, ein solches aufwendig vortrainiertes Modell auf sehr spezialisierte Aufgaben oder Bereiche abzustimmen: Mit Techniken wie Fine-Tuning [2] und Retrieval-Augmented Generation (RAG) [3] lassen sich bestehende Modelle schnell und gezielt anpassen beziehungsweise erweitern, ohne dass das Modell von Grund auf neu trainiert werden muss.
Das traditionelle Training nutzt einen festen Datensatz, um das Modell zu trainieren, was zeit- und ressourcenintensiv ist. Heutige Methoden erlauben es, vortrainierte Modelle auf spezifische Anforderungen zuzuschneiden (via Fine-Tuning) oder externe Wissensquellen dynamisch zu integrieren ((via Retrieval-Augmented Generation, RAG). Dies eröffnet eine größere Flexibilität, ohne die Vorteile des vorherigen Trainings zu verlieren.
Jetzt 1 Monat kostenlos testen!
Sie wollen zukünftig auch von den Vorteilen eines plus-Abos profitieren? Werden Sie jetzt dotnetpro-plus-Kunde.
- + Digitales Kundenkonto,
- + Zugriff auf das digitale Heft,
- + Zugang zum digitalen Heftarchiv,
- + Auf Wunsch: Weekly Newsletter,
- + Sämtliche Codebeispiele im digitalen Heftarchiv verfügbar