Der Prozess des Weitertrainierens eines vortrainierten LLM auf einem spezialisierten Datensatz, um sein Verhalten zu verändern oder die Leistung bei bestimmten Aufgaben zu verbessern. Ein aufwändiger Ansatz für grosse, spezialisierte Anforderungen.
Definition: Der Prozess des Weitertrainierens eines vortrainierten LLM auf einem spezialisierten Datensatz, um sein Verhalten zu verändern oder die Leistung bei bestimmten Aufgaben zu verbessern. Ein aufwändiger Ansatz für grosse, spezialisierte Anforderungen.
Fine-Tuning bezeichnet den Prozess, ein vortrainiertes Large Language Model auf einem spezialisierten Datensatz weiterzutrainieren, um sein Verhalten zu verändern oder seine Leistung bei bestimmten Aufgaben zu verbessern.
| Aspekt | Fine-Tuning | RAG |
|---|---|---|
| Was sich ändert | Die Gewichte des Modells (Verhalten) | Der dem Modell bereitgestellte Kontext |
| Aufwand | Hoch (erfordert grosse Datensätze, Rechenleistung) | Mittel (erfordert Aufbau einer Wissensdatenbank) |
| Use Case | Grundlegendes Modellverhalten verändern | Antworten auf spezifischen Fakten basieren lassen |
| Kosten | Höher | Niedriger |
Fine-Tuning ist sinnvoll, wenn:
Für die meisten Research-Anwendungen ist Fine-Tuning überdimensioniert. Bessere Ansätze sind:
Fine-Tuning ist ein investitionsintensiver Ansatz, der am besten für Organisationen mit spezifischen, grossangelegten Anforderungen geeignet ist. Zum Beispiel beim Aufbau eines zentralisierten Research Repository, das organisationsspezifische Frameworks und Terminologie konsistent über alle Outputs hinweg anwenden muss.
Ein KI-System, das auf grossen Mengen von Text trainiert wurde, um menschenähnliche Sprache vorherzusagen und zu generieren. Am besten als Konzept-Transformationsmaschine zu verstehen, nicht als Wissensdatenbank.
Eine Technik, die LLM-Antworten verbessert, indem zunächst relevante Informationen aus einer spezifischen Wissensbasis abgerufen werden, um die Ausgabe des Modells zu fundieren.
Dieser Begriff wird in den folgenden Artikeln referenziert: