Wenn ein KI-Modell plausibel klingende, aber faktisch falsche oder erfundene Informationen generiert. Eine natürliche Konsequenz daraus, wie LLMs wahrscheinlichen Text vorhersagen, statt Wahrheit zu verifizieren.
Definition: Wenn ein KI-Modell plausibel klingende, aber faktisch falsche oder erfundene Informationen generiert. Eine natürliche Konsequenz daraus, wie LLMs wahrscheinlichen Text vorhersagen, statt Wahrheit zu verifizieren.
Halluzination bezeichnet den Fall, dass ein Large Language Model Inhalte generiert, die überzeugend klingen, aber faktisch falsch, erfunden oder unsinnig sind.
LLMs sind darauf ausgelegt, plausibel klingenden Text auf Basis statistischer Muster zu generieren, nicht darauf, faktische Korrektheit zu überprüfen. Wenn ein Modell auf eine Lücke in seinen Trainingsdaten oder einen mehrdeutigen Prompt trifft, füllt es die Lücke mit dem, was statistisch wahrscheinlich klingt, selbst wenn dieser Inhalt erfunden ist.
Das ist kein Fehler, sondern ein grundlegendes Merkmal der Funktionsweise dieser Modelle.
Halluzination ist der Grund, warum KI-Output immer von menschlichen Expert*innen validiert werden muss. Im Forschungskontext:
Das Risiko der Halluzination unterstreicht die Rolle der Forscher*innen als kritische Validierungsinstanz für KI-Output.
Ein KI-System, das auf grossen Mengen von Text trainiert wurde, um menschenähnliche Sprache vorherzusagen und zu generieren. Am besten als Konzept-Transformationsmaschine zu verstehen, nicht als Wissensdatenbank.
Eine Technik, die LLM-Antworten verbessert, indem zunächst relevante Informationen aus einer spezifischen Wissensbasis abgerufen werden, um die Ausgabe des Modells zu fundieren.
Dieser Begriff wird in den folgenden Artikeln referenziert:
KI verändert, was Researcher*innen tun UND wie viele gebraucht werden. Produktivitätsgewinne sind real, und Teams werden schlanker. Aber die Fähigkeiten, die unverzichtbar bleiben, strategisches Denken, Stakeholder-Einfluss, methodisches Urteilsvermögen und ethisches Denken, sind genau jene, die KI nicht replizieren kann. Keine Garantien, aber diese Fähigkeiten aufzubauen ist die beste Strategie.
KI verändert grundlegend, wie Research-Rollen aussehen. Einige rein ausführende Positionen verschwinden bereits. Zu verstehen, was LLMs tatsächlich sind und was nicht, entscheidet darüber, ob Sie sie effektiv nutzen oder von jemandem ersetzt werden, der es tut.
Jenseits einfacher Prompts gibt es Techniken, die die Zuverlässigkeit von KI dramatisch verbessern: strukturierte Kommunikation, Notizen statt Transkripte, Modelle als Komitee von Bewerter*innen einsetzen und verstehen, wann RAG oder Fine-Tuning sinnvoll ist.