Es gibt zwei Arten, wie KI in akademischen Arbeiten Schaden anrichtet. Die erste ist bekannt: Studierende lassen sich Texte schreiben, in denen Quellen und Zitate komplett halluziniert sind — Autor:innen, Titel und Seitenzahlen erfunden. Die zweite ist subtiler: echte Quellen werden zitiert, aber die KI gibt etwas wieder, was so gar nicht in der Quelle steht. Genau gegen beide Probleme arbeitet Acurio.
Dieser Beitrag erklärt, was Quellenhalluzinationen sind, warum sie passieren, und wie wir den umgekehrten Weg nutzen: KI nicht zum Erfinden von Quellen, sondern zum Prüfen von echten.
Was ist eine Quellenhalluzination?
Eine Halluzination ist die Behauptung eines Sprachmodells, etwas sei wahr, ohne dass die Aussage durch das Trainingsmaterial gedeckt ist. Bei Zitaten heisst das konkret:
- Erfundene Quelle. Autor:innen und Titel klingen plausibel, existieren aber nicht.
- Falsch attribuierte Aussage. Quelle existiert, aber sie sagt nicht, was du zitierst — oder das Gegenteil.
- Falsche Seitenzahl. Die zitierte Aussage steht im Buch, aber 47 Seiten weiter hinten.
- Übertragene Halluzination. Eine KI hat eine andere KI fehlerhaft zitiert, ein:e Studierende:r übernimmt die Behauptung in die Arbeit.
Im Bereich Sozial- und Geisteswissenschaft sind solche Fehler kaum erkennbar — die Sätze klingen seriös. Im Recht und in der Medizin sind sie inzwischen veröffentlichte Fälle: Anwält:innen haben Schriftsätze mit erfundenen Urteilen eingereicht. In studentischen Arbeiten sind sie der Hauptgrund, weshalb Prüfer:innen mehr Stichproben fahren als früher.
Warum halluzinieren Sprachmodelle bei Zitaten?
Ein LLM wie GPT-4, Claude oder Gemini generiert Text statistisch — Token für Token, basierend auf Wahrscheinlichkeiten aus dem Trainingsmaterial. Wenn du nach einem “Zitat von Müller, 2018, S. 47” fragst, gibt das Modell das aus, was am wahrscheinlichsten zu deinem Kontext passt. Das Modell weiss nicht, dass es Müller 2018 gar nie gesehen hat. Es produziert die plausibelste Antwort — fertig.
Drei Faktoren verstärken das:
- Trainingscutoff. Das Modell kennt nur Texte bis zu einem bestimmten Datum. Neuere Quellen “erfindet” es, weil es sie nicht hat.
- Bias zu populären Quellen. Was häufig im Trainingsmaterial vorkommt, wird häufig zitiert — auch wenn es zu deinem Thema nicht passt.
- Zu generische Prompts. Ohne konkreten Quellenkontext muss das Modell raten.
Der umgekehrte Weg: KI als Prüfer:in
Acurio nutzt LLMs anders. Du gibst der KI nicht den Auftrag, eine Quelle zu finden — du gibst ihr die Quelle in Form eines hochgeladenen PDFs vor und sagst: prüf, ob das hier wirklich drinsteht. Das ist ein fundamental anderes Problem:
- Erfinden ist offene Generierung. Die KI muss aus dem Nichts schöpfen — sie halluziniert leicht.
- Verifizieren ist eingeschränktes Lesen. Die KI hat den Quellentext vor sich. Sie muss nur sagen: “ja, der Satz X aus der Arbeit ist durch Passage Y in der Quelle gedeckt” oder “nein”. Das ist deutlich verlässlicher.
Trotzdem reicht ein einzelnes Modell nicht. Wir kombinieren mehrere LLMs (Claude, GPT-Familie, Gemini), die unabhängig voneinander auf dieselbe Aussage-Quellen-Paarung schauen.
Das Acurio-Verfahren in vier Schritten
Schritt 1 — Extraktion. Aus deiner DOCX-Datei ziehen wir jedes Zitat heraus: das umgebende Aussagefragment, den Zotero-Citation-Marker, die zitierte Quelle (Autor, Jahr, Seite). Zotero-formatierte Zitate sind hier zuverlässig erkennbar — manuell gesetzte Zitate werden ebenfalls extrahiert, aber mit etwas geringerer Präzision.
Schritt 2 — Quellenlokalisierung. Für jedes Zitat suchen wir in den hochgeladenen Quell-PDFs die passende Passage. Die Seitenzahl aus dem Zitat gibt einen starken Hinweis, aber wir suchen auch um sie herum — falsche Seitenzahlen kommen häufig vor.
Schritt 3 — Multi-LLM-Prüfung. Mehrere Modelle bekommen Aussage und Passage und beantworten unabhängig: ist die Aussage durch diese Passage gedeckt? Wir kombinieren die Antworten zu einem Konfidenzwert. Bei Uneinigkeit der Modelle markieren wir das Zitat für eine über Nacht laufende Zweitprüfung mit einem grösseren Modell und engerem Kontext.
Schritt 4 — Resultat. Pro Zitat: belegt / teilweise belegt / nicht belegt, mit Konfidenzwert, zitierter Quellenpassage und einer kurzen Begründung. Du exportierst alles als DOCX-Bericht.
Was Acurio nicht ist
Acurio ist kein Plagiatsprüftool. Plagiat heisst: du hast etwas abgeschrieben ohne Quelle. Acurios Frage ist umgekehrt: deine Quelle ist da — aber sagt sie wirklich, was du behauptest? Beide Tools ergänzen sich. Ein Plagiatsprüfer findet Stellen, die zu nah am Original sind. Acurio findet Stellen, die zu weit vom Original sind.
Acurio ist auch kein Stylechecker. Wir korrigieren keine Schreibweise, keine Zitierformatierung. Das machen Zotero, Citavi oder Grammarly. Wir prüfen Inhalte.
Was Acurio nicht erkennen kann
Ehrlich gesagt: es gibt Grenzen.
- Sehr lange Quellen (Bücher mit 600 Seiten) — die Lokalisierung wird ungenauer, wenn die zitierte Stelle nicht zur angegebenen Seite passt.
- Spezialliteratur in seltenen Sprachen — wir arbeiten momentan zuverlässig auf Deutsch und Englisch. Andere Sprachen funktionieren oft, aber mit geringerer Verlässlichkeit.
- Zitate ohne Quell-PDF. Wenn du das PDF nicht hast, können wir nichts prüfen.
- Zitate aus Sekundärliteratur. Wenn du “Müller, zit. nach Schmidt 2018” zitierst, prüfen wir gegen Schmidt 2018 — nicht gegen Müller.
Fazit
Halluzinationen sind das grosse Problem generativer KI in der Wissenschaft. Aber dasselbe Werkzeug, das Probleme verursacht, kann sie auch lösen — wenn man die Aufgabe umdreht. KI zum Erfinden ist riskant. KI zum Verifizieren, gegen ein konkret vorhandenes Quellen-PDF, ist eine der zuverlässigsten Anwendungen, die diese Modelle aktuell haben.
Wer einmal mit einer Halluzination in einer Arbeit erwischt wurde, weiss, wie unangenehm das ist. Vermeiden ist günstiger als reparieren. Acurio kostet weniger als ein verlorener Studientag.