Sprache auswählen

NHL Observer

Der Einsatz von KI-Systemen wie ChatGPT hat sich im Sportjournalismus und in der Analyse sportlicher Ereignisse rasant etabliert. Auch für die Recherche und Einordnung statistischer Angaben ist die Versuchung gross, statt eine eigene komplexe Analyse ganz einfach die KI dafür einzusetzen. Aber Achtung, das könnte peinlich werden.

Die Versuchung ist jeweils gross und die erhoffte Zeitersparnis kann zu einem Boomerang werden: Riesige Datenmengen, komplexe Historien, unzählige Statistiken – das ist genau das Terrain, auf dem künstliche Intelligenz vermeintlich glänzen müsste. Doch genau hier liegt die Gefahr. Denn KI liefert bei NHL-Fachfragen erstaunlich oft unvollständige, veraltete oder schlicht falsche und manchmal auch absurde Antworten – und das hat systemische Gründe.

KI bewertet nicht wie ein menschliches Gehirn

Das Grundproblem ist technischer Natur: Sprachmodelle sind keine Datenbanken und keine Statistik-Engines. Sie "wissen“ nichts im klassischen Sinn, sondern berechnen Wahrscheinlichkeiten für sprachlich plausible Antworten. Die KI bewertet zudem nicht wie ein menschliches Gehirn. Bei Fachfragen und Bewertungen von NHL-Fakten oder Kontexten ist das oft besonders heikel. 

Hinzu kommt, dass NHL-Wissen extrem volatil ist. Wenn ein KI-Modell nicht mit Live-Daten arbeitet, greift es auf einen Wissensstand zurück, der bereits überholt sein kann. Die Lücke zwischen "damals korrekt“ und "heute falsch“ wird dann nicht offen ausgewiesen, sondern sprachlich überbrückt. Besonders problematisch ist das Phänomen der sogenannten Halluzination. Wenn Details fehlen – etwa bei historischen Fragen oder sehr spezifischen Statistiken – sagt die KI nicht: "Das kann ich nicht verlässlich beantworten“, sondern ergänzt die Lücke mit einer konkreten Behauptung. Das liegt daran, dass das System darauf optimiert ist, hilfreich und vollständig zu wirken. Schweigen oder Unsicherheit sind für ein Sprachmodell ein schlechter Output. 

Faktencheck zum Faktencheck entlarvt oft falsche KI-Aussagen

Ein zusätzlicher, oft unterschätzter Faktor ist die Gewichtung von Inhalten nach Reichweite und Wiederholung. KI-Modelle werden mit riesigen Textmengen trainiert, in denen nicht automatisch der korrekteste, sondern häufig der meistzitierte, meistgeteilte oder am stärksten rezipierte Content dominiert. Narrative, die sich medial gut verbreitet haben – selbst, wenn sie ungenau oder falsch sind – erhalten dadurch ein überproportionales Gewicht. Fake News, zugespitzte Mythen oder vereinfachte Erzählungen können so semantisch nach oben gespült werden und erscheinen der KI als besonders plausibel. Die Maschine erkennt nicht, dass ein Sachverhalt oft wiederholt wurde, weil er gut erzählt ist und nicht, weil er stimmt. Manchmal ist sogar ein Faktencheck zum Faktencheck aufschlussreich und entlarvt falsche KI-Aussagen. 

Absurde Resultate sind nicht selten

Eine skurrile KI-Falschmeldung als Beispiel: Der "Goalie mit dem verlorenen Schläger als Assistgeber“. In ChatGPT-Anfragen tauchte folgende Behauptung auf: "Ein NHL-Torhüter erhielt einmal einen offiziellen Assist, nachdem sein verlorener Stock einen gegnerischen Spieler zu Fall brachte und direkt zu einem Tor führte.“ In der National Hockey League werden Assists ausschliesslich für kontrollierte Puckaktionen vergeben. Ein verlorener Schläger – egal wie spektakulär er ins Spielgeschehen eingreift – kann regeltechnisch niemals als Assist gewertet werden. Es existiert kein einziger dokumentierter Fall in der NHL-Geschichte, der auch nur annähernd in diese Richtung geht.

Oder: "Patrick Roy erzielte in seiner NHL-Karriere ein Tor – per Weitschuss als letzter Spieler am Puck bei einem Empty-Net-Goal.“ Roy war ein aktiver Torhüter und hatte ein gutes Stick- und Puckhandling und eine lange Karriere mit unzähligen denkwürdigen Szenen. Die Geschichte ist aber komplett falsch.

Die narrative Halluzination

Warum erfindet KI so etwas? Technisch ist das ein Paradebeispiel für narrative Halluzination. Die KI kombiniert mehrere reale Motive: Torhüter verlieren tatsächlich gelegentlich ihren Stock und es gibt bizarre NHL-Szenen mit kuriosen Abprallern oder Assists werden im Sprachgebrauch oft sehr weit interpretiert. Besonders tückisch: Die Behauptung ist nicht leicht widerlegbar, weil sie nicht offensichtlich unmöglich klingt, wenn man die Regelbücher nicht genau kennt. Wer diesen Inhalt Satz für Satz übernimmt, verbreitet eine falsche historische Anekdote.

Auch skurril und absurd war die Antwort von KI auf diese Abfrage: "Gab es in letzter Zeit bizarre Regelauslegungen oder Reviews in der NHL?“. Die Antwort: "NHL annulliert ein Tor, weil der Puck "zu kontrolliert“ abprallte. Ein Tor von Nathan MacKinnon für die Colorado Avalanche wurde 2025 nach Coach’s Challenge aberkannt, weil der Puck zuvor "kontrolliert“ von der Bande abgeprallt sei und damit als indirekte Hand-Puck-Pass-Interaktion gewertet wurde". Das ist komplett erfunden und gleichzeitig herrlich grotesk.

Das Phänomen der Musterüberlagerung

Ein weiterer systemischer Fehler entsteht durch Musterüberlagerung. Die NHL ist reich an ähnlichen Namen, Rollen und Karriereverläufen. Sprachmodelle clustern diese Muster. So werden Torhüter, Draftjahre oder Trade-Details aus unterschiedlichen Epochen zu einer scheinbar kohärenten Antwort verschmolzen. Besonders betroffen sind Aussagen mit Superlativen wie "erstmals“, "seit 1967“, "jüngster Spieler“ oder "einziger Torhüter“. Diese Formulierungen sind sprachlich beliebt – und daher anfällig für falsche Behauptungen.

Auch statistische Fragen sind problematisch. Abfragen wie "Top-Scorer bei 5-gegen-5 seit dem 1. Dezember“ oder "Goalies mit dem besten Save Percentage in Road Games“ sind Datenbankabfragen, keine Sprachaufgaben. Ohne direkten Zugriff auf verifizierte Statistikquellen wie NHL Edge oder andere sind solche Antworten zwangsläufig spekulativ – selbst, wenn sie mit Zahlen daherkommen.

Der Fakten-Check-Prompt

Der Schlüssel liegt nicht im Verzicht auf KI, sondern im richtigen Umgang. Besonders entscheidend ist das Prompting. Wer KI zu NHL-Themen nutzt, sollte präzise eingrenzen, was gefragt ist und gleichzeitig die Unsicherheit explizit zulassen. Noch besser ist es, der KI eigenes Material zu liefern und sie lediglich strukturieren oder formulieren zu lassen. Eine bewährte Praxis ist zudem der bewusste Fakten-Check-Prompt: "Markiere alle Aussagen, die verifiziert werden müssen“ oder "Gib mir nur das, was mit hoher Sicherheit zutrifft, und kennzeichne Unsicherheiten explizit.“ Damit zwingt man das Modell, defensiver zu arbeiten – was ein Qualitätsmerkmal ist.

Wichtig: KI ist kein Ersatz für Recherche, Quellenarbeit und Fachwissen. Wer ungeprüfte KI-Fakten übernimmt, riskiert nicht nur sachliche Fehler, sondern beschädigt langfristig seine Glaubwürdigkeit. Gerade in einem Umfeld wie der NHL, in dem Detailkenntnis zählt, bleibt diese Sorgfalt unersetzlich – auch im Zeitalter der künstlichen Intelligenz.

Joël Ch. Wuethrich publiziert wöchentlich Hintergrundberichte über die NHL in der führenden Deutschen Fachpublikation Eishockey News und hat ein ausgezeichnetes Beziehungsnetz in Nordamerika. Seit 1992 ist er Chefredaktor diverser namhafter Publikationen, unter anderem auch war er beim Slapshot sowie beim Top Hockey Chefredakteur und war zudem lange Jahre für den Spengler Cup strategisch in Marketing und PR sowie als Chefredaktor tätig. Joël Ch. Wuethrich leitet seit 1992 hauptberuflich eine crossmedial aufgestellte PR-Agentur und eine Player's Management Agentur (Sportagon), ist Crossmedia-Stratege und HF-Dozent mit Lehrauftrag für Kommunikation und Marketing. Er analysiert seit 30 Jahren als Autor/Chefredakteur in der Schweiz, Deutschland sowie in Kanada die NHL und beobachtet das Eishockeygeschehen weltweit intensiv. Der Familienvater (zwei Kinder) arbeitet in der Schweiz und in Montréal, wo ein grosser Teil seiner Verwandtschaft wohnt.

Mehr Infos

Kennst du schon...?