Ein ungelöster Fall, ein nie gefasster Täter – und die Hoffnung, dass Künstliche Intelligenz Licht ins Dunkel bringt: Der Zodiac-Killer fasziniert und verstört bis heute. KI-basierte Ermittlungsansätze versprechen neue Wege in der Fallanalyse, doch stoßen sie schnell an technische, ethische und juristische Grenzen. Was vermag KI wirklich in der Verbrechensaufklärung zu leisten – und wann wird Hoffnung zur Hypothese?
Ein ungelöster Fall und die Hoffnung auf Technologie
Der Zodiac-Killer zählt zu den berüchtigtsten Serienmördern des 20. Jahrhunderts. Zwischen 1968 und 1969 tötete der Täter mindestens fünf Menschen im Raum San Francisco und schickte kryptische Briefe mit verschlüsselten Botschaften an Zeitungen. Einige dieser sogenannten Z340-Codes blieben jahrzehntelang unentschlüsselt. 2020 gelang es schließlich einem internationalen Team um David Oranchak, einen dieser Codes mithilfe von klassischer Kryptografie und algorithmischer Unterstützung zu knacken.
Doch der Mörder wurde nie identifiziert, trotz Fingerabdrücken, DNA-Spuren und breitem medialem Interesse. Jetzt soll Künstliche Intelligenz helfen, den Fall endgültig zu lösen. Ein Forscherteam der französischen KI-Plattform IdentifAI meldete 2023, eine KI-gestützte linguistische Analyse des Zodiac-Briefes habe mit 97 %iger Wahrscheinlichkeit den US-Bürger Gary Francis Poste als Verfasser identifiziert – einen bereits 2018 verstorbenen Mann, der von einer Amateur-Detektivgruppe schon früher mit dem Fall in Verbindung gebracht worden war.
Künstliche Intelligenz gegen drei Jahrzehnte Ungenauigkeit
Die verwendete KI analysierte Lexik, Syntax und semantische Patterns in über 400 historischen Textproben von Poste. Hinzugeschaltet wurden Vergleichsdaten aus Zeitungen, anonymen Briefen, militärischen Dokumenten sowie Social-Media-Ausschnitten aus dem Nachlass. Das System nutzte unter anderem ein Natural Language Processing (NLP)-Modell ähnlich GPT-4, trainiert auf forensisch gesicherten Textkorpora.
Doch schon bei Veröffentlichung des Analysepapiers regten sich Zweifel: Ermittlungsbehörden wie das FBI zeigten sich laut Golem.de wenig beeindruckt und erklärten, keine stichhaltigen neuen Beweise erhalten zu haben. Auch Sicherheitsexperten mahnten zur Vorsicht: Eine sprachstatistische Clusteranalyse sei kein juristisch verwertbarer Beweis – und schon gar kein Identifikator für eine Straftat.
Warum Sprache allein nicht reicht
Die Analyse personalisierter Sprachmuster mithilfe von KI ist ein wachsendes Feld. Linguistische Forensik will individuelle Merkmale wie Satzstruktur, Vokabular oder Interpunktionsstil nutzbar machen, um Autoren unbekannter Texte zu identifizieren. Doch die Technik ist fehleranfällig: Studien zeigen, dass semantische KI-Klassifikatoren je nach Trainingsdaten und Zieltext erhebliche Abweichungen aufweisen können.
Eine Untersuchung der University of South Wales (2021) kam zu dem Ergebnis, dass NLP-Systeme zur Autorenerkennung bei Texten unter 500 Wörtern eine Fehlerrate von bis zu 34,5 % aufweisen (Quelle: ScholarlyCommons at Penn). Die Zodiac-Codes aber bestehen größtenteils aus Fragmenten, Abkürzungen und Slang, was eine zuverlässige Rekonstruktion zusätzlich erschwert.
Grenzen technischer Lösungen in der Strafverfolgung
Der Fall zeigt exemplarisch, wo KI in kriminalistischen Prozessen an ihre Grenzen stößt. Zwar boomen derzeit KI-Lösungen zur Mustererkennung: Laut Statista nutzen 52 % der US-Sicherheitsbehörden Künstliche Intelligenz in der Analyse öffentlich verfügbarer Daten wie Social Media, Surveillance oder öffentlichen Aufzeichnungen (Stand: 2024).
Doch komplexe Fälle wie Mordserien aus der Vergangenheit benötigen mehr als nur Daten – sie verlangen juristisch belastbare Beweisführung. Bild- oder Sprachanalyse mag Verdachtsmomente liefern, ersetzt aber keine polizeiliche Ermittlungsarbeit. Viele KI-Werkzeuge bleiben Werkzeug – nicht Ankläger.
Ethik, Verantwortung und Rechtssicherheit
Ein weiteres Problem: Die ethischen Implikationen solcher Systeme sind zumindest diskutabel. Dass ein längst Verstorbener ohne gerichtliche Überprüfung auf Basis eines algorithmischen Gutachtens als mutmaßlicher Mehrfachmörder gebrandmarkt wird, ist rechtlich wie journalistisch heikel. Insbesondere, wenn Schuldsprüche auf Spekulationen beruhen, nicht auf Beweisen – und potenziell lebende Verwandte betroffen sind.
Datenschutzrechtlich wird es ebenfalls komplex: Auch wenn verwendete Quellen öffentlich zugänglich waren, könnten durch Large Language Models generierte personenbezogene Profile Persönlichkeitsrechte verletzen. Ethische KI verlangt daher Transparenz, Nachvollziehbarkeit und klare Verantwortungsstrukturen – Standards, die hier nicht eingehalten wurden.
Die Rolle der Kryptografie im Zodiac-Fall
Die Verschlüsselungscodes des Zodiac-Killers sind sprichwörtlich legendär – und kryptografisch hochinteressant. Der sogenannte Z340-Code bestand aus 340 Zeichen und blieb über 50 Jahre ungelöst. Seine Entschlüsselung gelang erst 2020 durch ein internationales Team, das klassische Mustererkennung, statistische Häufigkeitsanalyse und automatisierte Permutationsalgorithmen kombinierte.
KI war auch hier beteiligt, allerdings eher unterstützend als führend. Der entscheidende Durchbruch gelang durch menschliche Intuition und Erfahrung. Dies zeigt deutlich: Kryptografische Codes der 1960er Jahre sind nicht trivial, und selbst modernste Algorithmen benötigen oft kontextuelles Wissen und semantische Sensibilität, die Maschinen nur bedingt besitzen.
Realistische Potenziale von KI in der Kriminalistik
Wo aber kann KI realistisch helfen? Viele Fachleute sehen großes Potenzial in präventiven Anwendungen: Gesichtserkennung auf Großveranstaltungen, Anomalieerkennung in Finanzdaten zur Terrorismusbekämpfung oder intelligente Forensik bei der Analyse großer Datenmengen.
Laut einer Analyse von MarketsandMarkets soll der globale KI-Markt für Sicherheits- und Überwachungssysteme von 14,9 Mrd. US-Dollar (2023) auf über 42,2 Mrd. US-Dollar bis 2028 wachsen – ein CAGR von 23,3 %. Technologien wie Predictive Policing, kriminologische Netzwerkanalyse oder biometrische Mehrfaktorverifizierung werden dabei eine zentrale Rolle spielen.
Handlungsempfehlungen für Technologieeinsatz mit Verantwortung
- Technologische Machbarkeitsgrenzen anerkennen: KI kann unterstützen, aber keine abgeschlossenen juristischen Beweise erzeugen. Entscheidend ist immer die Bewertung durch ausgebildete Ermittler und Gerichte.
- Ethikrat und Transparenzrichtlinien etablieren: Behörden, Privatinvestigatoren und Tech-Plattformen sollten ethische Standards formulieren, die die Rechte von Beschuldigten und Angehörigen schützen.
- Interdisziplinäre Teams aufbauen: Erfolgreiche KI-Anwendungen in der Forensik entstehen im Zusammenspiel von Informatik, Rechtswissenschaft, Kriminologie und Ethik.
Fazit: Zwischen Algorithmus und Aufklärung
Der Fall Zodiac bleibt ungeklärt – trotz massiver medialer Aufmerksamkeit, intensiver Ermittlungen und neuer technologischer Versuche. Der Wunsch, Verbrechen durch Algorithmen zu lösen, ist nachvollziehbar – doch allzu oft führt er zu vorschnellen Schlussfolgerungen. Künstliche Intelligenz kann wertvolle Indikatoren liefern, aber keine Wahrheit generieren, wo Beweise fehlen.
Technologie ist Werkzeug, nicht Richter. Wer Vertrauen in KI in der Justiz fördern will, muss deren Grenzen anerkennen, Verantwortung übernehmen und auf interdisziplinäre Kooperation setzen. Nur so bleibt der Traum von gerechter Technologie mehr als Fiktion.
Diskutieren Sie mit: Welche Rolle sollte KI in der Strafverfolgung Ihrer Meinung nach spielen? Haben Sie selbst Erfahrungen mit linguistischer oder kriminologischer Textanalyse gemacht? Teilen Sie Ihre Meinung in den Kommentaren!




