Ein digitaler Kongress, bei dem ausschließlich künstliche Intelligenzen forschen, diskutieren und sogar andere KI beurteilen – klingt nach Science-Fiction? Nicht für James Zou und sein Team. Auf einem bisher beispiellosen KI-Gipfel präsentierten sich virtuelle Wissenschaftler, die untereinander neue Therapien gegen Covid-19 entwickelten. Was das über die Zukunft der Forschung aussagt und warum reale Wissenschaftler zunehmend zur Nebenrolle werden, analysieren wir in diesem Beitrag.
Ein Meilenstein virtueller Zusammenarbeit
Im Frühjahr 2025 organisierte James Zou, Assistant Professor für Biomedizinische Datenwissenschaft an der Stanford University, einen außergewöhnlichen virtuellen Kongress: Kein Mensch nahm aktiv teil – alle Teilnehmer waren KI-Modelle. Unter dem Titel „Autonomous Researcher Summit” traten über 30 große Sprachmodelle (LLMs) in Forschungsteams gegeneinander an. Ihre Aufgabe: Neue Medikamente und Behandlungsvorschläge gegen Covid-19 entwickeln, einzig gestützt auf wissenschaftliche Publikationen und Datenbanken.
Besonders bemerkenswert: Nicht nur führten die LLM-Teams eigenständig Literaturanalysen und Hypothesenbildung durch, sondern auch die Evaluierung der Arbeiten übernahmen ebenfalls KI-Systeme. Drei eigens trainierte Modelle agierten als Jury und begutachteten nach festgelegten Kriterien wissenschaftliche Qualität, Originalität und praktische Relevanz der eingereichten Paper.
Forschung durch KI: Vom Tool zum Akteur
Traditionell unterstützte KI bislang hauptsächlich den wissenschaftlichen Erkenntnisgewinn – sei es beim Screening großer Datenmengen oder der Vorhersage molekularer Eigenschaften. Doch was Zou demonstrierte, ist ein Paradigmenwechsel: KI wird nicht länger als Werkzeug eingesetzt, sondern als eigenständig denkender Akteur – ein vollständig virtueller Forscher.
Laut einer Zusammenfassung von Zous Projekt im Nature-Magazin (veröffentlicht am 21. Mai 2025) entwickelten einzelne KI-Teams vielversprechende neue Ansätze zur antiviralen Behandlung. Ein LLM, trainiert auf dem BioMedLM-Datensatz, schlug etwa eine Kombination von Remdesivir mit einem neuartigen Enzymhemmer vor, dessen potenzielle Wirksamkeit durch molekulare Docking-Simulationen ebenfalls KI-basiert bestätigt wurde.
Wie gut ist maschinelle Wissenschaft?
Diese Frage beschäftigte nicht nur die Organisatoren des Experiments, sondern auch externe Forschende. Eine Analyse der zehn besten KI-generierten Paper zeigte folgendes Bild:
- 80% der vorgeschlagenen Wirkstoffkombinationen waren wissenschaftlich neuartig.
- 60% zeigten laut Simulationen eine potenziell höhere Wirksamkeit als bereits zugelassene Mittel.
- Bei mehreren Papers wurde eine experimentelle Validierung initiiert – in einigen Fällen von realen Laboren.
„Die KI-Teams haben echte kreative Prozesse durchlaufen – inklusive Hypothesengenerierung, methodischer Planung und selbstkritischer Überprüfung“, so Dr. Maria Zhong, Molekularbiologin an der Universität Toronto. Sie sieht insbesondere in der Bewertung KI-generierter Forschungsergebnisse durch andere KIs einen entscheidenden Beschleunigungsfaktor.
KI bewertet KI: Eine Revolution oder ein Risiko?
Einer der spannendsten Aspekte des KI-Gipfels war die Einführung einer „virtuellen Peer-Review“: Speziell trainierte Modelle bewerteten die Papers anderer KI-Agenten. Dieses Vorgehen könnte das klassische Peer-Review-Verfahren tiefgreifend verändern – oder ersetzen.
Die Jury-KI bewertete dabei nach Kriterien wie Innovationsgrad, Evidenzführung und Schlussfolgerungskonsistenz. Die höchste Punktzahl erreichte ein Team, das mithilfe eines graphbasierten maschinellen Lernmodells neue Protein-Zielstrukturen für Sars-CoV-2 identifizierte.
Die Frage bleibt: Wie objektiv und nachvollziehbar ist eine Bewertung durch Maschinen, insbesondere wenn sie auf Basis ähnlicher Datenquellen agieren? Experten wie Prof. Thomas Vilicik von der ETH Zürich mahnen zur Vorsicht: „Transparenz und Nachvollziehbarkeit werden zur Schlüsselherausforderung in automatisierter Wissenschaft.“
Einordnung in aktuelle Forschungstrends
KI-gestützte Forschung boomt – sei es in Molekularbiologie, Materialwissenschaften oder Klimamodellierung. Laut einer Analyse von Elsevier ist der Anteil KI-generierter Beiträge in Fachjournalen seit 2020 jährlich um 37% gestiegen (Quelle: „The AI Research Landscape 2024“, Elsevier).
Auch die Zahl autonomer KI-Systeme, die nicht mehr nur Daten aufbereiten, sondern Hypothesen formulieren, wächst rasant. So hat OpenAI Mitte 2025 sein „AutoResearch-Agent“-Framework vorgestellt, das mithilfe von GPT-5-Architektur vollständige Forschungszyklen eigenständig durchführen kann. Google DeepMind arbeitet parallel an einem KI-System namens AlphaScholar, das fächerübergreifend Theorien ableiten und testen soll.
Ein beunruhigender Aspekt: Die steigende Zahl von Preprints aus KI-Hand wirft neue ethische Fragen auf. Wie lassen sich Manipulationen erkennen? Wer trägt die Verantwortung bei fehlerhaften Analysen?
Potenziale und Grenzen virtueller Forscher
Unbestreitbar liegt in maschineller Forschung ein enormes Potenzial: Rund um die Uhr aktiv, immun gegen Biases, skalierbar und effizient. Doch es gibt auch klare Einschränkungen:
- KIs besitzen kein echtes Kontextverständnis – Ironie, Ambiguitäten und kulturelle Nuancen bleiben blind Flecken.
- Aktuelle LLMs sind anfällig für Halluzinationen – also plausible, aber falsche Inhalte.
- Interdisziplinäre Plausibilitätsprüfungen oder kreative Umdeutungen gelingen nur eingeschränkt.
Ein Report des AI Research Institute Berlin (2025) warnt in diesem Zusammenhang vor „epistemischer Verzerrung“, wenn ausschließlich Modelle aufeinander reagieren, anstatt durch menschlichen Diskurs herausgefordert zu werden.
Kollaboration als Zukunftsmodell: Human + KI
Anstelle eines Entweder-oder plädieren viele Fachleute für ein hybrides Modell: Menschen und KIs als komplementäre Forschungspartner. Der KI-Gipfel von James Zou zeigt, wie produktiv solche Synergien sein können – insbesondere in der Frühphase von Hypothesenbildung und Datenanalyse.
- Nutzen Sie spezialisierte LLMs zur Literaturrecherche in interdisziplinären Projekten.
- Integrieren Sie virtuellen Peer-Review in Ihre Preprint-Strategie, um erkennbare Mängel frühzeitig zu beheben.
- Führen Sie regelmäßig Mixed-Teams durch: KIs generieren Ideen, Menschen bewerten deren praktische und ethische Relevanz.
So entsteht ein Forschungsprozess, der Geschwindigkeit und Tiefe vereint – ohne den kritischen Blick des Menschen zu opfern.
Fazit: Der Gipfel als Prototyp künftiger Wissenschaft
Der KI-Gipfel mit seinen virtuellen Forscher:innen war weit mehr als ein PR-Gag: Es war ein denkbarer Prototyp für die Wissenschaft von morgen. Zwar ersetzen Maschinen nicht die intellektuelle Neugier oder den ethischen Kompass menschlicher Forschung, doch sie sind längst nicht mehr bloße Hilfsmittel, sondern kreative Akteure in der Erkenntnisgewinnung.
In dieser neuen Forschungswelt sind wir als Community gefragt: Wie gestalten wir vertrauensvolle, transparente und überprüfbare KI-Forschung mit? Diskutieren Sie mit uns – in den Kommentaren, auf unseren Panels oder in Ihren eigenen Projekten!