Die Welt der Künstlichen Intelligenz (KI) ist faszinierend – und für viele ebenso verwirrend. Begriffe wie AGI, Tokenisierung oder Weltmodell begegnen uns immer häufiger, bleiben jedoch oft abstrakt. Dieser Artikel entschlüsselt die zentralen Fachbegriffe der generativen KI und öffnet so den Zugang zu einem der wichtigsten Technologiefelder unserer Zeit.
Warum es wichtig ist, die Sprache der KI zu verstehen
Generative KI ist längst nicht mehr exklusives Expertenthema – sie beeinflusst Branchen wie Bildung, Medizin, Journalismus und Softwareentwicklung. Insbesondere mit dem Aufstieg großer Sprachmodelle (Large Language Models, LLMs) wie GPT-4, Claude oder Mistral wird ein Verständnis grundlegender Konzepte zur Voraussetzung, um relevante technologische und ethische Entwicklungen mitgestalten zu können.
Doch das Fachvokabular wirkt oft wie eine Eintrittsbarriere. Was ist ein Token? Wie funktioniert ein Weltmodell? Und was unterscheidet eine Narrow AI von der angestrebten AGI? Wir gehen diesen Fragen auf den Grund und erläutern zentrale Begriffe praxisnah.
1. AGI – Artificial General Intelligence
Die Abkürzung AGI steht für „Artificial General Intelligence“ – also eine künstliche allgemeine Intelligenz. Während heutige Systeme wie ChatGPT (Stand: 2024) sogenannte „Narrow AIs“ sind, also auf bestimmte Aufgaben beschränkt, wäre eine AGI in der Lage, jede kognitive Aufgabe genauso gut (oder besser) wie ein Mensch zu lösen.
Der Weg dorthin ist lang und kontrovers. Während einige Expert:innen AGI bereits für die 2030er-Jahre erwarten, halten andere sie für langfristig unerreichbar oder sogar für gefährlich. Eine aktuelle Studie von McKinsey (2024) zeigt, dass 52 % der befragten KI-Forscher:innen AGI bis 2040 für realistisch halten. Einigkeit besteht darüber, dass leistungsfähigere Modelle, verbesserte Transformationstechniken und Interaktionsfähigkeit fundamentale Voraussetzungen sind.
2. Token – die kleinste Informationseinheit in LLMs
Tokens sind essenziell im Aufbau von Sprachmodellen. Ein Token kann ein Wort, ein Wortteil oder ein einzelnes Zeichen sein – je nach Tokenizer (das Werkzeug, das Text in Tokens zerlegt). GPT-Modelle von OpenAI z. B. nutzen das Byte-Pair-Encoding (BPE), bei dem häufige Zeichenkombinationen zu Tokens zusammengefasst werden.
Beispiel: Der Satz „Künstliche Intelligenz verändert alles.“ könnte in folgende Tokens zerlegt werden: „Künst“, „liche“, „ Int“, „ellig“, „enz“ etc. Je länger der Input, desto mehr Rechenleistung benötigt das Modell – KI-Anbieter geben daher tokenbasierte Obergrenzen an (z. B. 128.000 Tokens bei GPT-4 Turbo).
Laut OpenAI entsprechen 1.000 Tokens ungefähr 750 Wörtern – ein Zusammenhang, der besonders relevant für Preisgestaltung beim API-Zugriff ist.
3. Prompt – die (oft unterschätzte) Kunst der Eingabe
Der „Prompt“ ist das, was dem KI-Modell gegeben wird, um eine Ausgabe zu erzeugen. Je klarer, kontextualisierter und zielgerichteter ein Prompt ist, desto besser ist das Ergebnis. Dieser Prozess wird als Prompt Engineering bezeichnet, und er entwickelt sich zu einer eigenständigen Disziplin in der KI-Entwicklung.
Ein Beispiel: Statt nur zu schreiben „Erkläre Photosynthese“, liefert ein besser formulierter Prompt viel mehr Kontext: „Stelle die Photosynthese für eine 12-jährige Schülerin verständlich in drei Absätzen dar und nutze einfache Sprache.“
4. Weltmodell – wie KI die Realität abbildet
Weltmodelle („world models“) versuchen, interne Repräsentationen der realen Welt zu erfassen – ein Ansatz, der besonders im Bereich Reinforcement Learning wichtig ist. Die Idee: Statt nur auf Muster im Input zu reagieren, entwickelt die KI ein internes Modell über Ursache-Wirkungs-Zusammenhänge.
Bekannt wurde dieser Begriff u. a. durch das gleichnamige Paper von David Ha und Jürgen Schmidhuber (2018). Moderne Ansätze, etwa bei der Entwicklung von autonomen Agenten oder beim Training von Robotern, nutzen Weltmodelle, um Simulationen durchzuführen und Handlungen vorauszuberechnen.
Das Ziel: Künstliche Intelligenz, die nicht nur reagiert, sondern „versteht“ und antizipiert.
5. Fine-Tuning und Retrieval-Augmented Generation (RAG)
Aktuelle Sprachmodelle können durch Fine-Tuning oder durch Retrieval-Augmented Generation (RAG) spezialisiert und verbessert werden.
- Fine-Tuning: Das Modell wird mit zusätzlichen, spezifischen Datensätzen nachtrainiert, um auf eine bestimmte Domäne (z. B. Recht, Medizin) optimiert zu werden.
- RAG: Das Modell erhält Zugang zu einer externen Datenbank, aus der relevante Informationen bei jeder Anfrage dynamisch abgerufen werden.
Beispiel: Eine juristische KI mit RAG kann aktuelle Gesetzestexte aus einer Datenbank einbinden, ohne dass diese im Modell „eintrainiert“ sein müssen. Das senkt Kosten und erhöht Aktualität.
6. LLM – Large Language Model
Der Begriff LLM beschreibt große Sprachmodelle, die mit Milliarden von Parametern auf hochdimensionale Zusammenhänge in Textdaten trainiert sind. Bekannte Beispiele sind GPT-4 (OpenAI), Claude 3 (Anthropic), Gemini (Google) oder LLaMa 3 (Meta).
Laut einer Studie der Stanford CRFM (Center for Research on Foundation Models) wuchs die durchschnittliche Parameteranzahl von LLMs zwischen 2018 und 2024 um über das 1000-Fache. Allein GPT-4 wird bis zu 1,76 Billionen Parameter zugeschrieben (inoffizielle Schätzung, OpenAI hat keine Details veröffentlicht).
SEO-relevante Anwendungen wie Content-Generierung, Frage-Antwort-Systeme oder Chatbots basieren heute fast ausschließlich auf diesen Modellen.
7. Embeddings – semantische Bedeutung mathematisch kodiert
Ein Embedding ist eine Vektordarstellung eines Tokens, Satzes oder Dokuments. Hierbei wird die semantische Bedeutung in eine mathematische Form überführt, sodass die KI ähnlich bedeutungsvolle Inhalte erkennen und vergleichen kann.
Praxisanwendung: Bei semantischer Suche (z. B. in einer Wissensdatenbank) wird nicht mehr nach Schlagworten gesucht, sondern nach dem inhaltlich Ähnlichsten. Das verbessert die Trefferquote erheblich.
8. Transformer – das Herz moderner KI
Transformer-Architekturen, vorgestellt von Vaswani et al. im bahnbrechenden Paper „Attention Is All You Need“ (2017), revolutionierten maschinelles Lernen. Sie erlauben es, parallelisierte Abhängigkeiten in großen Textdaten effizient zu verarbeiten.
Fast alle modernen KI-Modelle – GPT, BERT, T5 oder Claude – beruhen auf Variationen dieser Struktur. Das Schlüsselkonzept dabei ist das Self-Attention-Verfahren, mit dem das Modell relevante Teile eines Textes miteinander in Beziehung setzt.
9. Praxis-Tipps für KI-Einsteiger
- Nutzen Sie einfache, strukturierte Prompts – dies verbessert die Modellantworten erheblich.
- Arbeiten Sie mit Temperatur-Parametern (z. B. zwischen 0,2 und 0,8), um den Grad der „Kreativität“ des Outputs zu regulieren.
- Verwenden Sie öffentlich verfügbare Tools wie OpenAI Playground oder Hugging Face Spaces, um Konzepte wie Tokens oder Embeddings auszuprobieren.
10. Zukunftsausblick: Auf dem Weg zu erklärbarer KI
Mit dem steigenden Einfluss generativer KI wächst auch der Bedarf nach Erklärbarkeit (Explainable AI, XAI) – also dem Verständnis, wie Entscheidungen und Texte zustande kommen. Viele Forschende arbeiten deshalb an Methoden zur Visualisierung von Attention-Strukturen, Tokenverläufen und Embedding-Clustern.
2024 veröffentlichte das MIT-IBM Watson AI Lab eine Studie, laut der 67 % der Nutzer:innen von generativer KI angeben, dass sie nur „teilweise“ oder „gar nicht“ verstehen, wie das System arbeitet (Quelle: MIT Tech Review Insights, 2024).
Diese Lücke zu schließen, beginnt mit Sprache. Wer die Begriffe kennt, kann tiefergehende Konzepte besser erfassen – und KI nicht nur benutzen, sondern reflexiv und verantwortungsvoll mitgestalten.
Die KI-Welt verändert sich rasant, aber das Verständnis ihrer Grundbegriffe ist ein Schlüssel zur Teilhabe. Welche Begriffe oder Technologien würdet ihr gern nächstes Mal erklärt bekommen? Diskutiert mit uns in den Kommentaren oder teilt diesen Artikel mit Kolleg:innen – Wissen ist der erste Schritt zur Kompetenz.