Die Geschichte der KI
70 Jahre: vom Gedankenexperiment zur Revolution.
In diesem Abschnitt verfolgen wir die faszinierende Reise der Kuenstlichen Intelligenz -- von ihren Anfaengen als akademische Kurositaet bis zur Technologie, die heute jede Branche veraendert.
Die Anfaenge (1950--1997)
Wichtige Meilensteine, die das Feld geformt haben:
- 1950 -- Alan Turing veroeffentlicht "Computing Machinery and Intelligence" -- der Turing-Test
- 1956 -- Die Dartmouth-Konferenz praegt den Begriff "Artificial Intelligence"
- 1966 -- ELIZA, der erste Chatbot (Mustererkennung, kein Verstaendnis)
- 1980er -- Expert-Systems-Boom → ueberhoehte Erwartungen → Erster KI-Winter
- 1997 -- IBMs Deep Blue besiegt Schachweltmeister Garri Kasparow
"Can machines think?" -- Alan Turing, 1950
Die Bruecken-Aera (1997--2012)
Die stillen Jahre, die das Fundament legten:
- 2006 -- Geoffrey Hintons Deep-Learning-Durchbruch
- 2011 -- IBM Watson gewinnt Jeopardy!
- 2012 -- AlexNet gewinnt ImageNet → Deep Learning wird massentauglich
- 2012 -- Google Brain erkennt Katzen in YouTube-Videos (unueberwacht)
Die zentrale Erkenntnis: Mehr Daten + mehr Rechenleistung = bessere Ergebnisse. Diese einfache Formel sollte das naechste Jahrzehnt praegen.
Die Transformer-Revolution (2012--2022)
Alles aenderte sich mit einem einzigen Paper:
- 2017 -- "Attention Is All You Need" -- die Transformer-Architektur
- 2018 -- GPT-1 (117M Parameter) -- erster Generative Pre-trained Transformer
- 2019 -- GPT-2 (1,5 Mrd.) -- "zu gefaehrlich zur Veroeffentlichung"
- 2020 -- GPT-3 (175 Mrd.) -- Few-Shot-Learning entsteht
- 2021 -- GitHub Copilot -- KI schreibt Code
- 2022 -- ChatGPT startet -- 100 Millionen Nutzer in 2 Monaten
Dies war der Moment, in dem KI vom Forschungsthema zum Mainstream wurde.
Der Big Bang (2022--2026)
Wir erleben die schnellste Technologieadoption der Geschichte:
| Jahr | Meilenstein |
|---|---|
| 2023 | GPT-4, Claude 2, Llama 2 (Open Source) |
| 2024 | Claude 3.5 Sonnet, GPT-4o, Gemini 1.5, Llama 3 |
| 2025 | Claude 4, GPT-5, DeepSeek R1, Qwen 3 |
| 2026 | Claude Opus 4.6, GPT-5.3, agentenbasierte KI wird Mainstream |
Alle 6 Monate werden Faehigkeiten, die unmoeglich schienen, zur Routine.
Was ist GPT?
Zerlegen wir den Namen:
- G = Generative -- es erzeugt neue Inhalte (Text, Code, Bilder)
- P = Pre-trained -- auf riesigen Datensaetzen vortrainiert, bevor Sie es nutzen
- T = Transformer -- die Architektur, die alles moeglich macht
GPT ist nicht die einzige Architektur, aber die einflussreichste. Andere Ansaetze: Claude (Constitutional AI), Gemini (multimodal), Llama (Open Source).
Training vs. Inferenz
Eine entscheidende Unterscheidung:
Training (Monate, Millionen von $)
- Milliarden von Textbeispielen einspeisen
- Milliarden von Gewichten anpassen
- Findet einmal statt (oder periodisch)
- Ergebnis: ein eingefrorenes Modell
Inferenz (Millisekunden, Cent-Betraege)
- Nutzer sendet einen Prompt
- Modell sagt naechste Tokens vorher
- Es findet kein Lernen statt
- Das Modell erinnert sich nicht an Ihre Konversation
Zentrale Erkenntnis: KI kann nicht aus Ihren Prompts lernen. Wenn Sie ChatGPT in einem Gespraech etwas "beibringen", vergisst es alles, sobald die Sitzung endet.
---quiz question: Wann wurde der Begriff "Artificial Intelligence" erstmals gepraegt? options:
- { text: "1943 -- auf einer Mathematik-Konferenz", correct: false }
- { text: "1956 -- auf der Dartmouth-Konferenz", correct: true }
- { text: "1966 -- als ELIZA erschaffen wurde", correct: false }
- { text: "1997 -- als Deep Blue gewann", correct: false } feedback: Der Begriff wurde auf der Dartmouth-Konferenz 1956 von John McCarthy gepraegt.
---quiz question: Wofuer steht das "T" in GPT? options:
- { text: "Technology", correct: false }
- { text: "Training", correct: false }
- { text: "Transformer", correct: true }
- { text: "Turing", correct: false } feedback: GPT = Generative Pre-trained Transformer. Die Transformer-Architektur wurde im Paper "Attention Is All You Need" von 2017 eingefuehrt.
---quiz question: Warum kann ein LLM nicht aus Ihren Chat-Nachrichten lernen? options:
- { text: "Es ist zu teuer, erneut zu trainieren", correct: false }
- { text: "Bei der Inferenz werden keine Modellgewichte aktualisiert -- das Modell ist eingefroren", correct: true }
- { text: "Die API blockiert das Lernen aus Datenschutzgruenden", correct: false } feedback: Waehrend der Inferenz sagt das Modell nur Tokens vorher -- es aktualisiert niemals seine Gewichte. Training ist ein separater, teurer Prozess.