🤖 Wie lernen KI-Systeme wirklich? (Keine Kryptik)

1. Introduction

1. Das Problem (Warum ist es schwer?)

Stell dir vor: Du willst einen Roboter bauen, der "Katze" vs. "Hund" unterscheidet

Die klassische Weise (funktioniert NICHT):
Programmiere Regeln: "Wenn Ohren spitz → Katze"
Problem: Was ist "spitz"? Wie misst man das? Was mit gekräuselten Ohren? → Unmöglich!

Die clevere Weise (seit 2012):

Zeig dem Programm 1 Million Bilder: "Das ist Katze, das Hund, das Katze..."
Das System lernt SELBST, welche Merkmale zählen.

Aber HOW? Das ist die Magie:

🎯 Der Prozess:
  1. Raten: System wirft würfel → "Das könnte Katze sein" (wahrscheinlich FALSCH)
  2. Fehler messen: "Nope, war Hund. Du hattest 87% Unrecht."
  3. Anpassen: "OK, nächstes Mal stärker auf andere Merkmale achten"
  4. Repeat 1000 Millionen mal → Irgendwann 99.9% richtig

Menschliches Gehirn: Macht das auch! Du zeigst einem Kind 50 Katzen und 50 Hunde → es kann danach unterscheiden.

Der Unterschied: KI braucht VIEL mehr Beispiele (Millionen statt Dutzende), aber der Prozess ist identisch.

2. Backprop

2. Der Trick dahinter: Backpropagation (Das ist nicht kompliziert!)

Praktisches Beispiel: Ein Kuchen-Rezept

Rezept: Schokoladen-Kuchen
200g Mehl + 100g Zucker + 50g Kakao + 2 Eier = Teig
Teig + 180°C, 30min = Kuchen

Problem: Der Kuchen schmeckt fad.

Backpropagation ist einfach:

① Wo kommt der Fehler her?
"Der Kuchen ist fade. Warum?" → Arbeite RÜCKWÄRTS:
Kuchen ist fade ← vielleicht nicht genug Zucker?
← Oder nicht genug Kakao?
← Oder Temperatur zu niedrig?
② Berechne Schuld:
Zucker: trägt 40% bei (erhöhe ihn)
Kakao: trägt 35% bei (erhöhe ihn)
Temperatur: trägt 25% bei (erhöhe sie)
③ Neues Rezept:
220g Mehl + 130g Zucker + 75g Kakao + 2 Eier @ 190°C
Test: Bessser! (82% statt 60% Zufriedenheit)

Das ist EXAKT wie neuronale Netze lernen: Fehler zurückverfolgen, sehen wer schuld ist, korrigieren.

Im echten Leben: ChatGPT-Training

  • Input: "Wie bäckt man Brot?" → ChatGPT antwortet
  • Vergleich: Expertenvortrag: "Deine Antwort war OK, aber vergass..." → 72% richtig
  • Berechne Schuld: Welche Teile des Gehirns waren schuld?
  • Anpassen: "Nächstes mal DARAN mehr achten"
  • Repeat: 1 Billion mal mit 1 Billion verschiedenen Texte

⚠️ Das Problem: Bei ChatGPT gibt es nicht 3 Parameter (Mehl/Zucker/Kakao), sondern 175 Milliarden Parameter. Die Berechnung braucht MASSIVE GPU-Kraft.

3. Transformers

3. Die Revolution: Transformers (2017) - Warum plötzlich alles besser wurde

Das alte Problem: Sequenzen (Nacheinander) ist LANGSAM

Altes System (RNN): Wie einen Text Wort-für-Wort zu lesen
  • Wort 1: "Der" → speichern
  • Wort 2: "Himmel" → benutze Info von Wort 1
  • Wort 3: "ist" → benutze Info von Wort 1+2
  • Wort 1000: "Sonne" → benutze Info von alle 999 Wörter davor

Problem: Wort 1000 braucht 1000 Schritte! Kann man nicht parallelisieren. Super langsam.

Die neue Lösung: Transformers (Alles auf einmal sehen!)

✨ Die neue Idee: "Attention"
Statt Wort-für-Wort: Schau alle Wörter GLEICHZEITIG an!
  • "Welche Wörter sind relevant für mich?"
  • "Konzentrier dich auf die wichtigen"
  • "Ignoriere den Rest"

Resultat: 100x schneller! Kann 8 Milliarden Parameter auf 1000 Computern parallel trainieren.

Praktisches Beispiel: Satz übersetzen

Deutscher Satz: "Der schwarze Hund läuft schnell"
Englisch übersetzen: Welche Wörter sind relevant?
  • "schwarze" + "Hund" → wichtig! → "black dog"
  • "läuft schnell" → wichtig! → "runs quickly"
  • "Der" → grammatikalisches Wort, aber weniger important
Altes System: Hätte "Der" einzeln bearbeitet, dann "schwarze", dann "Hund"... = LANGSAM
Transformers: Sieht alles auf einmal, findet Patterns → SCHNELL

Deswegen funktioniert ChatGPT, Google, DeepL etc. alle mit Transformers.

4. Real

4. Real vs. Hype: Was funktioniert WIRKLICH?

✅ Was REAL funktioniert (2024)

🎨 Bilder generieren: DALL-E, Midjourney

Gib ein: "Ein Astronaut sitzt auf einem Stuhl" → Fertig! Super realistisch.

💬 Normale Gespräche: ChatGPT, Claude

Schreib einen Essay über Napoleon? Erkläre Quantenmechanik? Programmier einen Bug Fix? → Alles funktioniert sehr gut.

🧬 Biologie: AlphaFold (proteinvorhersage)

"Wie sieht diese Proteinmolekül aus?" → 86% Genauigkeit. Revolutioniert Medikament-Entwicklung.

🎬 Video generieren: Sora (OpenAI)

Text: "Ein Skateboarder in Tokyo, neon Lichter" → 1 Minute realistische Video. NEW, aber funktioniert.

❌ Was NICHT funktioniert (Hype ohne Substanz)

⚠️ "AGI in 2024" / "KI wird bald Menschen übernehmen"
Status: HYPE. ChatGPT ist noch nicht mal so intelligent wie ein 10-jähriges Kind. Es ist nur ein sehr großes "Textvervollständigungs-System". Nicht annähernd AGI.
⚠️ "KI kann Zukunft vorhersagen"
Status: FALSCH. Systeme können nur aus Vergangenheit lernen. Aktienmarkt? Wetter morgen? Nein, kein guter Predictor.
⚠️ "AI wird deinen Job definitiv ersetzen in 6 Monaten"
Status: ÜBERTRIEBEN. Ja, manche Jobs ändern sich. Aber komplexe kreative Arbeit? Noch sehr schwer für KI allein.

Die Wahrheit: KI ist SEHR gut in: Muster finden, Texte schreiben, Bilder analysieren. KI ist NICHT gut in: Echtes Verständnis, Kreativität von Grund auf, echte Problemlösung.

5. Limits

5. Die harten GRENZEN (Das, was niemand gerne zugeben will)

🚫 Problem #1: Halluzinationen (KI erfindet einfach Fakten)
Frag ChatGPT: "Wer war der 43. Präsident der USA?"
Antwort: "George W. Bush" ✅
Frag: "Erfinde eine Statistik über Bleistifte in Norwegen"
Antwort: "78.4% der Schulen verwenden rote Bleistifte" (KOMPLETT ERFUNDEN!)

Warum? ChatGPT hat kein inneres Modell von "wahr" vs. "falsch". Es errät nur, was der Mensch hören will!

🚫 Problem #2: Niemand versteht, was sie tun (Black Box)
ChatGPT hat 175 Milliarden Parameter (175,000,000,000 Zahlen).
Wenn es eine falsche Antwort gibt: Warum? Welche der 175 Milliarden?

Antwort: Niemand weiß! Es ist ein komplettes Mystère. Nicht böse gemeint - technisch unmöglich zu verstehen.

🚫 Problem #3: Brauchen MILLIONEN Beispiele zum Lernen
Kind: Sieht 10 Katzen → "Ich verstehe, was Katze ist"
ChatGPT: Braucht 10 MILLIARDEN Katzen-Texte zum Lernen

Resultat: Training kostet Millionen Euro. Nicht praktisch für kleine Teams.

🚫 Problem #4: Keine echte Reasoning (Logik)
"Wenn alle Menschen Mortalität haben, und Sokrates ist ein Mensch, ist Sokrates mortal?"
→ Menschen: Trivial logisch!
→ ChatGPT: Textvervollständigung. Bekommt es richtig, aber nicht aus logischem Denken.

Problem: Bei komplexen logischen Ketten versagt es leicht.

🚫 Problem #5: Vergisst alles nach Training
ChatGPT wurde 2023 trainiert. Neue Ereignisse 2024? Kennt es nicht!
"Wer hat die Wahl 2024 gewonnen?" → "Keine Information nach April 2024"

Lösung: Man muss Konversation + neue Daten "einfüttern" jedes Mal. Nicht elegant.

🚫 Problem #6: Kosten sind EXTREM
GPT-4 Training: ~$100 Millionen
Inference (pro Anfrage): ~$0.0001 - $0.001
→ Nicht jeder kann ein neues ChatGPT trainieren.

Resultat: Nur OpenAI, Google, Meta können das. Zentralisierung.

6. Future

6. Was kommt 2025-2026? (Die echten Roadmaps)

🔮 Was die Companies VERSPRECHEN:

  • OpenAI: GPT-5 mit besserem Reasoning (Early 2025?)
  • DeepMind: AlphaFold 4 für noch bessere Proteine
  • Meta: Llama 4 als Open-Source GPT-4 Alternative
  • Google: Gemini 2.0 mit längeren Kontexten (1M Tokens = ganze Bücher!)

🤔 Was ist REALISTISCH?

Frage: Werden Halluzinationen weg sein?
Antwort: Nein. Das ist strukturelles Problem. Können nur "Retrieval-Augmented Generation" nutzen (Wikipedia + ChatGPT zusammen). Nicht elegant.
Frage: Werden KI-Systeme 10x billiger?
Antwort: Vielleicht 2-3x billiger. Moore's Law ist vorbei. Effizienz ist neuer Focus.
Frage: Wird es AGI geben (echte künstliche Intelligenz)?
Antwort: Hängt davon ab, wie man AGI definiert. Wenn "ChatGPT Level" = AGI, dann maybe. Wenn "Menschenniveau" = dann NEIN, noch nicht in Sicht.
Frage: Wird KI meinen Job ersetzen?
Antwort: Für manche Jobs JA (einfache Codierung, Bild-Erstellung, Textumschreiben). Für andere NEIN (kreative Direktoren, Ärzte, Handwerker - noch lange nicht).

🎯 Das echte Next Thing (was wirklich wichtig wird):

1. Effizienz: Nicht GPT-5 mit 500 Billionen Parametern. Besser ist: Smartere 50-Billionen-Parameter-Modelle.
2. Interpretierbarkeit: Verstehen, WARUM eine KI so antwortet (noch unter 1% verstanden).
3. Specialization: Nicht ein universelles ChatGPT. Stattdessen: Experten-Modelle für Medizin, Jura, Coding (besser als generisch).
4. Integration: KI nicht standalone. Sondern eingebaut in Tools die Menschen SCHON nutzen.

Die Botschaft für 2025: Nicht mehr "Ist KI magisch?". Die Frage ist "Wie nutzen wir KI PRAKTISCH?"