🤖 Wie lernen KI-Systeme wirklich? (Keine Kryptik)
1. Introduction
1. Das Problem (Warum ist es schwer?)
Stell dir vor: Du willst einen Roboter bauen, der "Katze" vs. "Hund" unterscheidet
Programmiere Regeln: "Wenn Ohren spitz → Katze"
Problem: Was ist "spitz"? Wie misst man das? Was mit gekräuselten Ohren? → Unmöglich!
Die clevere Weise (seit 2012):
Zeig dem Programm 1 Million Bilder: "Das ist Katze, das Hund, das Katze..."
Das System lernt SELBST, welche Merkmale zählen.
Aber HOW? Das ist die Magie:
- Raten: System wirft würfel → "Das könnte Katze sein" (wahrscheinlich FALSCH)
- Fehler messen: "Nope, war Hund. Du hattest 87% Unrecht."
- Anpassen: "OK, nächstes Mal stärker auf andere Merkmale achten"
- Repeat 1000 Millionen mal → Irgendwann 99.9% richtig
Menschliches Gehirn: Macht das auch! Du zeigst einem Kind 50 Katzen und 50 Hunde → es kann danach unterscheiden.
Der Unterschied: KI braucht VIEL mehr Beispiele (Millionen statt Dutzende), aber der Prozess ist identisch.
2. Backprop
2. Der Trick dahinter: Backpropagation (Das ist nicht kompliziert!)
Praktisches Beispiel: Ein Kuchen-Rezept
200g Mehl + 100g Zucker + 50g Kakao + 2 Eier = Teig
Teig + 180°C, 30min = Kuchen
Problem: Der Kuchen schmeckt fad.
Backpropagation ist einfach:
"Der Kuchen ist fade. Warum?" → Arbeite RÜCKWÄRTS:
Kuchen ist fade ← vielleicht nicht genug Zucker?
← Oder nicht genug Kakao?
← Oder Temperatur zu niedrig?
Zucker: trägt 40% bei (erhöhe ihn)
Kakao: trägt 35% bei (erhöhe ihn)
Temperatur: trägt 25% bei (erhöhe sie)
220g Mehl + 130g Zucker + 75g Kakao + 2 Eier @ 190°C
Test: Bessser! (82% statt 60% Zufriedenheit)
Das ist EXAKT wie neuronale Netze lernen: Fehler zurückverfolgen, sehen wer schuld ist, korrigieren.
Im echten Leben: ChatGPT-Training
- Input: "Wie bäckt man Brot?" → ChatGPT antwortet
- Vergleich: Expertenvortrag: "Deine Antwort war OK, aber vergass..." → 72% richtig
- Berechne Schuld: Welche Teile des Gehirns waren schuld?
- Anpassen: "Nächstes mal DARAN mehr achten"
- Repeat: 1 Billion mal mit 1 Billion verschiedenen Texte
⚠️ Das Problem: Bei ChatGPT gibt es nicht 3 Parameter (Mehl/Zucker/Kakao), sondern 175 Milliarden Parameter. Die Berechnung braucht MASSIVE GPU-Kraft.
3. Transformers
3. Die Revolution: Transformers (2017) - Warum plötzlich alles besser wurde
Das alte Problem: Sequenzen (Nacheinander) ist LANGSAM
- Wort 1: "Der" → speichern
- Wort 2: "Himmel" → benutze Info von Wort 1
- Wort 3: "ist" → benutze Info von Wort 1+2
- Wort 1000: "Sonne" → benutze Info von alle 999 Wörter davor
Problem: Wort 1000 braucht 1000 Schritte! Kann man nicht parallelisieren. Super langsam.
Die neue Lösung: Transformers (Alles auf einmal sehen!)
Statt Wort-für-Wort: Schau alle Wörter GLEICHZEITIG an!
- "Welche Wörter sind relevant für mich?"
- "Konzentrier dich auf die wichtigen"
- "Ignoriere den Rest"
Resultat: 100x schneller! Kann 8 Milliarden Parameter auf 1000 Computern parallel trainieren.
Praktisches Beispiel: Satz übersetzen
Englisch übersetzen: Welche Wörter sind relevant?
- "schwarze" + "Hund" → wichtig! → "black dog"
- "läuft schnell" → wichtig! → "runs quickly"
- "Der" → grammatikalisches Wort, aber weniger important
Transformers: Sieht alles auf einmal, findet Patterns → SCHNELL
Deswegen funktioniert ChatGPT, Google, DeepL etc. alle mit Transformers.
4. Real
4. Real vs. Hype: Was funktioniert WIRKLICH?
✅ Was REAL funktioniert (2024)
Gib ein: "Ein Astronaut sitzt auf einem Stuhl" → Fertig! Super realistisch.
Schreib einen Essay über Napoleon? Erkläre Quantenmechanik? Programmier einen Bug Fix? → Alles funktioniert sehr gut.
"Wie sieht diese Proteinmolekül aus?" → 86% Genauigkeit. Revolutioniert Medikament-Entwicklung.
Text: "Ein Skateboarder in Tokyo, neon Lichter" → 1 Minute realistische Video. NEW, aber funktioniert.
❌ Was NICHT funktioniert (Hype ohne Substanz)
Status: HYPE. ChatGPT ist noch nicht mal so intelligent wie ein 10-jähriges Kind. Es ist nur ein sehr großes "Textvervollständigungs-System". Nicht annähernd AGI.
Status: FALSCH. Systeme können nur aus Vergangenheit lernen. Aktienmarkt? Wetter morgen? Nein, kein guter Predictor.
Status: ÜBERTRIEBEN. Ja, manche Jobs ändern sich. Aber komplexe kreative Arbeit? Noch sehr schwer für KI allein.
Die Wahrheit: KI ist SEHR gut in: Muster finden, Texte schreiben, Bilder analysieren. KI ist NICHT gut in: Echtes Verständnis, Kreativität von Grund auf, echte Problemlösung.
5. Limits
5. Die harten GRENZEN (Das, was niemand gerne zugeben will)
Frag ChatGPT: "Wer war der 43. Präsident der USA?"
Antwort: "George W. Bush" ✅
Frag: "Erfinde eine Statistik über Bleistifte in Norwegen"
Antwort: "78.4% der Schulen verwenden rote Bleistifte" (KOMPLETT ERFUNDEN!)
Warum? ChatGPT hat kein inneres Modell von "wahr" vs. "falsch". Es errät nur, was der Mensch hören will!
ChatGPT hat 175 Milliarden Parameter (175,000,000,000 Zahlen).
Wenn es eine falsche Antwort gibt: Warum? Welche der 175 Milliarden?
Antwort: Niemand weiß! Es ist ein komplettes Mystère. Nicht böse gemeint - technisch unmöglich zu verstehen.
Kind: Sieht 10 Katzen → "Ich verstehe, was Katze ist"
ChatGPT: Braucht 10 MILLIARDEN Katzen-Texte zum Lernen
Resultat: Training kostet Millionen Euro. Nicht praktisch für kleine Teams.
"Wenn alle Menschen Mortalität haben, und Sokrates ist ein Mensch, ist Sokrates mortal?"
→ Menschen: Trivial logisch!
→ ChatGPT: Textvervollständigung. Bekommt es richtig, aber nicht aus logischem Denken.
Problem: Bei komplexen logischen Ketten versagt es leicht.
ChatGPT wurde 2023 trainiert. Neue Ereignisse 2024? Kennt es nicht!
"Wer hat die Wahl 2024 gewonnen?" → "Keine Information nach April 2024"
Lösung: Man muss Konversation + neue Daten "einfüttern" jedes Mal. Nicht elegant.
GPT-4 Training: ~$100 Millionen
Inference (pro Anfrage): ~$0.0001 - $0.001
→ Nicht jeder kann ein neues ChatGPT trainieren.
Resultat: Nur OpenAI, Google, Meta können das. Zentralisierung.
6. Future
6. Was kommt 2025-2026? (Die echten Roadmaps)
🔮 Was die Companies VERSPRECHEN:
- OpenAI: GPT-5 mit besserem Reasoning (Early 2025?)
- DeepMind: AlphaFold 4 für noch bessere Proteine
- Meta: Llama 4 als Open-Source GPT-4 Alternative
- Google: Gemini 2.0 mit längeren Kontexten (1M Tokens = ganze Bücher!)
🤔 Was ist REALISTISCH?
Antwort: Nein. Das ist strukturelles Problem. Können nur "Retrieval-Augmented Generation" nutzen (Wikipedia + ChatGPT zusammen). Nicht elegant.
Antwort: Vielleicht 2-3x billiger. Moore's Law ist vorbei. Effizienz ist neuer Focus.
Antwort: Hängt davon ab, wie man AGI definiert. Wenn "ChatGPT Level" = AGI, dann maybe. Wenn "Menschenniveau" = dann NEIN, noch nicht in Sicht.
Antwort: Für manche Jobs JA (einfache Codierung, Bild-Erstellung, Textumschreiben). Für andere NEIN (kreative Direktoren, Ärzte, Handwerker - noch lange nicht).
🎯 Das echte Next Thing (was wirklich wichtig wird):
2. Interpretierbarkeit: Verstehen, WARUM eine KI so antwortet (noch unter 1% verstanden).
3. Specialization: Nicht ein universelles ChatGPT. Stattdessen: Experten-Modelle für Medizin, Jura, Coding (besser als generisch).
4. Integration: KI nicht standalone. Sondern eingebaut in Tools die Menschen SCHON nutzen.
Die Botschaft für 2025: Nicht mehr "Ist KI magisch?". Die Frage ist "Wie nutzen wir KI PRAKTISCH?"