Es gibt verschiedene KI-Modelle:
Mistral (7B)
– ~7 Milliarden Parameter
– schnell
– Wenig RAM nötig (~8-16GB)
– Gut für: Alltagsfragen, Kleine Projekte, einfache Programmierung
–> Ideal für schwächere Hardware moder erste Tests
Llama 3 8B
– 8 Milliarden Parameter
– Moderner und besserer Trainiert nals viele ältere 7B-Modelle
– Sehr gutes Preis/Leistungsverhältnis
– Läuft super mit 16-32 GB RAM
–> Für Einsteiger oft die beste Wahl
Llama 16B
– 13 Milliarden Parameter
– Deutlich besseres logisches Denken
– Bessere Texte
– Mehr RAM (~24-32 GB empfohlen)
–> Spürbar intelligentger als 7B/8B
Llama 70B
– 70 Millionan Paramezter
– sehr nah an Claud-KIs
– Starkes logisches Denken
– Sehr gute Textqualität
– Braucht:
– 64-126 GB RFAM ODER
– starke GPU mit viel VRAM
–> Für Heim-PC ohne starke GPU kaum praktikabel
Das ‚B‘ steht für „Billion“ (Milliarde Parameter.
Parameter = die „Gewichte“ im neuronalen Netz.
Mehr Parameter = mehr Wissen + komplexeres Denken – aber auch mehr Rechenleistung nötig.
Beispierl:
7B –> 7 Milliarden Parameter
13B –> 13 Milliarden Parameter
70B –> 70 Milliarden Parameter
Einfache Analogie
Stell dir die mkodelle als Motoren vor:
Modell Vergleich
7B Kleinwagen
8B Kompakter
16B Mittelklasse
70B Sportwagen
Mehr Leistung, mehr Verbrauch
Was ändert sich konkret mit der Größe?
Fähigkeit 7B 8B 13B 70B
========================================================
Alltagswissen Gut Sehr gut Sehr gut Excellent
Logisches Denken Mittel Gut Sehr gut Sehr stark
Programmieren Einfach Gut Sehr gut Sehr stark
Kreative Texte OK Gut Sehr gut Sehr gut
RFAM Bedarf Niedrig Mittel Hoch Sehr hoch
Wichtiger Punkt
Größe ungleich alles.
Ein modernes 8B-Modell kann besser sein als ein älteres 13B-Modell, weil:
- Besser Trainiert
- Mehr Daten
- Bessere Architektur
Darum ist Llama 3 8B oft besser als viele alte 13B-Modelle.
