Parameter
Auch bekannt als: Modellparameter, Gewichte
Parameter sind die internen Stellschrauben eines neuronalen Netzes, die beim Training eingestellt werden. Mehr Parameter bedeuten tendenziell mehr Fähigkeiten, aber auch höhere Kosten und langsamere Antworten.
Wenn von "einem Modell mit 70 Milliarden Parametern" die Rede ist, beschreibt das die Komplexität des Netzes. Jeder Parameter ist eine Zahl, die während des Trainings optimiert wurde. Zusammen bilden sie das "Wissen" des Modells.
Mehr ist nicht immer besser
Größere Modelle können mehr, kosten aber auch pro Anfrage mehr und antworten langsamer. Für einfache Aufgaben ist ein kleineres Modell oft die klügere Wahl.
Die praktische Relevanz
Du wählst selten direkt nach Parameterzahl. Aber wenn du verstehst, dass "stärkeres Modell" auch "teurer und langsamer" heißt, triffst du bessere Entscheidungen bei der Tool-Wahl.