Skip to content

Commit 241d227

Browse files
author
openclaw-docs-i18n[bot]
committed
chore(i18n): refresh de translations
1 parent 1db7e23 commit 241d227

2 files changed

Lines changed: 525 additions & 464 deletions

File tree

docs/de/concepts/qa-e2e-automation.md

Lines changed: 116 additions & 115 deletions
Original file line numberDiff line numberDiff line change
@@ -1,50 +1,50 @@
11
---
22
read_when:
33
- Erweitern von qa-lab oder qa-channel
4-
- Hinzufügen repo-gestützter QA-Szenarien
5-
- Erstellen von QA-Automatisierung mit höherem Realitätsgrad rund um das Gateway-Dashboard
6-
summary: Private QA-Automatisierungsstruktur für qa-lab, qa-channel, Seeded Scenarios und Protokollberichte
7-
title: QA-E2E-Automatisierung
4+
- Hinzufügen von repository-gestützten QA-Szenarien
5+
- Aufbau einer realistischeren QA-Automatisierung rund um das Gateway-Dashboard
6+
summary: Private QA-Automatisierungsstruktur für qa-lab, qa-channel, vordefinierte Szenarien und Protokollberichte
7+
title: QA-End-to-End-Automatisierung
88
x-i18n:
9-
generated_at: "2026-04-12T23:28:12Z"
9+
generated_at: "2026-04-13T06:29:41Z"
1010
model: gpt-5.4
1111
provider: openai
12-
source_hash: b9fe27dc049823d5e3eb7ae1eac6aad21ed9e917425611fb1dbcb28ab9210d5e
12+
source_hash: a4a4f5c765163565c95c2a071f201775fd9d8d60cad4ff25d71e4710559c1570
1313
source_path: concepts/qa-e2e-automation.md
1414
workflow: 15
1515
---
1616

17-
# QA-E2E-Automatisierung
17+
# QA-End-to-End-Automatisierung
1818

19-
Der private QA-Stack soll OpenClaw auf realistischere, kanalähnliche Weise testen,
20-
als es ein einzelner Unit-Test kann.
19+
Der private QA-Stack ist dafür gedacht, OpenClaw auf eine realistischere,
20+
kanalähnliche Weise zu prüfen, als es ein einzelner Unit-Test kann.
2121

22-
Aktuelle Bausteine:
22+
Aktuelle Bestandteile:
2323

24-
- `extensions/qa-channel`: synthetischer Nachrichtenkanal mit DM-, Kanal-, Thread-,
25-
Reaktions-, Bearbeitungs- und Löschoberflächen.
24+
- `extensions/qa-channel`: synthetischer Nachrichtenkanal mit Oberflächen für DM, Kanal, Thread,
25+
Reaktion, Bearbeiten und Löschen.
2626
- `extensions/qa-lab`: Debugger-UI und QA-Bus zum Beobachten des Transkripts,
27-
Einspielen eingehender Nachrichten und Exportieren eines Markdown-Berichts.
28-
- `qa/`: repo-gestützte Seed-Assets für die Startaufgabe und grundlegende QA-
27+
Einfügen eingehender Nachrichten und Exportieren eines Markdown-Berichts.
28+
- `qa/`: repository-gestützte Seed-Assets für die Startaufgabe und grundlegende QA-
2929
Szenarien.
3030

31-
Der aktuelle QA-Operator-Ablauf ist eine QA-Site mit zwei Bereichen:
31+
Der aktuelle QA-Operator-Workflow ist eine QA-Site mit zwei Bereichen:
3232

3333
- Links: Gateway-Dashboard (Control UI) mit dem Agenten.
34-
- Rechts: QA Lab mit dem Slack-ähnlichen Transkript und dem Szenarioplan.
34+
- Rechts: QA Lab, das das Slack-ähnliche Transkript und den Szenarioplan anzeigt.
3535

36-
Führen Sie es aus mit:
36+
Starten Sie sie mit:
3737

3838
```bash
3939
pnpm qa:lab:up
4040
```
4141

42-
Dadurch wird die QA-Site gebaut, die Docker-gestützte Gateway-Lane gestartet und
43-
die QA-Lab-Seite bereitgestellt, auf der ein Operator oder eine Automatisierungsschleife
44-
dem Agenten eine QA-Mission geben, echtes Kanalverhalten beobachten und festhalten kann,
45-
was funktioniert hat, fehlgeschlagen ist oder blockiert geblieben ist.
42+
Dadurch wird die QA-Site gebaut, die Docker-gestützte Gateway-Umgebung gestartet und die
43+
QA-Lab-Seite bereitgestellt, auf der ein Operator oder eine Automatisierungsschleife dem Agenten eine QA-
44+
Mission geben, echtes Kanalverhalten beobachten und festhalten kann, was funktioniert hat, fehlgeschlagen ist oder
45+
blockiert geblieben ist.
4646

47-
Für schnellere QA-Lab-UI-Iterationen, ohne das Docker-Image jedes Mal neu zu bauen,
47+
Für schnellere QA-Lab-UI-Iteration, ohne das Docker-Image jedes Mal neu zu bauen,
4848
starten Sie den Stack mit einem bind-gemounteten QA-Lab-Bundle:
4949

5050
```bash
@@ -54,130 +54,134 @@ pnpm qa:lab:up:fast
5454
pnpm qa:lab:watch
5555
```
5656

57-
`qa:lab:up:fast` hält die Docker-Dienste auf einem vorgebauten Image und bind-mountet
58-
`extensions/qa-lab/web/dist` in den `qa-lab`-Container. `qa:lab:watch`
59-
baut dieses Bundle bei Änderungen neu, und der Browser lädt automatisch neu, wenn sich
60-
der QA-Lab-Asset-Hash ändert.
57+
`qa:lab:up:fast` hält die Docker-Dienste auf einem vorgefertigten Image und bind-mountet
58+
`extensions/qa-lab/web/dist` in den Container `qa-lab`. `qa:lab:watch`
59+
baut dieses Bundle bei Änderungen neu, und der Browser lädt automatisch neu, wenn sich der QA-Lab-
60+
Asset-Hash ändert.
6161

62-
Für eine Matrix-Smoke-Lane mit echtem Transport führen Sie aus:
62+
Für eine transportechte Matrix-Smoke-Umgebung führen Sie aus:
6363

6464
```bash
6565
pnpm openclaw qa matrix
6666
```
6767

68-
Diese Lane stellt einen flüchtigen Tuwunel-Homeserver in Docker bereit, registriert
69-
temporäre Driver-, SUT- und Observer-Benutzer, erstellt einen privaten Raum und führt
70-
dann das echte Matrix-Plugin innerhalb eines QA-Gateway-Child-Prozesses aus. Die Live-
71-
Transport-Lane hält die Child-Konfiguration auf den getesteten Transport begrenzt, sodass
72-
Matrix ohne `qa-channel` in der Child-Konfiguration läuft.
68+
Diese Umgebung stellt in Docker einen temporären Tuwunel-Homeserver bereit, registriert
69+
temporäre Driver-, SUT- und Observer-Benutzer, erstellt einen privaten Raum und führt dann
70+
das echte Matrix-Plugin innerhalb eines untergeordneten QA-Gateway-Prozesses aus. Die Live-Transportumgebung hält
71+
die Konfiguration des untergeordneten Prozesses auf den getesteten Transport beschränkt, sodass Matrix ohne
72+
`qa-channel` in der Konfiguration des untergeordneten Prozesses läuft.
7373

74-
Für eine Telegram-Smoke-Lane mit echtem Transport führen Sie aus:
74+
Für eine transportechte Telegram-Smoke-Umgebung führen Sie aus:
7575

7676
```bash
7777
pnpm openclaw qa telegram
7878
```
7979

80-
Diese Lane zielt auf eine echte private Telegram-Gruppe, anstatt einen flüchtigen Server
81-
bereitzustellen. Erforderlich sind `OPENCLAW_QA_TELEGRAM_GROUP_ID`,
80+
Diese Umgebung zielt auf eine echte private Telegram-Gruppe, anstatt einen temporären
81+
Server bereitzustellen. Sie erfordert `OPENCLAW_QA_TELEGRAM_GROUP_ID`,
8282
`OPENCLAW_QA_TELEGRAM_DRIVER_BOT_TOKEN` und
8383
`OPENCLAW_QA_TELEGRAM_SUT_BOT_TOKEN` sowie zwei unterschiedliche Bots in derselben
8484
privaten Gruppe. Der SUT-Bot muss einen Telegram-Benutzernamen haben, und die Bot-zu-Bot-
85-
Beobachtung funktioniert am besten, wenn bei beiden Bots der Bot-to-Bot Communication Mode
85+
Beobachtung funktioniert am besten, wenn bei beiden Bots der Modus für Bot-zu-Bot-Kommunikation
8686
in `@BotFather` aktiviert ist.
8787

88-
Live-Transport-Lanes verwenden jetzt einen kleineren gemeinsamen Vertrag, statt dass jede
89-
ihre eigene Form der Szenarioliste erfindet:
88+
Live-Transportumgebungen verwenden jetzt einen gemeinsamen kleineren Vertrag, statt jeweils
89+
eine eigene Form für die Szenarioliste zu definieren:
9090

91-
`qa-channel` bleibt die breite synthetische Suite für Produktverhalten und ist nicht Teil
91+
`qa-channel` bleibt die umfassende synthetische Suite für Produktverhalten und ist nicht Teil
9292
der Live-Transport-Abdeckungsmatrix.
9393

94-
| Lane | Canary | Mention-Gating | Allowlist-Block | Antwort auf oberster Ebene | Nach Neustart fortsetzen | Thread-Follow-up | Thread-Isolation | Reaktionsbeobachtung | Help-Befehl |
95-
| -------- | ------ | -------------- | --------------- | -------------------------- | ------------------------ | ---------------- | ---------------- | -------------------- | ------------ |
96-
| Matrix | x | x | x | x | x | x | x | x | |
97-
| Telegram | x | | | | | | | | x |
94+
| Umgebung | Canary | Erwähnungs-Gating | Allowlist-Blockierung | Antwort auf oberster Ebene | Fortsetzen nach Neustart | Thread-Nachverfolgung | Thread-Isolation | Reaktionsbeobachtung | Hilfebefehl |
95+
| -------- | ------ | ----------------- | --------------------- | -------------------------- | ------------------------ | --------------------- | ---------------- | -------------------- | ----------- |
96+
| Matrix | x | x | x | x | x | x | x | x | |
97+
| Telegram | x | | | | | | | | x |
9898

99-
Dadurch bleibt `qa-channel` die breite Suite für Produktverhalten, während Matrix,
100-
Telegram und künftige Live-Transporte eine explizite Checkliste für Transportverträge
101-
gemeinsam nutzen.
99+
Dadurch bleibt `qa-channel` die umfassende Suite für Produktverhalten, während Matrix,
100+
Telegram und zukünftige Live-Transporte sich eine explizite Checkliste für Transportverträge teilen.
102101

103-
Für eine flüchtige Linux-VM-Lane, ohne Docker in den QA-Pfad einzubringen, führen Sie aus:
102+
Für eine temporäre Linux-VM-Umgebung, ohne Docker in den QA-Pfad einzubeziehen, führen Sie aus:
104103

105104
```bash
106105
pnpm openclaw qa suite --runner multipass --scenario channel-chat-baseline
107106
```
108107

109108
Dadurch wird ein frischer Multipass-Gast gestartet, Abhängigkeiten installiert, OpenClaw
110-
innerhalb des Gasts gebaut, `qa suite` ausgeführt und anschließend der normale QA-Bericht
111-
sowie die Zusammenfassung zurück nach `.artifacts/qa-e2e/...` auf dem Host kopiert.
112-
Es verwendet dasselbe Szenarioauswahlverhalten wie `qa suite` auf dem Host.
113-
Host- und Multipass-Suite-Ausführungen führen standardmäßig mehrere ausgewählte Szenarien
114-
parallel mit isolierten Gateway-Workern aus, bis zu 64 Workern oder der Anzahl der
115-
ausgewählten Szenarien. Verwenden Sie `--concurrency <count>`, um die Anzahl der Worker
116-
anzupassen, oder `--concurrency 1` für serielle Ausführung.
117-
Live-Ausführungen leiten die unterstützten QA-Authentifizierungseingaben weiter, die für
118-
den Gast praktikabel sind: Provider-Schlüssel über Umgebungsvariablen, den QA-Live-
119-
Provider-Konfigurationspfad und `CODEX_HOME`, falls vorhanden. Halten Sie `--output-dir`
120-
unterhalb der Repo-Wurzel, damit der Gast über den gemounteten Workspace zurückschreiben kann.
121-
122-
## Repo-gestützte Seeds
123-
124-
Seed-Assets befinden sich in `qa/`:
109+
innerhalb des Gasts gebaut, `qa suite` ausgeführt und dann der normale QA-Bericht sowie die
110+
Zusammenfassung zurück nach `.artifacts/qa-e2e/...` auf dem Host kopiert.
111+
Es verwendet dasselbe Verhalten bei der Szenarioauswahl wie `qa suite` auf dem Host.
112+
Host- und Multipass-Suite-Läufe führen standardmäßig mehrere ausgewählte Szenarien parallel
113+
mit isolierten Gateway-Workern aus, bis zu 64 Worker oder bis zur Anzahl der ausgewählten
114+
Szenarien. Verwenden Sie `--concurrency <count>`, um die Anzahl der Worker anzupassen, oder
115+
`--concurrency 1` für serielle Ausführung.
116+
Live-Läufe leiten die unterstützten QA-Authentifizierungseingaben weiter, die für den
117+
Gast praktikabel sind: Provider-Schlüssel per Umgebungsvariable, den Konfigurationspfad für den QA-Live-Provider und
118+
`CODEX_HOME`, falls vorhanden. Halten Sie `--output-dir` unter dem Repository-Root, damit der Gast
119+
über den gemounteten Workspace zurückschreiben kann.
120+
121+
## Repository-gestützte Seeds
122+
123+
Seed-Assets liegen in `qa/`:
125124

126125
- `qa/scenarios/index.md`
127126
- `qa/scenarios/*.md`
128127

129-
Diese liegen absichtlich in Git, damit der QA-Plan sowohl für Menschen als auch für den
128+
Diese liegen absichtlich in git, damit der QA-Plan sowohl für Menschen als auch für den
130129
Agenten sichtbar ist.
131130

132-
`qa-lab` sollte ein generischer Markdown-Runner bleiben. Jede Markdown-Datei für ein
133-
Szenario ist die Quelle der Wahrheit für einen Testlauf und sollte Folgendes definieren:
131+
`qa-lab` sollte ein generischer Markdown-Runner bleiben. Jede Markdown-Datei für ein Szenario ist
132+
die Quelle der Wahrheit für einen Testlauf und sollte Folgendes definieren:
134133

135-
- Szenariometadaten
134+
- Szenario-Metadaten
136135
- Dokumentations- und Code-Referenzen
137136
- optionale Plugin-Anforderungen
138-
- optionalen Gateway-Konfigurations-Patch
139-
- den ausführbaren `qa-flow`
137+
- optionaler Gateway-Konfigurations-Patch
138+
- der ausführbare `qa-flow`
140139

141-
Die grundlegende Liste sollte breit genug bleiben, um Folgendes abzudecken:
140+
Die wiederverwendbare Laufzeitoberfläche, die `qa-flow` unterstützt, darf generisch
141+
und querschnittlich bleiben. Markdown-Szenarien können zum Beispiel
142+
transportseitige Hilfsfunktionen mit browserseitigen Hilfsfunktionen kombinieren, die die eingebettete Control UI über die
143+
Gateway-`browser.request`-Schnittstelle steuern, ohne einen Spezialfall-Runner hinzuzufügen.
144+
145+
Die Basisliste sollte breit genug bleiben, um Folgendes abzudecken:
142146

143147
- DM- und Kanal-Chat
144148
- Thread-Verhalten
145149
- Lebenszyklus von Nachrichtenaktionen
146150
- Cron-Callbacks
147-
- Memory-Abruf
151+
- Speicherabruf
148152
- Modellwechsel
149153
- Subagent-Übergabe
150-
- Lesen des Repo und Lesen der Dokumentation
154+
- Lesen von Repository und Dokumentation
151155
- eine kleine Build-Aufgabe wie Lobster Invaders
152156

153-
## Transport-Adapter
157+
## Transportadapter
154158

155-
`qa-lab` besitzt eine generische Transport-Nahtstelle für Markdown-QA-Szenarien.
156-
`qa-channel` ist der erste Adapter auf dieser Nahtstelle, aber das Designziel ist breiter:
157-
Künftige echte oder synthetische Kanäle sollten sich in dieselbe Suite-Ausführung einklinken,
158-
anstatt einen transportspezifischen QA-Runner hinzuzufügen.
159+
`qa-lab` besitzt eine generische Transportschnittstelle für Markdown-QA-Szenarien.
160+
`qa-channel` ist der erste Adapter auf dieser Schnittstelle, aber das Designziel ist breiter:
161+
zukünftige echte oder synthetische Kanäle sollten in denselben Suite-Runner eingebunden werden, statt einen
162+
transportspezifischen QA-Runner hinzuzufügen.
159163

160164
Auf Architekturebene ist die Aufteilung wie folgt:
161165

162-
- `qa-lab` besitzt die generische Szenarioausführung, Worker-Parallelität, Artefaktschreibung und Berichterstattung.
163-
- Der Transport-Adapter besitzt Gateway-Konfiguration, Bereitschaft, Ein- und Ausgangsbeobachtung, Transportaktionen und normalisierten Transportzustand.
164-
- Markdown-Szenariodateien unter `qa/scenarios/` definieren den Testlauf; `qa-lab` stellt die wiederverwendbare Laufzeitoberfläche bereit, die sie ausführt.
166+
- `qa-lab` übernimmt generische Szenarioausführung, Worker-Parallelität, Schreiben von Artefakten und Berichterstellung.
167+
- der Transportadapter übernimmt Gateway-Konfiguration, Bereitschaft, Beobachtung eingehender und ausgehender Daten, Transportaktionen und normalisierten Transportzustand.
168+
- Markdown-Szenariodateien unter `qa/scenarios/` definieren den Testlauf; `qa-lab` stellt die wiederverwendbare Laufzeitoberfläche bereit, die ihn ausführt.
165169

166-
Die maintainer-orientierte Anleitung zur Einführung neuer Kanal-Adapter steht in
170+
Maintainer-orientierte Hinweise zur Einführung neuer Kanaladapter finden Sie unter
167171
[Testing](/de/help/testing#adding-a-channel-to-qa).
168172

169-
## Berichterstattung
173+
## Berichterstellung
170174

171175
`qa-lab` exportiert einen Markdown-Protokollbericht aus der beobachteten Bus-Zeitleiste.
172-
Der Bericht sollte folgende Fragen beantworten:
176+
Der Bericht sollte Folgendes beantworten:
173177

174-
- Was hat funktioniert
175-
- Was ist fehlgeschlagen
176-
- Was ist blockiert geblieben
177-
- Welche Folge-Szenarien es sich lohnt hinzuzufügen
178+
- Was funktioniert hat
179+
- Was fehlgeschlagen ist
180+
- Was blockiert geblieben ist
181+
- Welche Folgeszenarien sich hinzuzufügen lohnen
178182

179-
Für Zeichen- und Stilprüfungen führen Sie dasselbe Szenario über mehrere Live-
180-
Modell-Referenzen hinweg aus und schreiben einen bewerteten Markdown-Bericht:
183+
Für Zeichen- und Stilprüfungen führen Sie dasselbe Szenario über mehrere Live-Modell-
184+
Referenzen aus und schreiben einen bewerteten Markdown-Bericht:
181185

182186
```bash
183187
pnpm openclaw qa character-eval \
@@ -196,38 +200,35 @@ pnpm openclaw qa character-eval \
196200
--judge-concurrency 16
197201
```
198202

199-
Der Befehl führt lokale QA-Gateway-Child-Prozesse aus, nicht Docker. Character-eval-
200-
Szenarien sollten die Persona über `SOUL.md` setzen und dann gewöhnliche Benutzerzüge
201-
wie Chat, Workspace-Hilfe und kleine Dateiaufgaben ausführen. Dem Kandidatenmodell sollte
202-
nicht mitgeteilt werden, dass es bewertet wird. Der Befehl bewahrt jedes vollständige
203-
Transkript, erfasst grundlegende Laufstatistiken und bittet dann die Bewertungsmodelle im
204-
schnellen Modus mit `xhigh`-Reasoning, die Läufe nach Natürlichkeit, Vibe und Humor zu
205-
bewerten.
206-
Verwenden Sie `--blind-judge-models`, wenn Sie Provider vergleichen: Der Bewertungs-Prompt
207-
erhält weiterhin jedes Transkript und jeden Laufstatus, aber Kandidaten-Refs werden durch
208-
neutrale Bezeichnungen wie `candidate-01` ersetzt; der Bericht ordnet die Ranglisten nach
209-
dem Parsen wieder den echten Refs zu.
210-
Kandidatenläufe verwenden standardmäßig `high` thinking, mit `xhigh` für OpenAI-Modelle,
211-
die dies unterstützen. Überschreiben Sie einen bestimmten Kandidaten inline mit
203+
Der Befehl führt lokale untergeordnete QA-Gateway-Prozesse aus, nicht Docker. Character-Eval-
204+
Szenarien sollten die Persona über `SOUL.md` setzen und dann gewöhnliche Benutzerinteraktionen
205+
wie Chat, Workspace-Hilfe und kleine Dateiaufgaben ausführen. Dem Kandidatenmodell
206+
sollte nicht gesagt werden, dass es bewertet wird. Der Befehl bewahrt jedes vollständige
207+
Transkript auf, erfasst grundlegende Laufstatistiken und bittet dann die Bewertungsmodelle im schnellen Modus mit
208+
`xhigh`-Reasoning, die Läufe nach Natürlichkeit, Stimmung und Humor zu ordnen.
209+
Verwenden Sie `--blind-judge-models`, wenn Sie Provider vergleichen: Der Bewertungs-Prompt erhält weiterhin
210+
jedes Transkript und jeden Laufstatus, aber Kandidaten-Referenzen werden durch neutrale
211+
Bezeichnungen wie `candidate-01` ersetzt; der Bericht ordnet die Rangfolgen nach dem
212+
Parsen wieder den echten Referenzen zu.
213+
Kandidatenläufe verwenden standardmäßig `high` Thinking, mit `xhigh` für OpenAI-Modelle, die dies
214+
unterstützen. Überschreiben Sie einen bestimmten Kandidaten inline mit
212215
`--model provider/model,thinking=<level>`. `--thinking <level>` setzt weiterhin einen
213-
globalen Fallback, und die ältere Form `--model-thinking <provider/model=level>` bleibt
214-
aus Kompatibilitätsgründen erhalten.
215-
OpenAI-Kandidaten-Refs verwenden standardmäßig den schnellen Modus, damit Prioritätsverarbeitung
216-
genutzt wird, sofern der Provider dies unterstützt. Fügen Sie inline `,fast`, `,no-fast`
217-
oder `,fast=false` hinzu, wenn ein einzelner Kandidat oder Bewertungsmodell eine
218-
Überschreibung benötigt. Übergeben Sie `--fast` nur, wenn Sie den schnellen Modus für jedes
219-
Kandidatenmodell erzwingen möchten. Kandidaten- und Bewertungsdauer werden im Bericht für
220-
Benchmark-Analysen erfasst, aber in den Bewertungs-Prompts wird ausdrücklich darauf
221-
hingewiesen, nicht nach Geschwindigkeit zu bewerten.
222-
Kandidaten- und Bewertungsmodellläufe verwenden beide standardmäßig eine Parallelität von 16.
223-
Senken Sie `--concurrency` oder `--judge-concurrency`, wenn Provider-Limits oder lokaler
224-
Gateway-Druck einen Lauf zu unruhig machen.
225-
Wenn kein Kandidaten-`--model` übergeben wird, verwendet character eval standardmäßig
216+
globalen Fallback, und die ältere Form `--model-thinking <provider/model=level>` bleibt aus
217+
Kompatibilitätsgründen erhalten.
218+
OpenAI-Kandidaten-Referenzen verwenden standardmäßig den schnellen Modus, sodass Prioritätsverarbeitung genutzt wird, wo
219+
der Provider dies unterstützt. Fügen Sie inline `,fast`, `,no-fast` oder `,fast=false` hinzu, wenn ein
220+
einzelner Kandidat oder Bewerter eine Überschreibung benötigt. Übergeben Sie `--fast` nur, wenn Sie
221+
den schnellen Modus für jedes Kandidatenmodell erzwingen möchten. Kandidaten- und Bewerterlaufzeiten werden
222+
für Benchmark-Analysen im Bericht aufgezeichnet, aber in den Bewertungs-Prompts wird ausdrücklich darauf hingewiesen,
223+
nicht nach Geschwindigkeit zu bewerten.
224+
Kandidaten- und Bewertungsmodellläufe verwenden standardmäßig beide eine Parallelität von 16. Verringern Sie
225+
`--concurrency` oder `--judge-concurrency`, wenn Provider-Limits oder lokaler Gateway-Druck einen Lauf zu unruhig machen.
226+
Wenn kein Kandidat mit `--model` übergeben wird, verwendet die Character-Eval standardmäßig
226227
`openai/gpt-5.4`, `openai/gpt-5.2`, `openai/gpt-5`, `anthropic/claude-opus-4-6`,
227228
`anthropic/claude-sonnet-4-6`, `zai/glm-5.1`,
228229
`moonshot/kimi-k2.5` und
229230
`google/gemini-3.1-pro-preview`, wenn kein `--model` übergeben wird.
230-
Wenn kein `--judge-model` übergeben wird, verwenden die Bewertungsmodelle standardmäßig
231+
Wenn kein `--judge-model` übergeben wird, verwenden die Bewerter standardmäßig
231232
`openai/gpt-5.4,thinking=xhigh,fast` und
232233
`anthropic/claude-opus-4-6,thinking=high`.
233234

0 commit comments

Comments
 (0)