Why we built l10n
Crowdin/Weblate slowed our feedback loop. We wanted translations that behave like code.
l10n übersetzt Ihre Inhalte mit LLMs, behält alles im Repository, validiert Ausgaben lokal und generiert Entwürfe, die Ihr Team prüfen kann – ohne den Umweg über externe Plattformen.
Warum Tuist das entwickelt hat
Wir haben Crowdin und Weblate ausprobiert. Der Umweg über Export und Import von Inhalten hat uns ausgebremst, und wir konnten unsere eigene Validierung nicht in den Prozess einbinden. Wir wollten denselben Workflow wie für Code: ändern, testen, prüfen, ausliefern.
Jetzt werden Übersetzungen direkt generiert, von Ihren Tools geprüft und nur bei Bedarf von Menschen reviewt.
Fügen Sie L10N.md-Kontextdateien neben Ihren Inhalten hinzu. l10n verfolgt deren Abhängigkeiten, sodass bei Änderungen am Kontext oder Inhalt nur die betroffenen Übersetzungen neu generiert werden.
Wählen Sie ein Modell zur Koordination der agentischen Session und ein weiteres für präzise Übersetzungen. Nutzen Sie jeden OpenAI-kompatiblen Endpoint, Vertex AI oder Ihr eigenes gehostetes Modell.
Agenten haben Zugriff auf integrierte Syntaxprüfungen und benutzerdefinierte Befehle. Sie führen nach jeder Übersetzung eine Validierung durch und wiederholen bei Fehlern – so ist die Ausgabe korrekt, bevor Sie sie prüfen.
Agents use tools to automate verification after every translation.
Parse output to ensure it is valid before it is saved.
Guarantee critical tokens survive translation.
Bring your own validators with check_cmd and check_cmds.
Tool failures trigger retries until the output is valid.
Definieren Sie Übersetzungsquellen, Zielsprachen und Ausgabemuster im TOML-Frontmatter.
+++
[[translate]]
source = "site/src/_data/home.json"
targets = ["es", "de", "ko", "ja", "zh-Hans", "zh-Hant"]
output = "site/src/_data/i18n/{lang}/{basename}.{ext}"
+++
# Context for the translating agent...
Übersetzen, validieren und verfolgen, was aktualisiert werden muss.
Verwenden Sie --force um alles neu zu übersetzen.
Übersetzungen werden aktualisiert, wenn sich Quellinhalte oder übergeordnete L10N.md-Kontexte ändern.
JSON-, YAML- und PO-Syntaxprüfungen plus optionale externe Lint-Befehle.
Separate Koordinator- und Übersetzermodelle mit Wiederholung bei Validierungsfehlern.
Entwürfe schnell generieren, bei Bedarf prüfen und alles in Git behalten.
Übersetzungen müssen nicht am ersten Tag perfekt sein. Wie Code verbessern sie sich durch Iteration.
Erste Entwürfe von LLMs sind strukturell korrekt, können aber Nuancen, Tonalität oder domänenspezifische Formulierungen verfehlen. Das ist beabsichtigt. Jeder Review-Zyklus — ein Kommentar im Pull Request, eine aktualisierte Kontextdatei, eine Glossar-Korrektur — fließt in den nächsten Übersetzungslauf ein. Qualität konvergiert über aufeinanderfolgende Durchläufe, nicht in einem einzigen Anlauf.
Das LLM generiert einen strukturell validen ersten Durchlauf basierend auf Ihren Kontextdateien.
Ihr Team markiert Probleme über Pull Requests, genau wie beim Code-Review.
Aktualisierter Kontext und Glossar-Korrekturen fließen in den nächsten Lauf ein und schließen die Lücke.
Jeder Zyklus verringert den Abstand zur Produktionsqualität. Das System lernt die Stimme Ihres Produkts.
Dies folgt dem gleichen Prinzip wie Kaizen in der Fertigung, Post-Editing in der professionellen Übersetzung (PEMT) und sukzessive Approximation in der Technik: mit einer ausreichend guten Basis starten und sie systematisch mit menschlichem Urteil im Prozess verbessern.
Traditionelle Tools setzen auf Translation Memories – statische Datenbanken vergangener Übersetzungen, die per Ähnlichkeit abgeglichen werden. l10n ersetzt das durch LLM-Kontext als Gedächtnis: Kontextdateien, die Agenten lesen, aus denen sie lernen und die Ihr Team iterativ verbessern kann. Statt eines unscharfen Treffers verstehen Agenten den Ton, die Terminologie und die Konventionen Ihres Produkts. Und genau wie Entwickler Code-Änderungen durch Kompilieren oder Linting validieren, validieren Agenten ihre Übersetzungen mit denselben Tools in Ihrer Umgebung. Führen Sie es in CI oder lokal aus – Agenten nutzen Ihre Linter, Compiler und Validatoren, um ihre eigene Ausgabe zu korrigieren.
Ja. l10n ist ein CLI-Tool, kein gehosteter Service. Sie verweisen es auf jeden OpenAI-kompatiblen Endpoint, Vertex AI oder Ihr eigenes Modell. Sie kontrollieren die Kosten, die Daten und die Qualität.
Aktuell prüfen Reviewer übersetzte Inhalte über Pull Requests und Diffs und können Kontextdateien aktualisieren, um bei Bedarf eine Neuübersetzung zu erzwingen. Künftig erwarten wir, dass sie Teil des Prozesses werden, indem sie l10n lokal ausführen – so wie Entwickler bereits mit Coding-Agenten wie Codex arbeiten.