Open-Source-CLI-Tool

Agentische Lokalisierung für Ihre Codebase

l10n übersetzt Ihre Inhalte mit LLMs, behält alles im Repository, validiert Ausgaben lokal und generiert Entwürfe, die Ihr Team prüfen kann – ohne den Umweg über externe Plattformen.

Warum Tuist das entwickelt hat

Wir haben Crowdin und Weblate ausprobiert. Der Umweg über Export und Import von Inhalten hat uns ausgebremst, und wir konnten unsere eigene Validierung nicht in den Prozess einbinden. Wir wollten denselben Workflow wie für Code: ändern, testen, prüfen, ausliefern.

Jetzt werden Übersetzungen direkt generiert, von Ihren Tools geprüft und nur bei Bedarf von Menschen reviewt.

So funktioniert's

01
Agenten Kontext geben

Fügen Sie L10N.md-Kontextdateien neben Ihren Inhalten hinzu. l10n verfolgt deren Abhängigkeiten, sodass bei Änderungen am Kontext oder Inhalt nur die betroffenen Übersetzungen neu generiert werden.

02
Modelle auswählen

Wählen Sie ein Modell zur Koordination der agentischen Session und ein weiteres für präzise Übersetzungen. Nutzen Sie jeden OpenAI-kompatiblen Endpoint, Vertex AI oder Ihr eigenes gehostetes Modell.

03
Agenten validieren ihre eigene Arbeit

Agenten haben Zugriff auf integrierte Syntaxprüfungen und benutzerdefinierte Befehle. Sie führen nach jeder Übersetzung eine Validierung durch und wiederholen bei Fehlern – so ist die Ausgabe korrekt, bevor Sie sie prüfen.

Tools

Agents use tools to automate verification after every translation.

Syntax validators

Parse output to ensure it is valid before it is saved.

  • JSON
  • YAML
  • PO
  • Markdown frontmatter

Preserve checks

Guarantee critical tokens survive translation.

  • Code blocks
  • Inline code
  • URLs
  • Placeholders

Custom commands

Bring your own validators with check_cmd and check_cmds.

  • Linters
  • Compilers
  • Schema validators

Tool failures trigger retries until the output is valid.

Konfiguration lebt in Ihrem Repository

L10N.md

Definieren Sie Übersetzungsquellen, Zielsprachen und Ausgabemuster im TOML-Frontmatter.

+++
[[translate]]
source = "site/src/_data/home.json"
targets = ["es", "de", "ko", "ja", "zh-Hans", "zh-Hant"]
output = "site/src/_data/i18n/{lang}/{basename}.{ext}"
+++

# Context for the translating agent...

CLI-Befehle

Übersetzen, validieren und verfolgen, was aktualisiert werden muss.

  • l10n init Interaktive Projekteinrichtung
  • l10n translate Übersetzungen generieren
  • l10n status Fehlende oder veraltete Ausgaben melden
  • l10n check Ausgabesyntax validieren
  • l10n clean Veraltete Übersetzungsausgaben entfernen

Verwenden Sie --force um alles neu zu übersetzen.

Für echte Workflows gebaut

#

Kontextbewusstes Hashing

Übersetzungen werden aktualisiert, wenn sich Quellinhalte oder übergeordnete L10N.md-Kontexte ändern.

Validierungs-Hooks

JSON-, YAML- und PO-Syntaxprüfungen plus optionale externe Lint-Befehle.

»

Agenten-Pipeline

Separate Koordinator- und Übersetzermodelle mit Wiederholung bei Validierungsfehlern.

Bereit für menschliches Review

Entwürfe schnell generieren, bei Bedarf prüfen und alles in Git behalten.

Progressive Verfeinerung

Übersetzungen müssen nicht am ersten Tag perfekt sein. Wie Code verbessern sie sich durch Iteration.

Erste Entwürfe von LLMs sind strukturell korrekt, können aber Nuancen, Tonalität oder domänenspezifische Formulierungen verfehlen. Das ist beabsichtigt. Jeder Review-Zyklus — ein Kommentar im Pull Request, eine aktualisierte Kontextdatei, eine Glossar-Korrektur — fließt in den nächsten Übersetzungslauf ein. Qualität konvergiert über aufeinanderfolgende Durchläufe, nicht in einem einzigen Anlauf.

Entwurf

Das LLM generiert einen strukturell validen ersten Durchlauf basierend auf Ihren Kontextdateien.

Review

Ihr Team markiert Probleme über Pull Requests, genau wie beim Code-Review.

Verfeinern

Aktualisierter Kontext und Glossar-Korrekturen fließen in den nächsten Lauf ein und schließen die Lücke.

Konvergieren

Jeder Zyklus verringert den Abstand zur Produktionsqualität. Das System lernt die Stimme Ihres Produkts.

Dies folgt dem gleichen Prinzip wie Kaizen in der Fertigung, Post-Editing in der professionellen Übersetzung (PEMT) und sukzessive Approximation in der Technik: mit einer ausreichend guten Basis starten und sie systematisch mit menschlichem Urteil im Prozess verbessern.

FAQ

Wie unterscheidet sich das von traditionellen Übersetzungstools?

Traditionelle Tools setzen auf Translation Memories – statische Datenbanken vergangener Übersetzungen, die per Ähnlichkeit abgeglichen werden. l10n ersetzt das durch LLM-Kontext als Gedächtnis: Kontextdateien, die Agenten lesen, aus denen sie lernen und die Ihr Team iterativ verbessern kann. Statt eines unscharfen Treffers verstehen Agenten den Ton, die Terminologie und die Konventionen Ihres Produkts. Und genau wie Entwickler Code-Änderungen durch Kompilieren oder Linting validieren, validieren Agenten ihre Übersetzungen mit denselben Tools in Ihrer Umgebung. Führen Sie es in CI oder lokal aus – Agenten nutzen Ihre Linter, Compiler und Validatoren, um ihre eigene Ausgabe zu korrigieren.

Muss ich eigene Modelle mitbringen?

Ja. l10n ist ein CLI-Tool, kein gehosteter Service. Sie verweisen es auf jeden OpenAI-kompatiblen Endpoint, Vertex AI oder Ihr eigenes Modell. Sie kontrollieren die Kosten, die Daten und die Qualität.

Wie prüfen Menschen Übersetzungen?

Aktuell prüfen Reviewer übersetzte Inhalte über Pull Requests und Diffs und können Kontextdateien aktualisieren, um bei Bedarf eine Neuübersetzung zu erzwingen. Künftig erwarten wir, dass sie Teil des Prozesses werden, indem sie l10n lokal ausführen – so wie Entwickler bereits mit Coding-Agenten wie Codex arbeiten.