基于Qwen3 1.7B-Base,经过约900万行,12B tokens的轻小说日-中平行语料中微调的翻译模型,该仓库为SFT阶段的模型。

  • 2026-01-12 开始训练,预计1月中旬上传权重和训练数据
  • 2026-01-21 训练结束,共训练10B+Tokens,30k step.

部署(SGLang)

python -m sglang.launch_server \
    --host 0.0.0.0 \
    --port 8000 \
    --trust-remote-code \
    --model 3tic/Orion-Qwen3-1.7B-SFT-v2601 \
    --tensor-parallel-size 1 \
    --dtype bfloat16 \
    --served-model-name Orion-Qwen3-1.7B-SFT-v2601

使用方法

支持HY-MT1.5的对话格式

单行

将以下文本翻译为简体中文,注意只需要输出翻译后的结果,不要额外解释:

{source_text}

多行(JSONLINE)

将以下文本翻译为简体中文,使用JSONLINE格式输出翻译结果,注意只需要输出翻译后的结果,不要额外解释:

{"<序号>":"<原文>"}
{"<序号>":"<原文>"}
{"<序号>":"<原文>"}

带上文

{context}
参考上面的信息,把下面的文本翻译成简体中文,注意不需要翻译上文,也不要额外解释:

{source_text}
Downloads last month
1
Safetensors
Model size
2B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for 3tic/Orion-Qwen3-1.7B-SFT-v2601

Finetuned
(271)
this model
Quantizations
3 models

Collection including 3tic/Orion-Qwen3-1.7B-SFT-v2601