玩 SillyTafern 的时候突发奇想:能不能让模型自己翻译自己?

看了下好像没人做,于是就写了: https://github.com/moeru-ai/arpk

本地搭建好 [Ollama]( https://ollama.com),通过 node.js npx 运行 ARPK 服务端:

```bash
ARPK_MODEL="llama3.1" npx arpk
```

它通过 DeepLX 相同的端口和 API 提供服务,所以*应该*能兼容任何支持 DeepLX 的应用

```ts
await fetch('http://127.0.0.1:1188/translate', {
  body: JSON.stringify({
    source_lang: 'JA',
    target_lang: 'ZH',
    text: '雨の季節が過ぎ 澄み渡る空を 眺めて独り想フ'
  }),
  method: 'POST'
}).then(res => res.json())
// {
//   alternates: [],
//   code: 200,
//   data: '雨季过后,晴朗的天空下我独自遐思。',
//   id: 1519129853500,
//   method: 'ARPK',
//   source_lang: 'JA',
//   target_lang: 'ZH'
// }
```

> Docker 镜像还没写,以后会有。
举报· 63 次点击
登录 注册 站外分享
2 条回复  
zagfai 小成 2024-8-30 11:33:00
翻译效果有限吧
unclemcz 小成 2024-8-30 12:01:56
@zagfai #3  本地模型可以试一下 qwen2:1.5b ,翻译效果和 qwen1. 5 比,有很大提升。
返回顶部