翻译任务大模型LLM推荐与Temperature温度值参数

请教下各位佬友,有没有实测对比过的,用LLM做翻译,哪一个或者哪家的模型更加专业,而不是纯粹的机翻那味道;
中译英的模型
英译中的模型
分别用哪个模型更加合适。
范围包括国内外的LLM。
大语言模型评测榜单的chinese、English指标排行,不知道与佬友的实际使用是否有出入。

另外,大家用LLM翻译的时候,温度值一般用多少?
是0还是高点的0.7、1.0?
我个人想的是,0.7是不是更加生动一些,更加有点创造力,0的话是不是太确定了就像机翻了。

我也是 gemini2.0flash 力大砖飞的感觉体验很棒

我的感觉是都差不多。。flash 更快更便宜

image

我这是绑卡开了 GCP 的。。个人用 RPM 够够了

用openrouter的,基本无限并发 google/gemini-2.0-flash-001

刚看了一下,那么多免费模型,是做活动还是一直这样啊

Lite 2.0 Preview (free)这个?

竟然没有佬友提过一次gpt4o :rofl:
虽然感觉也没好到哪里去。

这玩意翻译吃灰了已经 :tieba_087:

可以试试grok2 api,老马那里5刀开个计划,每月150刀用量应该够

Gemini 2.0 Flash,测试过目前就它又快又好

官方同价

image
image

这个

硅基流动的Qwen/Qwen2.5-14B-Instruct 速度快 便宜 还有gemini 1.5 flash

有哪些是免费的啊? Gemini 2.0 Flash在ai studio上不免费啊, 是走第三方吗?

ai studio上就是免费的啊?你在右边侧栏里指向模型,rate limits里有个free 那个就是免费配额

Gemini 2.0 Flash 大王来此报到 :saluting_face: 我翻韩英比较多 韩语来讲我最满意gemini 而且ai studio还免费 :partying_face:

不太相信有道,我看过他的介绍,说和谁谁对比,做表全是12345,连对比的模型具体是谁都不说明,说自己最强甚至连deepl都没对比

佬Qwen/Qwen2.5-14B-Instruct 这种暂时不考虑了,大模型榜单太落后了,主要追求翻译质量。

没人用论坛免费的deeplx吗?也够我日常使用了。

感觉LLM更加强一些,特别是长文本的前后的连贯性与转折过度,

我之前搓过一个discord的gemini翻译机器人:

我用的文字翻译的参数是 temperature=1.2, top_p=0.95, top_k=40
如果佬考虑用gemini的话,可以在ai studio里直接改temperature和top p来试下哪个值最适合你,我是觉得gemini用0.7的话有点太过机翻了,反而稍微高一点还好一些

可以的,而且ai studio很方便的是可以用同一段文本在右侧栏反复调temperature来试,可以很直观看到区别的

翻译英文论文还不错,跟其他主流模型比起来可读性高一些,不会有一些莫名其妙的语序和主语问题,长难句断的也还可以。

翻译英文论文还不错,跟其他主流模型比起来可读性高一些,不会有一些莫名其妙的语序和主语问题,长难句断的也还可以

我用工作流,第一个模型初始翻译,第二个模型找毛病,第三个模型定稿。模型自己选,我一般第一个模型永deepseek-v3,第二个模型claude3.5,第三个模型gemini2.0。效果挺好。

deepl最大的问题是喜欢被动,喜欢后置定语,长段落喜欢漏句

佬友你的工作流是什么》dify还是lobechat?

模型翻译无论温度多少都不是机翻译,都是模型自己通过学习产生的结果。至于模型选择的话,看个人的喜欢。翻译是模型自带的产物。而不错通过训练人为化。就行不同的翻译家翻译一句话的结果不一定相同(尤其在文学上)

我个人拿几个简单的语句试了下,和gemini差不多,结果很像,但是有道一天就三次,之后要会员,会员两年400了,但是佬友我认为有道不值这个价格,我用gemini API才花几个钱 :joy:

直接调用官网的免费gemini 做沉浸式翻译是不是很容易被封号啊

蹲一下佬友们的回答。
最近我自己看学术论文用的是gemini 2.0 flash thinking,感觉效果还不错(主要输出很快,翻译质量也不错),温度用的默认的0.7。

绑定了付费,应该没事,谷歌对卡要求不高
我个人理解,触发了限速,就是API无响应,不至于封号,为什么要封号呢?

本地端的話 gemma3-27b 昨天測試了一下 感覺不錯

Doubao-1.5-pro,遥遥领先。 :rofl:

image

以前我也用doubao API,但是慢慢的因为大模型竞技场没见过doubao,后来就切换deepseek做翻译了,当然也用gemini
deepseek主要插件用,因为并发高

我用下来讲,速度、翻译质量、价格三者是最优的。 :rofl:

就是感觉机翻味道有点重,缺乏一点,生动、灵活、自然,当然这样带来的可靠也是优点
我认为英译汉使用可以,但是汉译英还是更加生动一些好

豆包1.5pro英译中日常翻译很好用,很人性化,但是有点嗨过头了,名词这一块容易出现幻觉。

只测试过英译中 :rofl:

我看了是2000rpm,然后free 15rpm 1500req/day,是免费吗?

所以佬友们用的温度是多少 :tieba_087:
@here

gemini我用着0.7不错
deepseek V3官方推荐1.3

可以去看下有道官方自己发的,对比都是国内外某某模型,都不敢指名道姓,他是对比gpt4.5、gemini 2.0、Grok 3了还是对比deepl google了还是国内的deepseek、qwen了,他自己心里都没底- :money_mouth_face:
而且免费用户包括我有道词典会员都是一天三次,要开超级会员一年200多,这个钱去用gpt4.5、gemini 2.0、Grok 3的API更香。

我看有微信公众号发的测评,不会全是广子 吧:sweat_smile:

个人建议去试试阿里的Qwen-Turbo,可以说是又快又准又便宜,百万三毛。

如果有道敢明确说自己翻译质量强过chatgpt4.5,Grok,gemini deepseek这些主流大模型(有的模型训练成本都几亿美元,有道的模型训练花了一千万RMB了吗?),我会再去瞅他一眼 :sweat_smile:
我个人试了几个,虽然简单,都是对比的是正宗的老外写的工程期刊语句,发现其翻译结果和gemini 2.0 flash差不多,关键点都能翻译出来,但是都做不到完美还原英文表达,但是有道一年要你200多,gemini几乎不要你费用,凭什么用有道 :smirking_face:

豆包我当初试过,我当初用一段新闻素材做为测试项,豆包可以说是最差的,翻译的绕而不通,然后我就用了综合体验最好的Turbo了。

现在已经doubao 1.5 pro了,进步很明显



此话题将在最后一个回复的1 个月后关闭。


发表评论