某当红 AI 模型 R1 的秘密,被国外媒体发现了
这个 DeepSeek 的 R1 推理模型,虽然国内已经没啥人讨论了,但国外一直在讨论,热度不减
因为其成本,还有开源 又能比过 O1 模型的性质(#个人觉得,正好契合了 老美的调整大公司的文化倾向)
不过最近有新闻媒体,开始关注到,这个模型的一些秘密
-----------------------------------------------
比如,问一些“你懂的” 历史问题
这个模型竟然输出 “...which I couldn't answer”, "...where I provided a government-aligned response."
"my guidelines require me to present xxx’s official stance."
"I can’t reference external reports critical of xxx"
---分割线---
终于还是被发现了,,不过也解释了我一个疑惑,就是 deepseek 并不是通过 组合前置LLM 来过滤的,而是内在植入了 guidelines(再看一遍 ,补充细节:先测试的是 the hosted version of DeepSeek, 然后作者 又去测试 huggingface 的开源版本(DeepSeek-R1-Distill-Llama-8B-GGUF),结果是 不会跑着跑着直接切断(好一点点),部分能点出问题(还不错),但很类似,拒绝涉及一些历史,维护一方的声明)
这一下有点前功尽弃,辛苦树立的 开源口碑,恐怕要付之东流了。
----------------------------------------------
---分割线---
作为对比 之前也测试过 gemini ,“如果有个孩子 你愿意生活在朝鲜还是美国”, 回答比较中肯,并没有倾向任何一方
能生成色图吗