DeepSeek-V4:中国AI技术栈的严肃展望
Silicon.fr · 04-24 16:18 2026-04-24
网络安全,被恐惧所囚禁
Silicon.fr · 04-23 13:50
Arm发布其首款处理器
VIPress.net · 04-20 16:08
Filters
Clear All
面对偏差和幻觉,推理并不会让大语言模型(LLM)更健壮

Face aux biais et aux hallucinations, le raisonnement ne rend pas les LLM plus robustes

法国企业 Giskard 与 Google DeepMind 发布 Phare 基准(Potential Harm Assessment & Risk Evaluation)称:LLM 越新通常越能抵抗偏见、幻觉与越狱,但在“信息操纵/失实(disinformation)”与部分幻觉场景上代际差距并不明显,且模型大小并不必然带来更强鲁棒性(尤其在编码类越狱上,小模型有时反而更稳)。在供应商对比中,

Silicon.fr 人工智能 网络安全 Silicon.fr OpenAI Google