Highlights 90 items
Filters
Face aux biais et aux hallucinations, le raisonnement ne rend pas les LLM plus robustes
法国企业 Giskard 与 Google DeepMind 发布 Phare 基准(Potential Harm Assessment & Risk Evaluation)称:LLM 越新通常越能抵抗偏见、幻觉与越狱,但在“信息操纵/失实(disinformation)”与部分幻觉场景上代际差距并不明显,且模型大小并不必然带来更强鲁棒性(尤其在编码类越狱上,小模型有时反而更稳)。在供应商对比中,