幻觉

X.Cristiano1 天前
llm·openai·幻觉
OpenAI新论文:Why Language Models Hallucinate幻觉(hallucination)是指模型自信地输出不真实的事实。OpenAI 的论文从统计学视角把幻觉分解为两类根源:
一条测试老狗10 天前
gpt·微调·rag·幻觉·icl·gpt-5·垂直领域模型
从GPT-5发布来分析LLM大模型幻觉收敛(一)GPT-5 号称在任何领域都有博士级别能力。在医疗健康领域,能够对专业的癌症诊断报告做通俗易懂的解读。对复杂的放射治疗方案决策,也能提供详细的分析报告,帮助病人权衡利弊。一位癌症患者的家属在发布会上表示,“ 真正鼓舞人心的是看着她通过使用 GPT-5 重新获得自主权,病人很容易感到无助,因为知识差距太大了。
大千AI助手2 个月前
人工智能·神经网络·算法·机器学习·大模型·llm·幻觉
Self-Consistency:跨学科一致性的理论与AI推理的可靠性基石本文综合其在逻辑学、心理学及人工智能领域的核心定义、技术实现与前沿进展来对 Self-Consistency(自洽性) 进行系统性解析。
暮暮七9 个月前
python·信息可视化·大模型·pip·幻觉
Dashboard-Factory没图没真相的虚假BI昨天看到一篇文章介绍:Dashboard-Factory 是一个用于快速创建和定制仪表板(dashboards)的 Python 库。
prog_61032 年前
人工智能·llm·大语言模型·幻觉
【话题】ChatGPT等大语言模型为什么没有智能2我们接着上一次的讨论,继续探索大模型的存在的问题。正巧CSDN最近在搞文章活动,我们来看看大模型“幻觉”。当然,本文可能有很多我自己的“幻觉”,欢迎批评指正。如果这么说的话,其实很容易得出一个小结论——大模型如果想朝着真的智能发展,“幻觉”问题不可能被完全解决,只可能缓解。
我是有底线的