技术栈
幻觉
X.Cristiano
1 天前
llm
·
openai
·
幻觉
OpenAI新论文:Why Language Models Hallucinate
幻觉(hallucination)是指模型自信地输出不真实的事实。OpenAI 的论文从统计学视角把幻觉分解为两类根源:
一条测试老狗
10 天前
gpt
·
微调
·
rag
·
幻觉
·
icl
·
gpt-5
·
垂直领域模型
从GPT-5发布来分析LLM大模型幻觉收敛(一)
GPT-5 号称在任何领域都有博士级别能力。在医疗健康领域,能够对专业的癌症诊断报告做通俗易懂的解读。对复杂的放射治疗方案决策,也能提供详细的分析报告,帮助病人权衡利弊。一位癌症患者的家属在发布会上表示,“ 真正鼓舞人心的是看着她通过使用 GPT-5 重新获得自主权,病人很容易感到无助,因为知识差距太大了。
大千AI助手
2 个月前
人工智能
·
神经网络
·
算法
·
机器学习
·
大模型
·
llm
·
幻觉
Self-Consistency:跨学科一致性的理论与AI推理的可靠性基石
本文综合其在逻辑学、心理学及人工智能领域的核心定义、技术实现与前沿进展来对 Self-Consistency(自洽性) 进行系统性解析。
暮暮七
9 个月前
python
·
信息可视化
·
大模型
·
pip
·
幻觉
Dashboard-Factory没图没真相的虚假BI
昨天看到一篇文章介绍:Dashboard-Factory 是一个用于快速创建和定制仪表板(dashboards)的 Python 库。
prog_6103
2 年前
人工智能
·
llm
·
大语言模型
·
幻觉
【话题】ChatGPT等大语言模型为什么没有智能2
我们接着上一次的讨论,继续探索大模型的存在的问题。正巧CSDN最近在搞文章活动,我们来看看大模型“幻觉”。当然,本文可能有很多我自己的“幻觉”,欢迎批评指正。如果这么说的话,其实很容易得出一个小结论——大模型如果想朝着真的智能发展,“幻觉”问题不可能被完全解决,只可能缓解。
我是有底线的