LLM的可信度边界--人类思考的可信边界本文为个人想法分享,是一种幻觉创作,只图一乐。作者自愿放弃全部内容的一切权利,不作任何原创确权;内容由 AI 辅助生成,未参考任何特定文章,仅使用公有科学公式 / 概念,非商用,尊重所有原创著作权,侵删。 提问: ”当问题复杂度超过阈值,所有LLM的准确率归零。“这个是否是说其实人类的认知是界定了我们认知尺度的有效性,所以在标尺上的最低精度后面只能猜测一位预估值。但是AI或者说现在的LLM本身就是一种预估值模型,所以它没有限定自身的边界,而是把低概率的预估错误不断的累积,你只要提出要求它就可以给出你需要的