基于大语言模型的新闻判断技术

  1. 原来基于LangChain的方式来判断新闻的真假方案不可行。
  1. 由于大语言模型的弊端无法稳定的通过推理来确定新闻的真假。
  2. 针对某新闻的相关信息,无法通过训练来获取,可供引用的数据匮乏
  1. 通过大语言模型的训练,训练后的大语言模型依然无法有效的识别新闻真假
  1. 大语言模型的不稳定和GPU资源匮乏,无法大规模训练
  2. 通过训练后的模型对假新闻判断依然不精确。

利用https://colab.research.google.com/上的资源。需要至少V100以上的GPU。

在通过https://github.com/hiyouga/LLaMA-Factory 搭建训练平台。

  1. 通过LLama2的LlamaForSequenceClassification来对新闻进行判断真假。通过对新闻的训练,提高辨别率。
  1. 训练LLama2需要用至少A100的GPU(40G)。训练的时候要使用将近31G的GPU的RAM
  2. 训练LLama2无法输入长的新闻内容。输入超过1000长度的Text,LLama2会崩溃,造成Out Of Memery。所以,目前只能训练短文本,譬如:Twitter相关的假新闻。
  3. 1600条Twitter数据。1300条数据用来训练,300条数据用来验证。能达到85%左右的准确率。

使用的大语言模型如下:

togethercomputer/Llama-2-7B-32K-Instruct

https://huggingface.co/togethercomputer/Llama-2-7B-32K-Instruct

相关推荐
陈广亮13 小时前
构建具有长期记忆的 AI Agent:从设计模式到生产实践
人工智能
会写代码的柯基犬13 小时前
DeepSeek vs Kimi vs Qwen —— AI 生成俄罗斯方块代码效果横评
人工智能·llm
Mintopia14 小时前
OpenClaw 是什么?为什么节后热度如此之高?
人工智能
爱可生开源社区14 小时前
DBA 的未来?八位行业先锋的年度圆桌讨论
人工智能·dba
叁两17 小时前
用opencode打造全自动公众号写作流水线,AI 代笔太香了!
前端·人工智能·agent
前端付豪17 小时前
LangChain记忆:通过Memory记住上次的对话细节
人工智能·python·langchain
strayCat2325517 小时前
Clawdbot 源码解读 7: 扩展机制
人工智能·开源
王鑫星17 小时前
SWE-bench 首次突破 80%:Claude Opus 4.5 发布,Anthropic 的野心不止于写代码
人工智能
lnix17 小时前
当“大龙虾”养在本地:我们离“反SaaS”的AI未来还有多远?
人工智能·aigc