Datawhale Happy-LLM 课程 task 1和2:NLP基础概念

Datawhale Happy-LLM 课程 task 1和2:NLP基础概念

此博客为Datawhale 组队学习打卡笔记


ELMo

  • Word2Vec 是基于局部上下文的,缺乏整体的词与词之间的关系,无法处理一次多义;静态词向量, 训练完成后,这个表就固定下来了
  • ELMo(Embeddings from Language Models)首先在大型语料库上训练语言模型,得到词向量模型,然后在特定任务上对模型进行微调,得到更适合该任务的词向量;
  • ELMo实现了一词多义、静态词向量到动态词向量的跨越式转变
  • ELMo 缺陷:模型复杂度高、训练时间长、计算资源消耗大

参考

1\]

相关推荐
华农DrLai2 小时前
什么是LLM做推荐的三种范式?Prompt-based、Embedding-based、Fine-tuning深度解析
人工智能·深度学习·prompt·transformer·知识图谱·embedding
东北洗浴王子讲AI2 小时前
GPT-5.4辅助算法设计与优化:从理论到实践的系统方法
人工智能·gpt·算法·chatgpt
超低空3 小时前
OpenClaw Windows 安装详细教程
人工智能·程序员·ai编程
恋猫de小郭3 小时前
你的代理归我了:AI 大模型恶意中间人攻击,钱包都被转走了
前端·人工智能·ai编程
土豆12503 小时前
AI 编程可维护性技能实战:让 AI 成为你的代码质量守门员
llm·ai编程
yongyoudayee3 小时前
2026 AI CRM选型大比拼:四大架构路线实测对比
人工智能·架构
高洁014 小时前
多模态AI模型融合难?核心问题与解决思路
人工智能·深度学习·机器学习·数据挖掘·transformer
碑 一4 小时前
视频分割Video K-Net
人工智能·计算机视觉
renhongxia14 小时前
ORACLE-SWE:量化Oracle 信息信号对SWE代理的贡献
人工智能·深度学习·学习·语言模型·分类
AI自动化工坊4 小时前
Google LiteRT-LM生产级部署指南:如何在边缘设备实现高效LLM推理?
人工智能·ai·llama