Datawhale Happy-LLM 课程 task 1和2:NLP基础概念

Datawhale Happy-LLM 课程 task 1和2:NLP基础概念

此博客为Datawhale 组队学习打卡笔记


ELMo

  • Word2Vec 是基于局部上下文的,缺乏整体的词与词之间的关系,无法处理一次多义;静态词向量, 训练完成后,这个表就固定下来了
  • ELMo(Embeddings from Language Models)首先在大型语料库上训练语言模型,得到词向量模型,然后在特定任务上对模型进行微调,得到更适合该任务的词向量;
  • ELMo实现了一词多义、静态词向量到动态词向量的跨越式转变
  • ELMo 缺陷:模型复杂度高、训练时间长、计算资源消耗大

参考

1\]

相关推荐
无糖可乐没有灵魂17 分钟前
AI Agent结构图例和工作流程描述
ai·llm·prompt·agent·mcp·skills
一点一木3 小时前
🚀 2026 年 4 月 GitHub 十大热门项目排行榜 🔥
人工智能·github
淡海水4 小时前
【AI模型】常见问题与解决方案
人工智能·深度学习·机器学习
HIT_Weston5 小时前
65、【Agent】【OpenCode】用户对话提示词(费米估算)
人工智能·agent·opencode
njsgcs5 小时前
我的知识是以图片保存的,我的任务状态可能也与图片有关,我把100张知识图片丢给vlm实时分析吗
人工智能
星爷AG I5 小时前
20-4 长时工作记忆(AGI基础理论)
人工智能·agi
#卢松松#5 小时前
用秒悟(meoo)制作了一个GEO查询小工具。
人工智能·创业创新
zandy10115 小时前
Agentic BI 架构实战:当AI Agent接管数据建模、指标计算与可视化全链路
人工智能·架构
数字供应链安全产品选型5 小时前
关键领域清单+SBOM:834号令下软件供应链的“精准治理“逻辑与技术落地路径
人工智能·安全
Flying pigs~~5 小时前
RAG智慧问答项目
数据库·人工智能·缓存·微调·知识库·rag