Datawhale Happy-LLM 课程 task 1和2:NLP基础概念

Datawhale Happy-LLM 课程 task 1和2:NLP基础概念

此博客为Datawhale 组队学习打卡笔记


ELMo

  • Word2Vec 是基于局部上下文的,缺乏整体的词与词之间的关系,无法处理一次多义;静态词向量, 训练完成后,这个表就固定下来了
  • ELMo(Embeddings from Language Models)首先在大型语料库上训练语言模型,得到词向量模型,然后在特定任务上对模型进行微调,得到更适合该任务的词向量;
  • ELMo实现了一词多义、静态词向量到动态词向量的跨越式转变
  • ELMo 缺陷:模型复杂度高、训练时间长、计算资源消耗大

参考

1\]

相关推荐
飞哥数智坊6 小时前
我的“龙虾”罢工了!正好对比下GLM、MiniMax、Kimi 3家谁更香
人工智能
风象南7 小时前
很多人说,AI 让技术平权了,小白也能乱杀老师傅 ?
人工智能·后端
董董灿是个攻城狮9 小时前
大模型连载1:了解 Token
人工智能
RoyLin11 小时前
沉睡三十年的标准:HTTP 402、生成式 UI 与智能体原生软件的时代
人工智能
needn13 小时前
TRAE为什么要发布SOLO版本?
人工智能·ai编程
毅航13 小时前
自然语言处理发展史:从规则、统计到深度学习
人工智能·后端
前端付豪14 小时前
LangChain链 写一篇完美推文?用SequencialChain链接不同的组件
人工智能·python·langchain
ursazoo14 小时前
写了一份 7000字指南,让 AI 帮我消化每天的信息流
人工智能·开源·github
神秘的猪头17 小时前
🔌 把 MCP 装进大脑!手把手带你构建能“热插拔”工具的 AI Agent
langchain·llm·mcp
_志哥_17 小时前
Superpowers 技术指南:让 AI 编程助手拥有超能力
人工智能·ai编程·测试