Datawhale Happy-LLM 课程 task 1和2:NLP基础概念

Datawhale Happy-LLM 课程 task 1和2:NLP基础概念

此博客为Datawhale 组队学习打卡笔记


ELMo

  • Word2Vec 是基于局部上下文的,缺乏整体的词与词之间的关系,无法处理一次多义;静态词向量, 训练完成后,这个表就固定下来了
  • ELMo(Embeddings from Language Models)首先在大型语料库上训练语言模型,得到词向量模型,然后在特定任务上对模型进行微调,得到更适合该任务的词向量;
  • ELMo实现了一词多义、静态词向量到动态词向量的跨越式转变
  • ELMo 缺陷:模型复杂度高、训练时间长、计算资源消耗大

参考

1\]

相关推荐
WuChao_JMUer2 小时前
YOLO26 on RDK S100P 端侧部署技术报告
人工智能·算法·yolo·rdk
Ro Jace2 小时前
传统雷达信号分选方法之SDIF:Improved algorithm for the deinterleaving of radar pulses
网络·人工智能·算法
说私域2 小时前
用户感知断裂与商业模式颠覆:AI智能名片链动2+1模式S2B2C商城小程序的破局之道
大数据·人工智能·小程序
8K超高清2 小时前
CES 2026科技看点
网络·人工智能·科技·数码相机·计算机视觉
广州市中熠科技2 小时前
2026商业显示行业技术新动向:AI融合、空间计算与全球化布局
人工智能·智能硬件·led·空间计算·产品选择
管牛牛2 小时前
图像灰度变换
人工智能·计算机视觉
小辉笔记2 小时前
Transformer讲解
人工智能·深度学习·transformer
Sherry Wangs2 小时前
【ML】语言模型 & GPUs
人工智能·语言模型·自然语言处理