notes for datawhale 2th summer camp NLP task2


tags:

  • AI-study
  • ML
    status: doing

教程链接

基于 Seq2Seq 的 Baseline 讲解

配置环境

数据预处理

  • 清洗和规范化数据

  • 分词

  • 构建词汇表和词向量

  • 序列截断和填充

  • 添加特殊标记

  • 数据增强

  • 数据分割

模型训练

编码器 - 解码器模型

我对你感到满意 ->I am satisfied with you

主流的神经机器翻译系统中,编码器由词嵌入层和中间网络层组成

解码器和编码器的结构基本一致。然而,在基于自注意力机制的翻译模型中,除了输出层,解码器还比编码器多一个编码­解码注意力子层,用于帮助模型更好地利用源语言信息
基于循环神经网络的机器翻译模型结构图

![[appendix/Pasted image 20240716103030.png]]

//给我公式,现在完全看不懂

文本长度越长,注意力机制对循环神经网络的翻译效果的提升就越大

注意力机制的引入使得不再需要把原始文本中的所有必要信息压缩到一个向量当中
引入注意力机制的循环神经网络机器翻译架构图

![[appendix/Pasted image 20240716104231.png]]

  • 参考上述基于注意力机制的循环神经网络机器翻译,以及GRU的相关知识,画出基于注意力机制的 GRU 神经网络机器翻译

GRU 知识讲解

翻译质量评价

世纪初研究人员提出了译文质量自动评价方法 BLEU(Bilingual Evaluation Understudy)

传统观点把翻译分为**"信"、"达"、"雅"三个层次,而 忠诚度体现的是一种"信"的思想,而流畅度**体现的是一种"达"的思想。不过"雅"在机器翻译评价中还不是一个常用的标准,而且机器翻译还没有达到"雅"的水平

机器翻译疑问评价方法,分为人工评价、无参考答案的机器评价、有参考答案的机器评价,各有优劣

课后思考

自注意力机制能够更好地利用中间信息,提高翻译效果

平时的学习中,或许也是如此。如果完整地听完一节课,再做笔记整理,可能就丢失了课中易失但重要的中间信息。

最近开始怀疑,现有的大模型,或者说这种架构的AI,是否真的能实现AGI,或者实现机器情感

虽然GPT-4的即时语音对话功能让人印象深刻,但是这种从自上到下搭建,自下到上用数据填出一个成熟智能体的做法,还是无法让我心悦诚服

相关推荐
imbackneverdie16 小时前
国自然申报技术路线图模板
图像处理·人工智能·信息可视化·数据可视化·学术·国自然·国家自然科学基金
stark张宇16 小时前
别掉队!系统掌握 LLM 应用开发,这可能是你今年最值得投入的学习方向
人工智能·llm·agent
IT_陈寒16 小时前
Redis性能翻倍的5个冷门技巧,90%开发者都不知道的深度优化方案
前端·人工智能·后端
小脉传媒GEO16 小时前
GEO优化数据统计系统DeepAnaX系统详细介绍:您的AI生态数据可视化与智能决策中枢
人工智能·信息可视化
roman_日积跬步-终至千里17 小时前
【人工智能原理(1)】要点总结:从搜索、学习到推理的智能之路
人工智能·学习
云闲不收17 小时前
AI编程系列——mcp与skill
人工智能·ai编程
aitoolhub17 小时前
人脸识别技术:从传统方法到深度学习的演进路径
人工智能·深度学习
Aaron158817 小时前
RFSOC+VU13P在无线信道模拟中的技术应用分析
数据结构·人工智能·算法·fpga开发·硬件架构·硬件工程·射频工程
高洁0117 小时前
一文了解图神经网络
人工智能·python·深度学习·机器学习·transformer
数据猿17 小时前
【金猿CIO展】莱商银行信息科技部总经理张勇:AI Infra与Data Agent驱动金融数据价值新十年
人工智能·金融