1.自然语言处理NLP - 入门

1)是什么

NLP = Natural Language Processing

中文:自然语言处理

你可以把它想象成:让机器学会"说话"和"理解人话"。

比如你跟 Siri 说:"明天北京天气怎么样?"

Siri 要做的是:

  • 听懂你说的(语音识别)
  • 理解"明天"、"北京"、"天气"之间的关系(语义理解)
  • 找到答案并回复(生成回答)
    这就是 NLP 在干的事!

更具体地说,NLP 是人工智能的一个分支,目标是让计算机能够:

  • 理解人类语言(比如情感分析、机器翻译)
  • 生成人类语言(比如写文章、聊天机器人)
  • 交互像真人一样(比如客服机器人、智能助手)

👉 所以一句话总结:
NLP 就是教会机器读懂、听懂、甚至写出人类的语言。

2)为什么

因为语言是我们最强大的交流工具,而 AI 想真正"懂人",就必须懂语言。

想想看:

  • 你每天刷朋友圈、发微信、看新闻......全是文字。
  • 公司有海量客户留言、客服记录、产品评论。
  • 医院有病历、法院有判决书、政府有政策文件......
    这些数据都是非结构化的文本,传统程序根本读不懂。

但如果我们能让机器"读懂"它们,就能做到:

  • 自动分类客户投诉(比如"快递慢" vs "商品破损")
  • 快速分析市场情绪(比如股民评论是乐观还是悲观)
  • 实现跨语言沟通(比如中文自动翻译成英文)

👉 所以 NLP 的意义在于:
把"人话"变成"机器能算的数据",释放信息的巨大价值。

它不只是技术,更是连接人类与数字世界的桥梁。

3)什么时候用

当你面对文本数据,并且希望机器能"理解"或"生成"内容时,就可以考虑用 NLP。

常见场景包括:

场景 应用例子
理解文本 情感分析(判断用户是喜欢还是讨厌产品)
分类任务 垃圾邮件识别、新闻分类、标签打标
信息抽取 从合同中提取"金额"、"日期"、"付款方"等关键信息
机器翻译 Google 翻译、DeepL 把中文翻成英文
问答系统 智能客服、搜索引擎回答"苹果公司成立于哪年?"
文本生成 写公众号文章、自动生成摘要、AI 写诗
语音交互 小爱同学、Siri、Alexa 听你说话并回应

4)什么时候不用

虽然 NLP 很强大,但它也不是万能药。以下几种情况要慎用:

  • 没有足够文本数据

→ 比如你只有几句话,就想训练一个情感分析模型?那基本不可能。NLP 模型通常需要大量标注数据。

  • 任务不需要理解语言

→ 比如你只是要做"统计某个词出现几次",直接用正则表达式或 Excel 就行了,没必要上深度学习。

  • 对实时性要求极高 + 资源有限

→ 比如在嵌入式设备(如智能手表)上运行复杂的 NLP 模型,可能太慢、耗电太多。

  • 语言太模糊或歧义太大

→ 比如"他走了"------是离开房间?还是去世了?机器很难像人一样结合上下文准确判断。

  • 法律/医疗等高风险领域

→ 即使 NLP 表现很好,也不能完全依赖它做决策,必须有人类审核。

5)总结

🧠 核心概念:

  • 语言建模:预测下一个词(比如"今天天气很____")
  • 词向量(Word Embedding):把词变成数学向量,让"猫"和"狗"靠得很近
  • 注意力机制(Attention):关注重要部分,忽略无关信息
  • Transformer 架构:现代 NLP 的基石,支持并行计算
  • 预训练+微调:先用海量文本训练通用模型(如 BERT、GPT),再针对具体任务调整

💡 关键洞察:

  • NLP 的本质是:将语言转化为可计算的形式
  • 它不是"让机器说话",而是"让机器理解人类的意图"
  • 当前最先进的 NLP 模型(如 ChatGPT)其实是在"模仿人类写作",但背后是海量数据和复杂算法支撑

🌟 一句话收尾:

NLP 是通往通用人工智能的第一扇门------它让我们离"会思考的机器"更近了一步。

概念

课程目录

🔹 1. 文本预处理

💡 "先把脏衣服洗干净,才能穿出门。"

做什么?

把原始文本变成机器能懂的样子:

中文分词(如"我喜欢你" → 【我】【喜】【欢】【你】)

去除标点、停用词(比如"的""了")

统一大小写、替换特殊字符

有时还要做拼音转换、词性标注等

🎯 目标:让模型"看得清"每个字/词。

📌 小贴士:中文分词是难点,推荐用 jieba 或 HanLP。

🔹 2. RNN 以及变体

💡 "像一只蜗牛,一步一步读句子。"

做什么?

RNN 是最早能记住上下文的神经网络,它会按顺序读词:

看到"我" → 记住一点信息

再看到"爱" → 把之前的信息和"爱"结合起来

最后看到"你" → 得出完整意思

🧠 变体包括:

LSTM(长短期记忆):能记住更久远的信息

GRU(简化版 LSTM)

⚠️ 缺点:训练慢,长句容易"遗忘"

👉 举个例子:

句子:"小明昨天去了北京,他很开心。"

RNN 能知道"他"指"小明",因为它记住了前面的内容!

🔹 3. Transformer

💡 "不再慢慢爬,而是直接跳过所有词,一眼看全篇!"

革命性突破!

Transformer 不再一步步读,而是:

用 自注意力机制(Self-Attention),让每个词都能"关注"其他词

比如"北京"和"烤鸭"可能关系很近,即使中间隔了很多词

🔥 核心思想:

"我不按顺序读,我一次性看所有词,然后决定谁跟谁有关。"

✨ 它比 RNN 快得多,也更适合并行计算,是后来所有大模型(BERT、GPT)的基础!

🔹 4. 迁移学习

💡 "别从头学走路,先抄学霸的作业。"

什么意思?

以前模型要为每个任务重新训练(太费时间)。现在我们:

先用海量文本(如维基百科)训练一个通用模型

然后拿去微调(fine-tune)到具体任务上(如情感分析、问答)

✅ 比如:

预训练一个"通识大脑"

再教它"判断评论是好还是坏"

👉 这就是 迁移学习 的魔法:一次训练,到处使用

🔹 5. Bert系列模型

💡 "最强中文/英文理解者之一,靠'双向'看世界。"

Bert 是基于 Transformer 的代表模型,它的特点:

双向理解:同时看前后文(不像 RNN 只看前面)

在大量语料上预训练

支持多种任务(分类、NER、问答......)

🚀 应用场景:

搜索引擎理解用户意图

机器翻译中的上下文对齐

中文 NLP 项目首选(如 bert-base-chinese)

📌 注意:Bert 是"编码器"模型,擅长理解;而 GPT 是"解码器",擅长生成。

🔹 6. Transformer问答

💡 "答疑时间到了!"

这一节通常是:

解答常见问题(如:"为什么 Transformer 比 RNN 好?")

深入讲解 Attention 机制

分析模型结构图

推荐学习资源或实战项目

🎯 目标:帮你彻底搞懂 Transformer 的"灵魂"------注意力机制

相关推荐
雪花desu2 小时前
深度解析RAG(检索增强生成)技术
人工智能·深度学习·语言模型·chatgpt·langchain
咚咚王者2 小时前
人工智能之数学基础 离散数学:第四章 离散概率
人工智能
阿标在干嘛2 小时前
科力辰平台:作为一个科技查新平台,其核心能力边界在哪里?
人工智能·科技
徽4402 小时前
农田植被目标检测数据标注与模型训练总结3
人工智能·目标检测·目标跟踪
冒泡的肥皂2 小时前
25年AI我得DEMO老师
人工智能·后端
骑猪兜风2332 小时前
软件工程大师 Martin Fowler 谈 AI 与软件工程的变迁
人工智能·软件工程·ai编程
serve the people2 小时前
Agent 基于大模型接口实现用户意图识别:完整流程与实操
大数据·人工智能·agent
云计算小黄同学2 小时前
软件工程/SRE 专家:AI 胜任力进阶路线图
人工智能·软件工程
咬人喵喵2 小时前
文生图:AI 是怎么把文字变成画的?
人工智能·编辑器·svg