LLMs的终局是通用人工智能AGI总结 生成式AI和大语言模型 Generative AI & LLMs

终于学完了 生成式AI和大语言模型 Generative AI & LLMs.

LLMs 解决了如下问题:

  1. 对NLP的不能够理解长句子,解决方案 自注意力机制Transformers architecture Attention is all you need
  2. 大模型算力不够,解决方案 LLMs 缩放法则和计算最优模型Scaling laws and compute-optimal models
  3. 高效微调,解决方案 LLMs参数高效微调(PEFT) Parameter efficient fine-tuning (PEFT)LLMs PEFT技术1:LoRALLMs 参数高效微调技术2 Soft prompts
  4. 优化最佳答案,解决方案 LLMs 用强化学习进行微调 RLHF: Fine-tuning with reinforcement learning
  5. LLMs知识老旧,链接外部资源,计算能力,解决方案 Lang Chain帮助LLMs进行推理和计划的思维链LLMs与外部应用程序交互RAG检索增强生成在应用中使用
    除了负责任AI,研究人员还在探索一些技术,以使模型与人类的价值观和偏好相一致,提高模型的可解释性,并实施高效的模型治理。随着模型能力的增加,我们还需要更多可扩展的人类监督技术,如宪法AI,正如我在之前的课程中所讨论的。研究人员继续探索项目生命周期各个步骤的扩展规律,包括更好地预测模型性能的技术,以确保资源的高效利用,例如通过模拟等。

而规模并不总是指更大,研究团队正在致力于小型设备和边缘部署的模型优化。例如,llama.cpp是LLaMA模型的C++实现,使用四位整数量化以在笔记本电脑上运行。

同样,我相信我们将在整个模型开发生命周期中看到进展和效率的提高。

特别是,在预训练、微调和强化学习方面将出现更高效的技术。我们将看到越来越多的大型语言模型的能力不断涌现。

例如,研究人员正在考虑开发支持更长提示和上下文的模型,例如用于总结整本书的模型。实际上,在开发本课程期间,我们已经看到了第一个支持10万标记上下文窗口的模型的宣布。这大致相当于7.5万字和数百页。

模型还将越来越多地支持语言、图像、视频、音频等多模式。这将开辟新的应用和用例,并改变我们与模型互动的方式。我们已经在最新一代文本到图像模型中看到了这一点的第一个令人惊叹的成果,其中自然语言成为用户界面,用于创建视觉内容。研究人员还试图更多地了解LLM的推理,并在探索结构化知识和符号方法相结合的LLM。这一神经符号AI研究领域探讨了模型从经验中学习和从所学内容进行推理的能力。非常感谢您参加本课程。我们希望您享受了这些课程,并迫不及待地想看到您如何运用这些知识来构建什么。最后,让我们询问我们的AI,未来会带来什么。

Reference

https://www.coursera.org/learn/generative-ai-with-llms/lecture/Qg6G8/course-conclusion

相关推荐
NAGNIP3 小时前
一文搞懂深度学习中的通用逼近定理!
人工智能·算法·面试
冬奇Lab4 小时前
一天一个开源项目(第36篇):EverMemOS - 跨 LLM 与平台的长时记忆 OS,让 Agent 会记忆更会推理
人工智能·开源·资讯
冬奇Lab4 小时前
OpenClaw 源码深度解析(一):Gateway——为什么需要一个"中枢"
人工智能·开源·源码阅读
AngelPP8 小时前
OpenClaw 架构深度解析:如何把 AI 助手搬到你的个人设备上
人工智能
宅小年8 小时前
Claude Code 换成了Kimi K2.5后,我再也回不去了
人工智能·ai编程·claude
九狼8 小时前
Flutter URL Scheme 跨平台跳转
人工智能·flutter·github
ZFSS8 小时前
Kimi Chat Completion API 申请及使用
前端·人工智能
天翼云开发者社区9 小时前
春节复工福利就位!天翼云息壤2500万Tokens免费送,全品类大模型一键畅玩!
人工智能·算力服务·息壤
知识浅谈9 小时前
教你如何用 Gemini 将课本图片一键转为精美 PPT
人工智能
Ray Liang10 小时前
被低估的量化版模型,小身材也能干大事
人工智能·ai·ai助手·mindx