LLMs的终局是通用人工智能AGI总结 生成式AI和大语言模型 Generative AI & LLMs

终于学完了 生成式AI和大语言模型 Generative AI & LLMs.

LLMs 解决了如下问题:

  1. 对NLP的不能够理解长句子,解决方案 自注意力机制Transformers architecture Attention is all you need
  2. 大模型算力不够,解决方案 LLMs 缩放法则和计算最优模型Scaling laws and compute-optimal models
  3. 高效微调,解决方案 LLMs参数高效微调(PEFT) Parameter efficient fine-tuning (PEFT)LLMs PEFT技术1:LoRALLMs 参数高效微调技术2 Soft prompts
  4. 优化最佳答案,解决方案 LLMs 用强化学习进行微调 RLHF: Fine-tuning with reinforcement learning
  5. LLMs知识老旧,链接外部资源,计算能力,解决方案 Lang Chain帮助LLMs进行推理和计划的思维链LLMs与外部应用程序交互RAG检索增强生成在应用中使用
    除了负责任AI,研究人员还在探索一些技术,以使模型与人类的价值观和偏好相一致,提高模型的可解释性,并实施高效的模型治理。随着模型能力的增加,我们还需要更多可扩展的人类监督技术,如宪法AI,正如我在之前的课程中所讨论的。研究人员继续探索项目生命周期各个步骤的扩展规律,包括更好地预测模型性能的技术,以确保资源的高效利用,例如通过模拟等。

而规模并不总是指更大,研究团队正在致力于小型设备和边缘部署的模型优化。例如,llama.cpp是LLaMA模型的C++实现,使用四位整数量化以在笔记本电脑上运行。

同样,我相信我们将在整个模型开发生命周期中看到进展和效率的提高。

特别是,在预训练、微调和强化学习方面将出现更高效的技术。我们将看到越来越多的大型语言模型的能力不断涌现。

例如,研究人员正在考虑开发支持更长提示和上下文的模型,例如用于总结整本书的模型。实际上,在开发本课程期间,我们已经看到了第一个支持10万标记上下文窗口的模型的宣布。这大致相当于7.5万字和数百页。

模型还将越来越多地支持语言、图像、视频、音频等多模式。这将开辟新的应用和用例,并改变我们与模型互动的方式。我们已经在最新一代文本到图像模型中看到了这一点的第一个令人惊叹的成果,其中自然语言成为用户界面,用于创建视觉内容。研究人员还试图更多地了解LLM的推理,并在探索结构化知识和符号方法相结合的LLM。这一神经符号AI研究领域探讨了模型从经验中学习和从所学内容进行推理的能力。非常感谢您参加本课程。我们希望您享受了这些课程,并迫不及待地想看到您如何运用这些知识来构建什么。最后,让我们询问我们的AI,未来会带来什么。

Reference

https://www.coursera.org/learn/generative-ai-with-llms/lecture/Qg6G8/course-conclusion

相关推荐
心疼你的一切9 小时前
解构CANN仓库:AIGC API从底层逻辑到实战落地,解锁国产化AI生成算力
数据仓库·人工智能·深度学习·aigc·cann
啊阿狸不会拉杆9 小时前
《机器学习导论》第 5 章-多元方法
人工智能·python·算法·机器学习·numpy·matplotlib·多元方法
薯一个蜂蜜牛奶味的愿9 小时前
模块化显示神经网络结构的可视化工具--BlockShow
人工智能·深度学习·神经网络
心疼你的一切10 小时前
基于CANN仓库算力手把手实现Stable Diffusion图像生成(附完整代码+流程图)
数据仓库·深度学习·stable diffusion·aigc·流程图·cann
班德先生10 小时前
深耕多赛道品牌全案策划,为科技与时尚注入商业表达力
大数据·人工智能·科技
哈__10 小时前
CANN加速强化学习推理:策略网络与价值网络优化
人工智能
慢半拍iii10 小时前
ops-nn性能调优实战:提升神经网络推理速度的秘诀
人工智能·神经网络·ai·cnn·cann
hay_lee10 小时前
Spring AI实现对话聊天-流式输出
java·人工智能·ollama·spring ai
塔中妖10 小时前
CANN深度解读:从算子库看AI计算的底层架构
人工智能·架构
铁蛋AI编程实战10 小时前
MemoryLake 实战:构建超长对话 AI 助手的完整代码教程
人工智能·python·microsoft·机器学习