LLMs的终局是通用人工智能AGI总结 生成式AI和大语言模型 Generative AI & LLMs

终于学完了 生成式AI和大语言模型 Generative AI & LLMs.

LLMs 解决了如下问题:

  1. 对NLP的不能够理解长句子,解决方案 自注意力机制Transformers architecture Attention is all you need
  2. 大模型算力不够,解决方案 LLMs 缩放法则和计算最优模型Scaling laws and compute-optimal models
  3. 高效微调,解决方案 LLMs参数高效微调(PEFT) Parameter efficient fine-tuning (PEFT)LLMs PEFT技术1:LoRALLMs 参数高效微调技术2 Soft prompts
  4. 优化最佳答案,解决方案 LLMs 用强化学习进行微调 RLHF: Fine-tuning with reinforcement learning
  5. LLMs知识老旧,链接外部资源,计算能力,解决方案 Lang Chain帮助LLMs进行推理和计划的思维链LLMs与外部应用程序交互RAG检索增强生成在应用中使用
    除了负责任AI,研究人员还在探索一些技术,以使模型与人类的价值观和偏好相一致,提高模型的可解释性,并实施高效的模型治理。随着模型能力的增加,我们还需要更多可扩展的人类监督技术,如宪法AI,正如我在之前的课程中所讨论的。研究人员继续探索项目生命周期各个步骤的扩展规律,包括更好地预测模型性能的技术,以确保资源的高效利用,例如通过模拟等。

而规模并不总是指更大,研究团队正在致力于小型设备和边缘部署的模型优化。例如,llama.cpp是LLaMA模型的C++实现,使用四位整数量化以在笔记本电脑上运行。

同样,我相信我们将在整个模型开发生命周期中看到进展和效率的提高。

特别是,在预训练、微调和强化学习方面将出现更高效的技术。我们将看到越来越多的大型语言模型的能力不断涌现。

例如,研究人员正在考虑开发支持更长提示和上下文的模型,例如用于总结整本书的模型。实际上,在开发本课程期间,我们已经看到了第一个支持10万标记上下文窗口的模型的宣布。这大致相当于7.5万字和数百页。

模型还将越来越多地支持语言、图像、视频、音频等多模式。这将开辟新的应用和用例,并改变我们与模型互动的方式。我们已经在最新一代文本到图像模型中看到了这一点的第一个令人惊叹的成果,其中自然语言成为用户界面,用于创建视觉内容。研究人员还试图更多地了解LLM的推理,并在探索结构化知识和符号方法相结合的LLM。这一神经符号AI研究领域探讨了模型从经验中学习和从所学内容进行推理的能力。非常感谢您参加本课程。我们希望您享受了这些课程,并迫不及待地想看到您如何运用这些知识来构建什么。最后,让我们询问我们的AI,未来会带来什么。

Reference

https://www.coursera.org/learn/generative-ai-with-llms/lecture/Qg6G8/course-conclusion

相关推荐
deephub23 分钟前
优化注意力层提升 Transformer 模型效率:通过改进注意力机制降低机器学习成本
人工智能·深度学习·transformer·大语言模型·注意力机制
搏博35 分钟前
神经网络问题之二:梯度爆炸(Gradient Explosion)
人工智能·深度学习·神经网络
KGback41 分钟前
【论文解析】HAQ: Hardware-Aware Automated Quantization With Mixed Precision
人工智能
电子手信1 小时前
知识中台在多语言客户中的应用
大数据·人工智能·自然语言处理·数据挖掘·知识图谱
不高明的骗子1 小时前
【深度学习之一】2024最新pytorch+cuda+cudnn下载安装搭建开发环境
人工智能·pytorch·深度学习·cuda
Chef_Chen1 小时前
从0开始学习机器学习--Day33--机器学习阶段总结
人工智能·学习·机器学习
搏博1 小时前
神经网络问题之:梯度不稳定
人工智能·深度学习·神经网络
Sxiaocai1 小时前
使用 PyTorch 实现并训练 VGGNet 用于 MNIST 分类
pytorch·深度学习·分类
GL_Rain1 小时前
【OpenCV】Could NOT find TIFF (missing: TIFF_LIBRARY TIFF_INCLUDE_DIR)
人工智能·opencv·计算机视觉
shansjqun1 小时前
教学内容全覆盖:航拍杂草检测与分类
人工智能·分类·数据挖掘