大型语言模型

AI劳模1 个月前
人工智能·学习·语言模型·llm·prompt·ai大模型·大型语言模型
AI全栈开发:大模型LLM学习路线图来了!• 🚀 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
AI程序猿人1 个月前
人工智能·大模型·word·embedding·计算机技术·大型语言模型·大模型技术
几种Word Embedding技术详解NLP 中的词嵌入是一个重要术语,用于以实值向量的形式表示用于文本分析的单词。这是 NLP 的一项进步,提高了计算机更好地理解基于文本的内容的能力。它被认为是深度学习在解决具有挑战性的自然语言处理问题方面最重要的突破之一。
XianxinMao8 个月前
文本生成·大型语言模型
深入理解生成型大型语言模型:自监督预训练、细调与对齐过程及其应用本文主要介绍了生成型大型语言模型(LLM)的预训练过程,特别是通过下一个令牌(token)预测的自监督学习方法,以及后续的细调(finetuning)和对齐(alignment)过程,目的是提高语言模型的性能和对用户意图的响应能力。此外,文章还讨论了大型预训练模型的计算成本、成功关键和后续的应用方案。
XianxinMao8 个月前
pdf·文本生成·rag·大型语言模型
LlamaParse: 高效的PDF文件RAG解析工具LlamaParse: 高效的PDF文件RAG解析工具通过Thomas Reid的深入探索,LlamaParse成为了目前我所见最优秀的RAG实现用PDF解析器。基于AI的技术,尤其在处理像SEC Q10这样的复杂文件时表现出色,这些文件通常包含文本、数字及其组合构成的表格,对AI来说是一大挑战。LlamaParse是由LlamaIndex开发的API,特别适合解析和增强这类半结构化文档的检索能力,让之前难以回答的复杂问题变得可能。
XianxinMao8 个月前
微调·文本分类·机器翻译·文本生成·大型语言模型
微调大型语言模型(LLM):应用案例示例微调大型语言模型(LLM):应用案例示例摘要: 本文讨论了大型语言模型(LLM)的微调,这是一种通过少量数据训练已经预训练好的模型以执行特定任务的过程。微调可以让LLM在翻译、文本分类、文本生成等领域更加高效。本文还提供了微调的实践示例和代码,帮助读者理解并应用微调过程。
FPGA技术联盟1 年前
人工智能·chatgpt·fpga·大型语言模型
用于 ChatGPT 的 FPGA 加速大型语言模型近年来,大型语言模型 (LLM) 彻底改变了自然语言处理领域,使机器能够生成类似人类的文本并进行有意义的对话。这些模型,例如 OpenAI 的 GPT,具有惊人的理解和生成语言的能力。它们可用于广泛的自然语言处理任务,包括文本生成、翻译、摘要、情感分析等。