大模型开发

我爱学Python!7 天前
人工智能·深度学习·算法·自然语言处理·transformer·大模型开发·大模型机器人
突破最强算法模型,Transformer !!这几天,大家对于Transformer的问题,还是不少。今儿再和大家聊聊~简单来说,Transformer 是一种神经网络模型,在机器翻译、语言理解等任务中表现特别好。它的核心思想是自注意力机制(Self-Attention),能够处理句子中的所有词并理解它们之间的关系。
人生百态,人生如梦1 个月前
人工智能·深度学习·大模型开发
AI大模型开发——3.深度学习基础(2)损失函数( Loss Functions), 也称为代价函数, 是用于评估模型预测值与真实值之间差异的函数。在神经网络训练过程中,损失函数用于指导模型参数的更新方向和幅度, 以使模型预测的结果尽可能接近真实值。 常见的损失函数有以下两个。 (1) 均方误差( Mean Squared Error, MSE), 其公式如下:
我爱学Python!1 个月前
人工智能·自然语言处理·大语言模型·大模型开发·大模型应用·大模型落地·大模型架构
大模型落地应用架构的一种模式经过几个月的实践和探索,看过也经历过一些成型的项目了,如果是奔着落地去的,我们的目光不能只盯着大模型本身,而应该放眼甚至是需要投入精力去建设很多我们别的工作上。
我爱学Python!1 个月前
人工智能·自然语言处理·大语言模型·ai大模型·大模型开发·大模型应用·本地部署大模型
零基础也能搞定!手把手教你打造个人专属的AI大模型,拢共分三步!众所周知,我们已经有很多免费的大模型工具可以用,比如:文心一言:https://yiyan.baidu.com/
m0_493804019 个月前
人工智能·自然语言处理·langchain·大模型开发
ChatGLM基于LangChain应用开发实践(一)一、概述在使用大模型(LLM)做应用开发时,LangChain是一个主流的开发框架,通过它来构建Agent,根据用户查询访问企业私有数据,调用自定义或者第三方工具库,然后再调用LLM,利用其推理能力以自然语言的方式返回查询结果给用户。本文使用ChatGLM系列的最新开源模型chatglm3-6b,通过LangChain来访问基于Notion存储的私有数据,最后让chatglm3-6b返回查询结果。
m0_493804011 年前
人工智能·自然语言处理·chatgpt·prompt·大模型开发
ChatGPT Prompting开发实战(十三)一. 如何评估prompts是否包含有害内容用户在与ChatGPT交互时提供的prompts可能会包括有害内容,这时可以通过调用OpenAI提供的API来进行判断,接下来给出示例,通过调用模型“gpt-3.5-turbo”来演示这个过程。
m0_493804011 年前
人工智能·自然语言处理·chatgpt·prompt·大模型开发
ChatGPT Prompting开发实战(十二)一、如何开发prompts实现个性化的对话方式通过设置“system”和“user”等roles,可以实现个性化的对话方式,并且可以结合参数“temperature”的设定来差异化LLM的输出内容。在此基础上,通过构建一个餐馆订餐对话机器人来具体演示对话过程。
m0_493804011 年前
人工智能·自然语言处理·chatgpt·prompt·大模型开发
ChatGPT Prompting开发实战(九)一、什么是推理式的prompt开发有时候需要针对一些产品的评论文本进行分析,常见的做法如对每段评论所表达的情感倾向进行推理判断,识别用户对这个产品的使用体验是否满意,那么可以编写相关的prompt来做这样的推理分析。另外,针对不同的文本内容,也可以根据给出的主题来让模型判断一段内容属于什么样的主题。
m0_493804011 年前
人工智能·自然语言处理·chatgpt·prompt·大模型开发
ChatGPT Prompting开发实战(八)一. 什么是归纳总结式的prompt开发有时候需要对一段文本进行归纳总结,那么可以采取以下的方案:-按照给定单词、句子或者字符的数量限制来让模型裁剪文本,使内容更精炼
m0_493804011 年前
人工智能·自然语言处理·chatgpt·prompt·大模型开发
ChatGPT Prompting开发实战(七)一、什么是迭代式的prompt开发对于一些复杂的任务来说,如果只编写一次prompt来调用模型,不一定能够得到理想的效果,那么可以采用迭代开发的方式,基于每一次使用当前版本的prompt调用模型的效果来不断调整优化prompt,使得prompt的最终版本能够产生满足预期的效果。接下来会给出示例,通过调用模型“gpt-3.5-turbo”来演示并解析这样一个迭代开发prompt的过程。
m0_493804011 年前
人工智能·自然语言处理·chatgpt·prompt·大模型开发
ChatGPT Prompting开发实战(五)一、如何编写有效的prompt对于大语言模型来说,编写出有效的prompt能够帮助模型更好地理解用户的意图(intents),生成针对用户提问来说是有效的答案,避免用户与模型之间来来回回对话多次但是用户不能从LLM那里得到有意义的反馈。本文通过具体案例演示解析两个能够帮助写出有效的prompts的基本原则。案例使用来自OpenAI的模型“gpt-3.5-turbo”并调用相关的chat API:
m0_493804011 年前
人工智能·自然语言处理·chatgpt·langchain·prompt·大模型开发
ChatGPT Prompting开发实战(四)一、chaining prompts应用解析及输出文本的设定由于输入和输出都是字符串形式的自然语言,为了方便输入和输出信息与系统设定使用的JSON格式之间进行转换,接下来定义从输入字符串转为JSON list的方法:
m0_493804011 年前
人工智能·自然语言处理·chatgpt·langchain·prompt·大模型开发
ChatGPT Prompting开发实战(三)一、关于chaining prompts与CoT的比较前面谈到的CoT的推理过程,可以比作是一次性就烹调好一顿大餐,那么接下来要说的“chaining prompts”,其背后的理念是分多次来完成这样一项复杂任务,每次只完成其中一步或者一个子任务。核心之处在于,你需要在自己的代码中来维护状态(而不是LLM)。另外可能需要使用到外部的第三方工具,譬如网页搜索或者数据库等等,LLM起到的是驱动引擎的作用。
m0_493804011 年前
自然语言处理·langchain·prompt·大模型开发
ChatGPT Prompting开发实战(一)一、关于ChatGPT Prompting概述当我们使用ChatGPT或者调用OpenAI的API时,就是在使用prompt进行交互,用户在对话过程中输入的一切信息都是prompt(提示词),当然工业级的prompt与人们通常理解的prompt可能不太一样。下面是LangChain源码中的“retrieval_qa”模块里的prompt.py文件: