Node.js与ChatGPT的完美邂逅(一):构建高效智能对话应用的新纪元——你是谁?

前言

将一部分适合AI执行的任务交给大语言模型(Large Language Models, LLM),如ChatGPT等,可以极大地提高工作效率、创造性和个性化服务的能力。

正文

在终端输入npm init -y,将其初始化为后端项目,生成package.json 项目描述文件

npm i openai 安装openai包

  • 将本地openai 引入到项目中
ini 复制代码
const OpenAI = require('openai')

openai为一个类,对其进行实例化,baseURL指明发送到了chatanywhere.tech这个第三方服务或自定义接口上。

php 复制代码
const client = new OpenAI({
 apiKey: 'xxx',
 baseURL: 'https://api.chatanywhere.tech/v1'
})

apiKey的获取

async function main()定义了一个异步主函数main。在JavaScript中,异步函数允许使用await关键字等待Promise的结果,这在处理网络请求时非常有用,因为它们往往是异步操作。在main函数内部,await client.chat.completions.create发起一个异步请求到指定的API,用于获取聊天模型的回复。它传递了一个对象作为参数,该对象包含:

  • messages: 一个消息数组,其中每个消息都是一个包role和content的对象。在这个例子中,只有一个消息,角色为user,内容为'你是谁?',表示模拟用户向AI提问"你是谁?"。
  • model: 指定使用的模型版本,这里是gpt-3.5-turbo,这是OpenAI的一个先进语言模型,但实际请求会根据baseURL所指的API服务来决定是否支持或如何响应这个模型请求,chatCompletion对象包含了API的完整响应,最后打印出从API得到的回复中的第一个选择。
php 复制代码
async function main() {
  const chatCompletion = await client.chat.completions.create(
   {
     messages: [{role: 'user', content: '你是谁?'}],
     model: 'gpt-3.5-turbo'  
   }
  )
  console.log(chatCompletion.choices[0]);
}

调用执行这个异步函数,启动整个程序流程。

css 复制代码
main()

结语

快去见证Node.js与ChatGPT的完美邂逅吧~探索Node.js与ChatGPT的结合无疑是一场激动人心的旅程。Node.js作为一款流行的服务器端JavaScript运行环境,以其事件驱动、非阻塞I/O模型著称,非常适合构建高性能、可扩展的网络应用。而ChatGPT,作为OpenAI推出的一款先进的人工智能语言模型,展现出了令人惊叹的对话理解与生成能力,能够进行多轮对话、解答问题、提供创意甚至协助编程。当你将这两者结合起来,可以开启一系列创新应用的大门,不妨现在就开始行动,搭建你的开发环境,编写第一行代码,让Node.js与ChatGPT携手,共同见证技术带来的无限可能吧!

相关推荐
EnCi Zheng2 分钟前
11a. 阿里云大模型API调用基础
人工智能·python·阿里云·云计算
Lunar*4 分钟前
用 Codex 在 WSL 里安装并配置 Claude Code:一次真实的 AI 代操作记录
人工智能
GEO_Huang4 分钟前
想要排名稳?数谷 GEO 优化助力企业品牌升级
大数据·人工智能·百度·aigc·rpa·geo
说实话起个名字真难啊7 分钟前
windows 安装openclaw的优势
人工智能·ai·openclaw
IT观测8 分钟前
国内GPU算力服务哪家好——企业AI发展的核心支撑分析
人工智能·gpu算力
沸点小助手8 分钟前
最近沉迷养龙虾Openclaw,决定让龙虾1号成为我的设计助理 | 掘金沸点周报3.13
人工智能
ComPDFKit8 分钟前
法律文件自动化工具推荐:来自用户的真实口碑测评
人工智能
FeelTouch Labs10 分钟前
KohakuRAG:层次化RAG的新范式
人工智能·rag·kohakurag
黑巧克力可减脂13 分钟前
OpenClaw应用场景全解析:以AI之“爪”,破局效率困局——从古典智慧看现代科技革新
人工智能
黑巧克力可减脂17 分钟前
从零到一上手OpenClaw:超详细安装教程,借古人智慧破局部署难题
人工智能