claude3国内API接口对接

众所周知,由于地理位置原因,Claude3不对国内开放,而国内的镜像网站使用又贵的离谱

因此,团队萌生了一个想法:为什么不创建一个一站式的平台,让用户能够通过单一的接口与多个模型交流呢?这样,用户就可以轻松地比较不同模型的表现,并根据需要选择最合适的一个。于是诞生了这个ChatGPT,Claude3聚合API平台

API对接网站:api.atalk-ai.com/

话不多说,先上截图,可以看到不管是ChatGPT还是Claude3的模型它都支持

通过一个接口即可对接国际主流AI模型,兼容性这边已经帮大家处理好了,无脑对接即可 API文档地址:api.atalk-ai.com/api#/operat...

对接方式

Python
python 复制代码
import http.client

conn = http.client.HTTPSConnection("api.atalk-ai.com")

payload = "{\n \"messages\": [\n {\n \"role\": \"system\",\n \"content\": \"You are a helpful assistant.\"\n },\n {\n \"role\": \"assistant\",\n \"content\": \"can i help you ?\"\n },\n {\n \"role\": \"user\",\n \"content\": \"Hello!\"\n }\n ],\n \"model\": \"gpt-3.5-turbo\",\n \"max_tokens\": 1000,\n \"stream\": true,\n \"temperature\": 0.2\n}"

headers = {

'Authorization': "",

'Content-Type': "application/json"

}

conn.request("POST", "/gpt/completions", payload, headers)

res = conn.getresponse()

data = res.read()

print(data.decode("utf-8"))
java
java 复制代码
AsyncHttpClient client = new DefaultAsyncHttpClient();

client.prepare("POST", "https://api.atalk-ai.com/gpt/completions")

.setHeader("Authorization", "")

.setHeader("Content-Type", "application/json")

.setBody("{\n \"messages\": [\n {\n \"role\": \"system\",\n \"content\": \"You are a helpful assistant.\"\n },\n {\n \"role\": \"assistant\",\n \"content\": \"can i help you ?\"\n },\n {\n \"role\": \"user\",\n \"content\": \"Hello!\"\n }\n ],\n \"model\": \"gpt-3.5-turbo\",\n \"max_tokens\": 1000,\n \"stream\": true,\n \"temperature\": 0.2\n}")

.execute()

.toCompletableFuture()

.thenAccept(System.out::println)

.join();

client.close();
PHP
php 复制代码
<?php

$client = new \GuzzleHttp\Client();

$response = $client->request('POST', 'https://api.atalk-ai.com/gpt/completions', [

'body' => '{

"messages": [

{

"role": "system",

"content": "You are a helpful assistant."

},

{

"role": "assistant",

"content": "can i help you ?"

},

{

"role": "user",

"content": "Hello!"

}

],

"model": "gpt-3.5-turbo",

"max_tokens": 1000,

"stream": true,

"temperature": 0.2

}',

'headers' => [

'Authorization' => '',

'Content-Type' => 'application/json',

],

]);

echo $response->getBody();

海鲸AI-API聚合平台是我们对AI技术无限探索的一次尝试。它不仅简化了与多个AI模型的交互过程,也为用户提供了一个高效、便捷的解决方案。我相信,随着AI技术的不断进步,海鲸AI将成为您实现创意和解决问题的得力助手。

相关推荐
带娃的IT创业者4 小时前
WeClaw 离线消息队列实战:异步任务队列如何保证在服务器宕机时不丢失任何一条 AI 回复?
运维·服务器·人工智能·python·websocket·fastapi·实时通信
Jumdata8 小时前
短网址生成-短链接生成-ShortUrl生成-ShortLink生产接口API-永久短网址
api·短网址
码路飞10 小时前
GPT-5.4 mini 和 nano 昨天刚发,我连夜测了一下,说说真实感受
gpt·openai·api
龙腾AI白云11 小时前
数字孪生底层逻辑和技术
深度学习·django·flask·fastapi·tornado
码路飞15 小时前
Gemini 开放香港了,大陆开发者的 API 能跟着薅吗?实测 3 种方案
google·api·gemini
理性的曜1 天前
VoloData——基于LangChain的智能数据分析系统
人工智能·vscode·数据分析·npm·reactjs·fastapi·ai应用
带娃的IT创业者1 天前
Weclaw 请求路由实战:一个 request_id 如何在 800 个并发连接中精准找到目标浏览器?
python·websocket·fastapi·架构设计·实时通信·openclaw·weclaw
以后换名字1 天前
delphi对接API的优势
微服务·架构·api·软件架构调整
带娃的IT创业者1 天前
WeClaw 心跳与重连实战:指数退避算法如何让 WebSocket 在弱网环境下的连接成功率提升 67%?
python·websocket·网络协议·算法·fastapi·实时通信
理性的曜2 天前
AI语音通话系统设计思路:从语音输入到智能回复
人工智能·python·websocket·fastapi