kimi,天工,gpt,deepseek效果对比

偶然间碰到的这个问题,这个问题感觉有点意思,他不是定义性的问题,而是不同概念之间的区别对比,我觉得这个效果立竿见影,一看就能看出来回答问题水平的层次。

单纯这个问题的答案,deepseek远超gpt,gpt和kimi半斤八两,天工ai最次

首先是鼻祖GPT提问效果:

然后是新兴力量deepseek

然后是国内的kimi

再然后是天工ai

相关推荐
钝挫力PROGRAMER11 小时前
GPT与BERT BGE
人工智能·gpt·bert
edisao1 天前
[特殊字符] 从助手到引擎:基于 GPT 的战略协作系统演示
大数据·人工智能·gpt
陈敬雷-充电了么-CEO兼CTO2 天前
BLIP-2革新多模态预训练:QFormer桥接视觉语言,零样本任务性能飙升10.7%!
人工智能·gpt·机器学习·机器人·多模态·blip·多模态大模型
安思派Anspire2 天前
GPT-OSS 深度解析:OpenAI 最新大语言模型(LLM)架构
gpt·语言模型·架构
AIGC小火龙果4 天前
OpenAI的开源王牌:gpt-oss上手指南与深度解析
人工智能·经验分享·gpt·搜索引擎·aigc·ai编程
*星星之火*4 天前
【GPT入门】第66 课 llamaIndex调用远程llm模型与embedding模型的方法
gpt·embedding
golang学习记4 天前
Claude Code 平替:OpenAI发布 Codex CLI ,GPT-5 国内直接使用
gpt
z千鑫4 天前
【OpenAI】性价比极高的轻量级多模态模型GPT-4.1-mini介绍 + API KEY的使用教程!
人工智能·gpt·ai·语言模型·chatgpt
闲看云起4 天前
从 GPT 到 LLaMA:解密 LLM 的核心架构——Decoder-Only 模型
gpt·架构·llama
北京地铁1号线4 天前
GPT(Generative Pre-trained Transformer)模型架构与损失函数介绍
gpt·深度学习·transformer