GPT学术优化推荐(gpt_academic )

GPT学术优化 (GPT Academic):支持一键润色、一键中英互译、一键代码解释、chat分析报告生成、PDF论文全文翻译功能、互联网信息聚合+GPT等等 ChatGPT/GLM提供图形交互界面,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持清华chatglm等本地模型。兼容复旦MOSS, llama, rwkv, 盘古, newbing, claude等

功能:

  • 支持一键润色
  • 一键翻译英文pdf,再也不用怕看英文文献了。
  • 一键代码解释
  • chat分析报告生成。
  • 互联网信息聚集等
  • 可以使用多个大模型
  • 如果输出包含公式,会以tex形式和渲染形式同时显示,方便复制和阅读

项目链接:https://github.com/binary-husky/gpt_academic?tab=readme-ov-file

安装使用介绍:https://zhuanlan.zhihu.com/p/648221530

部分截图:具体使用可以自己尝试一下

自己不方便部署可以通过下面链接获取在线服务的尝试 https://github.com/binary-husky/gpt_academic/wiki/online

相关推荐
檀越剑指大厂3 小时前
【实战】GPT-SoVITS+内网穿透:3分钟搭建可公网访问的语音克隆系统
gpt
电脑小白技术1 天前
安装win11硬盘分区MBR还是GPT_装win11系统分区及安装教程
gpt·mbr·win11选择mbr还是gpt·安装win11硬盘分区
满怀10151 天前
【生成式AI文本生成实战】从GPT原理到企业级应用开发
人工智能·gpt
武子康2 天前
大语言模型 11 - 从0开始训练GPT 0.25B参数量 MiniMind2 准备数据与训练模型 DPO直接偏好优化
人工智能·gpt·ai·语言模型·自然语言处理
武子康2 天前
大语言模型 10 - 从0开始训练GPT 0.25B参数量 补充知识之模型架构 MoE、ReLU、FFN、MixFFN
大数据·人工智能·gpt·ai·语言模型·自然语言处理
武子康3 天前
大语言模型 09 - 从0开始训练GPT 0.25B参数量 补充知识之数据集 Pretrain SFT RLHF
人工智能·gpt·ai·语言模型·自然语言处理
一叶茶3 天前
VsCode和AI的前端使用体验:分别使用了Copilot、通义灵码、iflyCode和Trae
前端·vscode·gpt·ai·chatgpt·copilot·deepseek
sbc-study4 天前
GPT( Generative Pre-trained Transformer )模型:基于Transformer
gpt·深度学习·transformer
Code_流苏5 天前
《Python星球日记》 第69天:生成式模型(GPT 系列)
python·gpt·深度学习·机器学习·自然语言处理·transformer·生成式模型
字节旅行6 天前
大语言模型主流架构解析:从 Transformer 到 GPT、BERT
gpt·语言模型·transformer