Sim Studio 是一个开源的代理工作流程构建器。Sim Studio 的界面是一种轻量级、直观的方式,可快速构建和部署LLMs与您最喜欢的工具连接

​一、软件介绍

文末提供程序和源码下载

Sim Studio开源程序 是一个功能强大、用户友好的平台,用于构建、测试和优化代理工作流程,Sim Studio 是一个开源的代理工作流程构建器。Sim Studio 的界面是一种轻量级、直观的方式,可快速构建和部署LLMs与您最喜欢的工具连接。

二、如何自托管

文末提供程序和源码下载,跳过第一步直接解压缩,进入解压缩目录

Option 1: Docker Environment (Recommended)

选项 1:Docker 环境(推荐)

复制代码
# Clone your forked repository
git clone https://github.com/YOUR_USERNAME/sim.git
cd sim

# Create environment file and update with required environment variables (BETTER_AUTH_SECRET)
cp sim/.env.example sim/.env

# Start Sim Studio using the provided script
docker compose up -d --build

or

./start_simstudio_docker.sh

After running these commands:
运行以下命令后:

  1. Access the Application: 访问应用程序:

  2. Useful Docker Commands: 有用的 Docker 命令:

    复制代码
    # View application logs
    docker compose logs -f simstudio
    
    # Access PostgreSQL database
    docker compose exec db psql -U postgres -d simstudio
    
    # Stop the environment
    docker compose down
    
    # Rebuild and restart (after code changes)
    docker compose up -d --build
Working with Local Models

使用本地模型

To use local models with Sim Studio, follow these steps:
要在 Sim Studio 中使用本地模型,请执行以下步骤:

  1. Pull Local Models 拉取本地模型

    复制代码
    # Run the ollama_docker.sh script to pull the required models
    ./sim/scripts/ollama_docker.sh pull <model_name>
  2. Start Sim Studio with Local Models
    使用本地模型启动 Sim Studio

    复制代码
    #Start Sim Studio with local model support
    ./start_simstudio_docker.sh --local
    
    # or
    
    # Start Sim Studio with local model support if you have nvidia GPU
    docker compose up --profile local-gpu -d --build
    
    # or
    
    # Start Sim Studio with local model support if you don't have nvidia GPU
    docker compose up --profile local-cpu -d --build

The application will now be configured to use your local models. You can access it at http://localhost:3000/w/.
现在,应用程序将配置为使用您的本地模型。您可以在 http://localhost:3000/w/ 访问它。

三、连接到现有 Ollama 实例

If you already have an Ollama instance running on your host machine, you can connect to it using one of these methods:
如果您的主机上已经运行了一个 Ollama 实例,则可以使用以下方法之一连接到它:

复制代码
# Method 1: Use host networking (simplest approach)
docker compose up --profile local-cpu -d --build --network=host

Or modify your docker-compose.yml:
或者修改您的docker-compose.yml:

复制代码
# Method 2: Add host.docker.internal mapping
services:
  simstudio:
    # ... existing configuration ...
    extra_hosts:
      - "host.docker.internal:host-gateway"
    environment:
      - OLLAMA_HOST=http://host.docker.internal:11434

Option 2: Dev Containers 选项 2:开发容器

  1. Open VS Code or your favorite VS Code fork (Cursor, Windsurf, etc.)
    打开 VS Code 或您最喜欢的 VS Code 分叉(Cursor、Windsurf 等)
  2. Install the Remote - Containers extension
    安装 Remote - Containers 扩展
  3. Open the project in your editor
    在编辑器中打开项目
  4. Click "Reopen in Container" when prompted
    出现提示时,单击 "Reopen in Container"
  5. The environment will automatically be set up in the sim directory
    环境将自动在 sim 目录中设置
  6. Run npm run dev in the terminal or use the sim-start alias
    在终端中运行 npm run dev 或使用 sim-start 别名

Option 3: Manual Setup 选项 3:手动设置

  1. Install Dependencies 安装依赖项
复制代码
# Clone the repository
git clone https://github.com/YOUR_USERNAME/sim.git
cd sim/sim

# Install dependencies
npm install
  1. Set Up Environment 设置环境
复制代码
# Copy .env.example to .env
cp .env.example .env

# Configure your .env file with the required environment variables:
# - Database connection (PostgreSQL)
# - Authentication settings (Better-Auth Secret)

⚠️ Important Notes:
⚠️ 重要说明:

  • If RESEND_API_KEY is not set, verification codes for login/signup will be logged to the console.
    如果未 RESEND_API_KEY 设置,则登录/注册的验证码将记录到控制台。
  • You can use these logged codes for testing authentication locally.
    您可以使用这些记录的代码在本地测试身份验证。
  • For production environments, you should set up a proper email provider.
    对于生产环境,您应该设置适当的电子邮件提供商。
  1. Set Up Database 设置数据库
复制代码
# Push the database schema
npx drizzle-kit push
  1. Start Development Server 启动 Development Server
复制代码
# Start the development server
npm run dev
  1. Open http://localhost:3000 in your browser
    在浏览器中打开 http://localhost:3000

四、Tech Stack 技术栈

  • Framework : Next.js (App Router)
    框架:Next.js (App Router)
  • Database : PostgreSQL with Drizzle ORM
    数据库:带有 Drizzle ORM 的 PostgreSQL
  • Authentication : Better Auth
    身份验证:更好的身份验证
  • UI : Shadcn, Tailwind CSS UI:Shadcn、Tailwind CSS
  • State Management : Zustand
    状态管理:Zustand
  • Flow Editor : ReactFlow 流编辑器:ReactFlow
  • Docs : Fumadocs 文档: Fumadocs

五、软件下载

夸克网盘分享

本文信息来源于GitHub作者地址:GitHub - simstudioai/sim: Sim Studio is an open-source agent workflow builder. Sim Studio's interface is a lightweight, intuitive way to quickly build and deploy LLMs that connect with your favorite tools.

相关推荐
科技小花6 小时前
全球化深水区,数据治理成为企业出海 “核心竞争力”
大数据·数据库·人工智能·数据治理·数据中台·全球化
zhuiyisuifeng7 小时前
2026前瞻:GPTimage2镜像官网或将颠覆视觉创作
人工智能·gpt
徐健峰7 小时前
GPT-image-2 热门玩法实战(一):AI 看手相 — 一张手掌照片生成专业手相分析图
人工智能·gpt
weixin_370976357 小时前
AI的终极赛跑:进入AGI,还是泡沫破灭?
大数据·人工智能·agi
Slow菜鸟7 小时前
AI学习篇(五) | awesome-design-md 使用说明
人工智能·学习
冬奇Lab8 小时前
RAG 系列(五):Embedding 模型——语义理解的核心
人工智能·llm·aigc
深小乐8 小时前
AI 周刊【2026.04.27-05.03】:Anthropic 9000亿美元估值、英伟达死磕智能体、中央重磅定调AI
人工智能
码点滴8 小时前
什么时候用 DeepSeek V4,而不是 GPT-5/Claude/Gemini?
人工智能·gpt·架构·大模型·deepseek
狐狐生风8 小时前
LangChain 向量存储:Chroma、FAISS
人工智能·python·学习·langchain·faiss·agentai
波动几何8 小时前
CDA架构代码工坊技能cda-code-lab
人工智能