Sim Studio 是一个开源的代理工作流程构建器。Sim Studio 的界面是一种轻量级、直观的方式,可快速构建和部署LLMs与您最喜欢的工具连接

​一、软件介绍

文末提供程序和源码下载

Sim Studio开源程序 是一个功能强大、用户友好的平台,用于构建、测试和优化代理工作流程,Sim Studio 是一个开源的代理工作流程构建器。Sim Studio 的界面是一种轻量级、直观的方式,可快速构建和部署LLMs与您最喜欢的工具连接。

二、如何自托管

文末提供程序和源码下载,跳过第一步直接解压缩,进入解压缩目录

Option 1: Docker Environment (Recommended)

选项 1:Docker 环境(推荐)

复制代码
# Clone your forked repository
git clone https://github.com/YOUR_USERNAME/sim.git
cd sim

# Create environment file and update with required environment variables (BETTER_AUTH_SECRET)
cp sim/.env.example sim/.env

# Start Sim Studio using the provided script
docker compose up -d --build

or

./start_simstudio_docker.sh

After running these commands:
运行以下命令后:

  1. Access the Application: 访问应用程序:

  2. Useful Docker Commands: 有用的 Docker 命令:

    复制代码
    # View application logs
    docker compose logs -f simstudio
    
    # Access PostgreSQL database
    docker compose exec db psql -U postgres -d simstudio
    
    # Stop the environment
    docker compose down
    
    # Rebuild and restart (after code changes)
    docker compose up -d --build
Working with Local Models

使用本地模型

To use local models with Sim Studio, follow these steps:
要在 Sim Studio 中使用本地模型,请执行以下步骤:

  1. Pull Local Models 拉取本地模型

    复制代码
    # Run the ollama_docker.sh script to pull the required models
    ./sim/scripts/ollama_docker.sh pull <model_name>
  2. Start Sim Studio with Local Models
    使用本地模型启动 Sim Studio

    复制代码
    #Start Sim Studio with local model support
    ./start_simstudio_docker.sh --local
    
    # or
    
    # Start Sim Studio with local model support if you have nvidia GPU
    docker compose up --profile local-gpu -d --build
    
    # or
    
    # Start Sim Studio with local model support if you don't have nvidia GPU
    docker compose up --profile local-cpu -d --build

The application will now be configured to use your local models. You can access it at http://localhost:3000/w/.
现在,应用程序将配置为使用您的本地模型。您可以在 http://localhost:3000/w/ 访问它。

三、连接到现有 Ollama 实例

If you already have an Ollama instance running on your host machine, you can connect to it using one of these methods:
如果您的主机上已经运行了一个 Ollama 实例,则可以使用以下方法之一连接到它:

复制代码
# Method 1: Use host networking (simplest approach)
docker compose up --profile local-cpu -d --build --network=host

Or modify your docker-compose.yml:
或者修改您的docker-compose.yml:

复制代码
# Method 2: Add host.docker.internal mapping
services:
  simstudio:
    # ... existing configuration ...
    extra_hosts:
      - "host.docker.internal:host-gateway"
    environment:
      - OLLAMA_HOST=http://host.docker.internal:11434

Option 2: Dev Containers 选项 2:开发容器

  1. Open VS Code or your favorite VS Code fork (Cursor, Windsurf, etc.)
    打开 VS Code 或您最喜欢的 VS Code 分叉(Cursor、Windsurf 等)
  2. Install the Remote - Containers extension
    安装 Remote - Containers 扩展
  3. Open the project in your editor
    在编辑器中打开项目
  4. Click "Reopen in Container" when prompted
    出现提示时,单击 "Reopen in Container"
  5. The environment will automatically be set up in the sim directory
    环境将自动在 sim 目录中设置
  6. Run npm run dev in the terminal or use the sim-start alias
    在终端中运行 npm run dev 或使用 sim-start 别名

Option 3: Manual Setup 选项 3:手动设置

  1. Install Dependencies 安装依赖项
复制代码
# Clone the repository
git clone https://github.com/YOUR_USERNAME/sim.git
cd sim/sim

# Install dependencies
npm install
  1. Set Up Environment 设置环境
复制代码
# Copy .env.example to .env
cp .env.example .env

# Configure your .env file with the required environment variables:
# - Database connection (PostgreSQL)
# - Authentication settings (Better-Auth Secret)

⚠️ Important Notes:
⚠️ 重要说明:

  • If RESEND_API_KEY is not set, verification codes for login/signup will be logged to the console.
    如果未 RESEND_API_KEY 设置,则登录/注册的验证码将记录到控制台。
  • You can use these logged codes for testing authentication locally.
    您可以使用这些记录的代码在本地测试身份验证。
  • For production environments, you should set up a proper email provider.
    对于生产环境,您应该设置适当的电子邮件提供商。
  1. Set Up Database 设置数据库
复制代码
# Push the database schema
npx drizzle-kit push
  1. Start Development Server 启动 Development Server
复制代码
# Start the development server
npm run dev
  1. Open http://localhost:3000 in your browser
    在浏览器中打开 http://localhost:3000

四、Tech Stack 技术栈

  • Framework : Next.js (App Router)
    框架:Next.js (App Router)
  • Database : PostgreSQL with Drizzle ORM
    数据库:带有 Drizzle ORM 的 PostgreSQL
  • Authentication : Better Auth
    身份验证:更好的身份验证
  • UI : Shadcn, Tailwind CSS UI:Shadcn、Tailwind CSS
  • State Management : Zustand
    状态管理:Zustand
  • Flow Editor : ReactFlow 流编辑器:ReactFlow
  • Docs : Fumadocs 文档: Fumadocs

五、软件下载

夸克网盘分享

本文信息来源于GitHub作者地址:GitHub - simstudioai/sim: Sim Studio is an open-source agent workflow builder. Sim Studio's interface is a lightweight, intuitive way to quickly build and deploy LLMs that connect with your favorite tools.

相关推荐
qq_3148108141 分钟前
三重变革:数字革命、地缘重构与生态危机
人工智能
武子康42 分钟前
AI-调查研究-104-具身智能 从模型训练到机器人部署:ONNX、TensorRT、Triton全流程推理优化详解
人工智能·gpt·ai·性能优化·机器人·tensorflow·具身智能
weixin_446260851 小时前
探索libsignal:为Signal提供强大加密保障的开源库
开源
灵犀物润1 小时前
机器宠物建模的第一步:基础形体搭建(Blocking)
人工智能·机器人·宠物
人机与认知实验室1 小时前
触摸大语言模型的边界
人工智能·深度学习·机器学习·语言模型·自然语言处理
神的孩子都在歌唱1 小时前
PostgreSQL 向量检索方式(pgvector)
数据库·人工智能·postgresql
ARM+FPGA+AI工业主板定制专家2 小时前
基于Jetson+GMSL AI相机的工业高动态视觉感知方案
人工智能·机器学习·fpga开发·自动驾驶
新智元2 小时前
刚刚,谷歌深夜上新 Veo 3.1!网友狂刷 2.75 亿条,Sora 2 要小心了
人工智能·openai
yuzhuanhei2 小时前
Segment Anything(SAM)
人工智能
做科研的周师兄2 小时前
【机器学习入门】7.4 随机森林:一文吃透随机森林——从原理到核心特点
人工智能·学习·算法·随机森林·机器学习·支持向量机·数据挖掘