Sim Studio 是一个开源的代理工作流程构建器。Sim Studio 的界面是一种轻量级、直观的方式,可快速构建和部署LLMs与您最喜欢的工具连接

​一、软件介绍

文末提供程序和源码下载

Sim Studio开源程序 是一个功能强大、用户友好的平台,用于构建、测试和优化代理工作流程,Sim Studio 是一个开源的代理工作流程构建器。Sim Studio 的界面是一种轻量级、直观的方式,可快速构建和部署LLMs与您最喜欢的工具连接。

二、如何自托管

文末提供程序和源码下载,跳过第一步直接解压缩,进入解压缩目录

Option 1: Docker Environment (Recommended)

选项 1:Docker 环境(推荐)

复制代码
# Clone your forked repository
git clone https://github.com/YOUR_USERNAME/sim.git
cd sim

# Create environment file and update with required environment variables (BETTER_AUTH_SECRET)
cp sim/.env.example sim/.env

# Start Sim Studio using the provided script
docker compose up -d --build

or

./start_simstudio_docker.sh

After running these commands:
运行以下命令后:

  1. Access the Application: 访问应用程序:

  2. Useful Docker Commands: 有用的 Docker 命令:

    复制代码
    # View application logs
    docker compose logs -f simstudio
    
    # Access PostgreSQL database
    docker compose exec db psql -U postgres -d simstudio
    
    # Stop the environment
    docker compose down
    
    # Rebuild and restart (after code changes)
    docker compose up -d --build
Working with Local Models

使用本地模型

To use local models with Sim Studio, follow these steps:
要在 Sim Studio 中使用本地模型,请执行以下步骤:

  1. Pull Local Models 拉取本地模型

    复制代码
    # Run the ollama_docker.sh script to pull the required models
    ./sim/scripts/ollama_docker.sh pull <model_name>
  2. Start Sim Studio with Local Models
    使用本地模型启动 Sim Studio

    复制代码
    #Start Sim Studio with local model support
    ./start_simstudio_docker.sh --local
    
    # or
    
    # Start Sim Studio with local model support if you have nvidia GPU
    docker compose up --profile local-gpu -d --build
    
    # or
    
    # Start Sim Studio with local model support if you don't have nvidia GPU
    docker compose up --profile local-cpu -d --build

The application will now be configured to use your local models. You can access it at http://localhost:3000/w/.
现在,应用程序将配置为使用您的本地模型。您可以在 http://localhost:3000/w/ 访问它。

三、连接到现有 Ollama 实例

If you already have an Ollama instance running on your host machine, you can connect to it using one of these methods:
如果您的主机上已经运行了一个 Ollama 实例,则可以使用以下方法之一连接到它:

复制代码
# Method 1: Use host networking (simplest approach)
docker compose up --profile local-cpu -d --build --network=host

Or modify your docker-compose.yml:
或者修改您的docker-compose.yml:

复制代码
# Method 2: Add host.docker.internal mapping
services:
  simstudio:
    # ... existing configuration ...
    extra_hosts:
      - "host.docker.internal:host-gateway"
    environment:
      - OLLAMA_HOST=http://host.docker.internal:11434

Option 2: Dev Containers 选项 2:开发容器

  1. Open VS Code or your favorite VS Code fork (Cursor, Windsurf, etc.)
    打开 VS Code 或您最喜欢的 VS Code 分叉(Cursor、Windsurf 等)
  2. Install the Remote - Containers extension
    安装 Remote - Containers 扩展
  3. Open the project in your editor
    在编辑器中打开项目
  4. Click "Reopen in Container" when prompted
    出现提示时,单击 "Reopen in Container"
  5. The environment will automatically be set up in the sim directory
    环境将自动在 sim 目录中设置
  6. Run npm run dev in the terminal or use the sim-start alias
    在终端中运行 npm run dev 或使用 sim-start 别名

Option 3: Manual Setup 选项 3:手动设置

  1. Install Dependencies 安装依赖项
复制代码
# Clone the repository
git clone https://github.com/YOUR_USERNAME/sim.git
cd sim/sim

# Install dependencies
npm install
  1. Set Up Environment 设置环境
复制代码
# Copy .env.example to .env
cp .env.example .env

# Configure your .env file with the required environment variables:
# - Database connection (PostgreSQL)
# - Authentication settings (Better-Auth Secret)

⚠️ Important Notes:
⚠️ 重要说明:

  • If RESEND_API_KEY is not set, verification codes for login/signup will be logged to the console.
    如果未 RESEND_API_KEY 设置,则登录/注册的验证码将记录到控制台。
  • You can use these logged codes for testing authentication locally.
    您可以使用这些记录的代码在本地测试身份验证。
  • For production environments, you should set up a proper email provider.
    对于生产环境,您应该设置适当的电子邮件提供商。
  1. Set Up Database 设置数据库
复制代码
# Push the database schema
npx drizzle-kit push
  1. Start Development Server 启动 Development Server
复制代码
# Start the development server
npm run dev
  1. Open http://localhost:3000 in your browser
    在浏览器中打开 http://localhost:3000

四、Tech Stack 技术栈

  • Framework : Next.js (App Router)
    框架:Next.js (App Router)
  • Database : PostgreSQL with Drizzle ORM
    数据库:带有 Drizzle ORM 的 PostgreSQL
  • Authentication : Better Auth
    身份验证:更好的身份验证
  • UI : Shadcn, Tailwind CSS UI:Shadcn、Tailwind CSS
  • State Management : Zustand
    状态管理:Zustand
  • Flow Editor : ReactFlow 流编辑器:ReactFlow
  • Docs : Fumadocs 文档: Fumadocs

五、软件下载

夸克网盘分享

本文信息来源于GitHub作者地址:GitHub - simstudioai/sim: Sim Studio is an open-source agent workflow builder. Sim Studio's interface is a lightweight, intuitive way to quickly build and deploy LLMs that connect with your favorite tools.

相关推荐
hzp66611 小时前
招牌红烧肉版-深度神经网络
人工智能·深度学习·神经网络·llm·aigc·dnn·反向传播
乾元11 小时前
Service Mesh 与网络抽象:AI 如何做服务层次网络策略生成(微服务 / 云原生)
网络·人工智能·安全·微服务·云原生·运维开发·service_mesh
Zoey的笔记本11 小时前
告别“人机混战”:如何用智能管控实现安全高效协同
大数据·人工智能
奥利文儿11 小时前
【虚拟机】Ubuntu24安装Miniconda3全记录:避坑指南与实践
大数据·数据仓库·人工智能·数据库开发·etl·虚拟机·etl工程师
2401_8353024811 小时前
精准测试赋能高端制造!陶瓷基板介电常数测试的核心价值
大数据·人工智能·制造
寂寞恋上夜11 小时前
从需求到开发任务:WBS拆解的4个层级(附排期模板)
人工智能·prompt·markdown转xmind·deepseek思维导图
Tipriest_11 小时前
配置用户pip源与查看当前的pip的源的办法
linux·人工智能·python·pip
机器学习算法与Python实战11 小时前
DeepSeek-OCR本地部署(1):CUDA 升级12.9,不重启,教程
人工智能·ocr
山野蓝莓酸奶昔11 小时前
InternNav 环境配置:Failed to build flash_attn解决办法
人工智能·深度学习
Coder_Boy_12 小时前
基于SpringAI的智能OPS平台AIops介绍
人工智能·spring boot·aiops·faiss