Sim Studio 是一个开源的代理工作流程构建器。Sim Studio 的界面是一种轻量级、直观的方式,可快速构建和部署LLMs与您最喜欢的工具连接

​一、软件介绍

文末提供程序和源码下载

Sim Studio开源程序 是一个功能强大、用户友好的平台,用于构建、测试和优化代理工作流程,Sim Studio 是一个开源的代理工作流程构建器。Sim Studio 的界面是一种轻量级、直观的方式,可快速构建和部署LLMs与您最喜欢的工具连接。

二、如何自托管

文末提供程序和源码下载,跳过第一步直接解压缩,进入解压缩目录

Option 1: Docker Environment (Recommended)

选项 1:Docker 环境(推荐)

复制代码
# Clone your forked repository
git clone https://github.com/YOUR_USERNAME/sim.git
cd sim

# Create environment file and update with required environment variables (BETTER_AUTH_SECRET)
cp sim/.env.example sim/.env

# Start Sim Studio using the provided script
docker compose up -d --build

or

./start_simstudio_docker.sh

After running these commands:
运行以下命令后:

  1. Access the Application: 访问应用程序:

  2. Useful Docker Commands: 有用的 Docker 命令:

    复制代码
    # View application logs
    docker compose logs -f simstudio
    
    # Access PostgreSQL database
    docker compose exec db psql -U postgres -d simstudio
    
    # Stop the environment
    docker compose down
    
    # Rebuild and restart (after code changes)
    docker compose up -d --build
Working with Local Models

使用本地模型

To use local models with Sim Studio, follow these steps:
要在 Sim Studio 中使用本地模型,请执行以下步骤:

  1. Pull Local Models 拉取本地模型

    复制代码
    # Run the ollama_docker.sh script to pull the required models
    ./sim/scripts/ollama_docker.sh pull <model_name>
  2. Start Sim Studio with Local Models
    使用本地模型启动 Sim Studio

    复制代码
    #Start Sim Studio with local model support
    ./start_simstudio_docker.sh --local
    
    # or
    
    # Start Sim Studio with local model support if you have nvidia GPU
    docker compose up --profile local-gpu -d --build
    
    # or
    
    # Start Sim Studio with local model support if you don't have nvidia GPU
    docker compose up --profile local-cpu -d --build

The application will now be configured to use your local models. You can access it at http://localhost:3000/w/.
现在,应用程序将配置为使用您的本地模型。您可以在 http://localhost:3000/w/ 访问它。

三、连接到现有 Ollama 实例

If you already have an Ollama instance running on your host machine, you can connect to it using one of these methods:
如果您的主机上已经运行了一个 Ollama 实例,则可以使用以下方法之一连接到它:

复制代码
# Method 1: Use host networking (simplest approach)
docker compose up --profile local-cpu -d --build --network=host

Or modify your docker-compose.yml:
或者修改您的docker-compose.yml:

复制代码
# Method 2: Add host.docker.internal mapping
services:
  simstudio:
    # ... existing configuration ...
    extra_hosts:
      - "host.docker.internal:host-gateway"
    environment:
      - OLLAMA_HOST=http://host.docker.internal:11434

Option 2: Dev Containers 选项 2:开发容器

  1. Open VS Code or your favorite VS Code fork (Cursor, Windsurf, etc.)
    打开 VS Code 或您最喜欢的 VS Code 分叉(Cursor、Windsurf 等)
  2. Install the Remote - Containers extension
    安装 Remote - Containers 扩展
  3. Open the project in your editor
    在编辑器中打开项目
  4. Click "Reopen in Container" when prompted
    出现提示时,单击 "Reopen in Container"
  5. The environment will automatically be set up in the sim directory
    环境将自动在 sim 目录中设置
  6. Run npm run dev in the terminal or use the sim-start alias
    在终端中运行 npm run dev 或使用 sim-start 别名

Option 3: Manual Setup 选项 3:手动设置

  1. Install Dependencies 安装依赖项
复制代码
# Clone the repository
git clone https://github.com/YOUR_USERNAME/sim.git
cd sim/sim

# Install dependencies
npm install
  1. Set Up Environment 设置环境
复制代码
# Copy .env.example to .env
cp .env.example .env

# Configure your .env file with the required environment variables:
# - Database connection (PostgreSQL)
# - Authentication settings (Better-Auth Secret)

⚠️ Important Notes:
⚠️ 重要说明:

  • If RESEND_API_KEY is not set, verification codes for login/signup will be logged to the console.
    如果未 RESEND_API_KEY 设置,则登录/注册的验证码将记录到控制台。
  • You can use these logged codes for testing authentication locally.
    您可以使用这些记录的代码在本地测试身份验证。
  • For production environments, you should set up a proper email provider.
    对于生产环境,您应该设置适当的电子邮件提供商。
  1. Set Up Database 设置数据库
复制代码
# Push the database schema
npx drizzle-kit push
  1. Start Development Server 启动 Development Server
复制代码
# Start the development server
npm run dev
  1. Open http://localhost:3000 in your browser
    在浏览器中打开 http://localhost:3000

四、Tech Stack 技术栈

  • Framework : Next.js (App Router)
    框架:Next.js (App Router)
  • Database : PostgreSQL with Drizzle ORM
    数据库:带有 Drizzle ORM 的 PostgreSQL
  • Authentication : Better Auth
    身份验证:更好的身份验证
  • UI : Shadcn, Tailwind CSS UI:Shadcn、Tailwind CSS
  • State Management : Zustand
    状态管理:Zustand
  • Flow Editor : ReactFlow 流编辑器:ReactFlow
  • Docs : Fumadocs 文档: Fumadocs

五、软件下载

夸克网盘分享

本文信息来源于GitHub作者地址:GitHub - simstudioai/sim: Sim Studio is an open-source agent workflow builder. Sim Studio's interface is a lightweight, intuitive way to quickly build and deploy LLMs that connect with your favorite tools.

相关推荐
视觉语言导航2 分钟前
哈工深无人机目标导航新基准!UAV-ON:开放世界空中智能体目标导向导航基准测试
人工智能·深度学习·无人机·具身智能
yzx9910133 分钟前
AI心理助手开发文档
人工智能·深度学习·机器学习
图灵学术计算机论文辅导19 分钟前
论文推荐|迁移学习+多模态特征融合
论文阅读·人工智能·深度学习·计算机网络·算法·计算机视觉·目标跟踪
一百天成为python专家28 分钟前
Python循环语句 从入门到精通
开发语言·人工智能·python·opencv·支持向量机·计算机视觉
SelectDB41 分钟前
Apache Doris 在菜鸟的大规模湖仓业务场景落地实践
大数据·数据分析·开源
轻松Ai享生活1 小时前
GitHub Repo 骨架:Makefile + CUDA 入门程序
人工智能
用户5191495848451 小时前
对抗性工程实践:利用AI自动化构建GitHub仓库的虚假提交历史
人工智能·aigc
riveting2 小时前
重塑工业设备制造格局:明远智睿 T113-i 的破局之道
人工智能·物联网·制造·t113·明远智睿
zzywxc7872 小时前
详细探讨AI在金融、医疗、教育和制造业四大领域的具体落地案例,并通过代码、流程图、Prompt示例和图表等方式展示这些应用的实际效果。
开发语言·javascript·人工智能·深度学习·金融·prompt·流程图
算家计算2 小时前
32K上下文开源语音理解、40分钟深度交互——Voxtral-Small-24B-2507本地部署教程
人工智能·开源·aigc