Sim Studio 是一个开源的代理工作流程构建器。Sim Studio 的界面是一种轻量级、直观的方式,可快速构建和部署LLMs与您最喜欢的工具连接

​一、软件介绍

文末提供程序和源码下载

Sim Studio开源程序 是一个功能强大、用户友好的平台,用于构建、测试和优化代理工作流程,Sim Studio 是一个开源的代理工作流程构建器。Sim Studio 的界面是一种轻量级、直观的方式,可快速构建和部署LLMs与您最喜欢的工具连接。

二、如何自托管

文末提供程序和源码下载,跳过第一步直接解压缩,进入解压缩目录

Option 1: Docker Environment (Recommended)

选项 1:Docker 环境(推荐)

复制代码
# Clone your forked repository
git clone https://github.com/YOUR_USERNAME/sim.git
cd sim

# Create environment file and update with required environment variables (BETTER_AUTH_SECRET)
cp sim/.env.example sim/.env

# Start Sim Studio using the provided script
docker compose up -d --build

or

./start_simstudio_docker.sh

After running these commands:
运行以下命令后:

  1. Access the Application: 访问应用程序:

  2. Useful Docker Commands: 有用的 Docker 命令:

    复制代码
    # View application logs
    docker compose logs -f simstudio
    
    # Access PostgreSQL database
    docker compose exec db psql -U postgres -d simstudio
    
    # Stop the environment
    docker compose down
    
    # Rebuild and restart (after code changes)
    docker compose up -d --build
Working with Local Models

使用本地模型

To use local models with Sim Studio, follow these steps:
要在 Sim Studio 中使用本地模型,请执行以下步骤:

  1. Pull Local Models 拉取本地模型

    复制代码
    # Run the ollama_docker.sh script to pull the required models
    ./sim/scripts/ollama_docker.sh pull <model_name>
  2. Start Sim Studio with Local Models
    使用本地模型启动 Sim Studio

    复制代码
    #Start Sim Studio with local model support
    ./start_simstudio_docker.sh --local
    
    # or
    
    # Start Sim Studio with local model support if you have nvidia GPU
    docker compose up --profile local-gpu -d --build
    
    # or
    
    # Start Sim Studio with local model support if you don't have nvidia GPU
    docker compose up --profile local-cpu -d --build

The application will now be configured to use your local models. You can access it at http://localhost:3000/w/.
现在,应用程序将配置为使用您的本地模型。您可以在 http://localhost:3000/w/ 访问它。

三、连接到现有 Ollama 实例

If you already have an Ollama instance running on your host machine, you can connect to it using one of these methods:
如果您的主机上已经运行了一个 Ollama 实例,则可以使用以下方法之一连接到它:

复制代码
# Method 1: Use host networking (simplest approach)
docker compose up --profile local-cpu -d --build --network=host

Or modify your docker-compose.yml:
或者修改您的docker-compose.yml:

复制代码
# Method 2: Add host.docker.internal mapping
services:
  simstudio:
    # ... existing configuration ...
    extra_hosts:
      - "host.docker.internal:host-gateway"
    environment:
      - OLLAMA_HOST=http://host.docker.internal:11434

Option 2: Dev Containers 选项 2:开发容器

  1. Open VS Code or your favorite VS Code fork (Cursor, Windsurf, etc.)
    打开 VS Code 或您最喜欢的 VS Code 分叉(Cursor、Windsurf 等)
  2. Install the Remote - Containers extension
    安装 Remote - Containers 扩展
  3. Open the project in your editor
    在编辑器中打开项目
  4. Click "Reopen in Container" when prompted
    出现提示时,单击 "Reopen in Container"
  5. The environment will automatically be set up in the sim directory
    环境将自动在 sim 目录中设置
  6. Run npm run dev in the terminal or use the sim-start alias
    在终端中运行 npm run dev 或使用 sim-start 别名

Option 3: Manual Setup 选项 3:手动设置

  1. Install Dependencies 安装依赖项
复制代码
# Clone the repository
git clone https://github.com/YOUR_USERNAME/sim.git
cd sim/sim

# Install dependencies
npm install
  1. Set Up Environment 设置环境
复制代码
# Copy .env.example to .env
cp .env.example .env

# Configure your .env file with the required environment variables:
# - Database connection (PostgreSQL)
# - Authentication settings (Better-Auth Secret)

⚠️ Important Notes:
⚠️ 重要说明:

  • If RESEND_API_KEY is not set, verification codes for login/signup will be logged to the console.
    如果未 RESEND_API_KEY 设置,则登录/注册的验证码将记录到控制台。
  • You can use these logged codes for testing authentication locally.
    您可以使用这些记录的代码在本地测试身份验证。
  • For production environments, you should set up a proper email provider.
    对于生产环境,您应该设置适当的电子邮件提供商。
  1. Set Up Database 设置数据库
复制代码
# Push the database schema
npx drizzle-kit push
  1. Start Development Server 启动 Development Server
复制代码
# Start the development server
npm run dev
  1. Open http://localhost:3000 in your browser
    在浏览器中打开 http://localhost:3000

四、Tech Stack 技术栈

  • Framework : Next.js (App Router)
    框架:Next.js (App Router)
  • Database : PostgreSQL with Drizzle ORM
    数据库:带有 Drizzle ORM 的 PostgreSQL
  • Authentication : Better Auth
    身份验证:更好的身份验证
  • UI : Shadcn, Tailwind CSS UI:Shadcn、Tailwind CSS
  • State Management : Zustand
    状态管理:Zustand
  • Flow Editor : ReactFlow 流编辑器:ReactFlow
  • Docs : Fumadocs 文档: Fumadocs

五、软件下载

夸克网盘分享

本文信息来源于GitHub作者地址:GitHub - simstudioai/sim: Sim Studio is an open-source agent workflow builder. Sim Studio's interface is a lightweight, intuitive way to quickly build and deploy LLMs that connect with your favorite tools.

相关推荐
.30-06Springfield4 分钟前
人工智能概念之七:集成学习思想(Bagging、Boosting、Stacking)
人工智能·算法·机器学习·集成学习
说私域1 小时前
基于开源AI智能名片链动2+1模式S2B2C商城小程序的超级文化符号构建路径研究
人工智能·小程序·开源
永洪科技1 小时前
永洪科技荣获商业智能品牌影响力奖,全力打造”AI+决策”引擎
大数据·人工智能·科技·数据分析·数据可视化·bi
shangyingying_11 小时前
关于小波降噪、小波增强、小波去雾的原理区分
人工智能·深度学习·计算机视觉
书玮嘎2 小时前
【WIP】【VLA&VLM——InternVL系列】
人工智能·深度学习
猫头虎3 小时前
猫头虎 AI工具分享:一个网页抓取、结构化数据提取、网页爬取、浏览器自动化操作工具:Hyperbrowser MCP
运维·人工智能·gpt·开源·自动化·文心一言·ai编程
要努力啊啊啊3 小时前
YOLOv2 正负样本分配机制详解
人工智能·深度学习·yolo·计算机视觉·目标跟踪
CareyWYR3 小时前
大模型真的能做推荐系统吗?ARAG论文给了我一个颠覆性的答案
人工智能
特立独行的猫a3 小时前
百度AI文心大模型4.5系列开源模型评测,从安装部署到应用体验
人工智能·百度·开源·文心一言·文心一言4.5