在亚马逊云科技上使用n8n快速构建个人AI NEWS助理

前言:

N8n 是一个强大的工作流自动化工具,它允许您连接不同的应用程序、服务和系统,以创建自动化工作流程,并且采用了开源MIT协议,可以放心使用,他的官方网站也提供了很多的工作流,大家有兴趣的可以去学习学习。

环境准备:

开启一个AWS EC2机器,放置在公有子网中,本地通过SSH连接到机器上,机器具体配置如下:

复制代码
c5.2xlarge

操作系统选择al2023

选择创建一个密钥,安全组对22端口放开

用到的大模型:

本文使用AWS Bedrock 提供的Claude3 模型,由于claude3.5和3.7在本测试账户有RPM限制,所以在本环境使用claude3模型,实际上本文演示的环境很简单,不需要大模型为我们做很复杂的事情,只需要帮我们总结文档,因此claude3已经足够。需要保证您的AWS账户需要有对bedrock的Claude3 模型访问的权限,并创建一个该用户的AKSK。

工作流概览:

整个n8n workflow 如下:

在您的EC2实例开启好之后,需要在您的本地终端执行命令 连接到EC2。

复制代码
chmod 400 /path/to/your-key.pem

ssh -i /path/to/your-key.pem  ec2-user@your-ec2-public-ip

ssh登录到ec2机器上执行:

复制代码
sudo dnf update -y
sudo dnf install docker -y
sudo systemctl enable docker

将 ec2-user 用户添加到 docker 用户组

• 允许该用户无需 sudo 权限即可运行 Docker 命令

• 注意:此更改需要用户重新登录才能生效

复制代码
sudo usermod -aG docker ec2-user

创建一个名为 n8n_data 的 Docker 卷

• 这个卷将用于持久化存储 n8n 的数据和配置

复制代码
docker volume create n8n_data

运行 n8n 容器:

• -d: 在后台运行容器

• --name n8n: 将容器命名为 "n8n"

• -p 5678:5678: 将容器内的 5678 端口映射到主机的 5678 端口

• -v n8n_data:/home/node/.n8n: 将之前创建的卷挂载到容器内的 n8n 数据目录

• --restart unless-stopped: 设置容器自动重启策略,除非手动停止

docker.n8n.io/n8nio/n8n: 使用官方 n8n Docker 镜像

复制代码
docker run -d --name n8n   -p 5678:5678   -v n8n_data:/home/node/.n8n   --restart unless-stopped   docker.n8n.io/n8nio/n8n

在本地机器上进行测试的话,需要设置 SSH 端口转发,需要在本地终端中执行以下命令:

复制代码
ssh -i /path/to/your-key.pem -L 5678:localhost:5678 ec2-user@your-ec2-public-ip

打开本地浏览器http://localhost:5678 就可以进入到n8n官方界面,进行注册后就可以创建自己的的workflow啦

搜索Schedule Trigger,进行以下设置,如图所示是在每天早上9点进行触发

添加RSS节点:这里的RSS Link我们选择为:https://rsshub.app/aibase/news

添加limit节点,选择前10的新闻进行推送

添加HTML到Markdown转换的节点,具体配置如下:

添加agent节点:

本文的agent节点chat model使用的是bedrock的claude3模型,具体设置如下:

选择权限设置,选择Bedrock model ,选择你需要配置的区域和AKSK进行权限设置

设置完成后在agent的模型处选择此认证,并选择你需要使用的模型:

模型配置完成后就可以进行agent参数的配置,这里的prompt是将前面的RSS站点读取到的数据给到大模型,模型再去总结:

完成后点击test step 就可以进行测试 使用大模型进行新闻关键内容的提取:

为了实现将这些新闻同步到我们的notion里,我们需要

配置notion账号集成:

访问 https://www.notion.so/profile/integrations,

创建集成,选择内部集成,为集成命名。

创建成功后,复制key到n8n内,点击n8n首页credential,创建notion api的credential

输入刚粘贴的key,

创建成功后,可以看到连接成功

然后登录到notion账户里,创建一个数据表单

标题为AI NEWS ,添加4列,参数分别为:标题、摘要、URL和时间

创建后点击右上角三个点符号,选择集成,就可以看到刚创建的集成为活跃状态,如果这里一直刷新不出来,可以换一个终端,比如网站换手机app去刷新一下:

然后我们选择添加新的notion节点到agent节点之后,选择create a database,并选择刚创建的credential,此时在下面的database里就可以看到我们notion里创建的database名字,选中后进行下一步的字段映射

字段映射配置


至此,我们的工作流就配置好了,可以点击右上角红色按钮测试,可以看到可以正常执行

同时也可以在notion里看到拉取到的数据

个人感想:

现在构建AI工作流的工具越来越多,从dify到coze, n8n,langflow还有ComfyUI等,需要注意的是个人开发者使用和企业商用的差距,企业商用需要考虑权限隔离,并发下的应用承载等更多的因素,因此在工具选择和部署上也需要考虑清楚。但需要注意的是,无论哪种工具,构建工作流必不可少的就是选择合适的模型,领先模型比如deepseek,claude3.7/3.5 他们可能适合普适性场景,但是真的到领域应用的话,直接使用这些FM未必是更好的选择。

相关推荐
Apache Flink几秒前
Apache Flink 2.1.0: 面向实时 Data + AI 全面升级,开启智能流处理新纪元
人工智能·flink·apache
用户479492835691527 分钟前
mcp是怎么和大模型进行交互的,有哪些交互方式
前端·人工智能
WeiJingYu.28 分钟前
机器学习—逻辑回归
人工智能·机器学习·逻辑回归
东风微鸣35 分钟前
GitOps:云原生时代的革命性基础设施管理范式
docker·云原生·kubernetes·可观察性
AI导航猿40 分钟前
Manus 上线 Wide Research:别再用一个 AI 干活了,现在流行“数字打工团队”
人工智能
一直在努力的小宁42 分钟前
Diffuse and Disperse: Image Generation with Representation Regularization
大数据·人工智能·计算机视觉·diffuse
zl_vslam1 小时前
SLAM中的非线性优化-2D图优化之零空间实战(十六)
人工智能·算法·机器学习·计算机视觉·slam se2 非线性优化
David爱编程1 小时前
Kubernetes NetworkPolicy 实践与策略误区
云原生·容器·kubernetes
SugarPPig1 小时前
(二)LoRA微调BERT:为何在单分类任务中表现优异,而在多分类任务中效果不佳?
人工智能·分类·bert