一、何为Cursor?
Cursor 是 Anysphere 推出的 AI 编程工具,基于微软开源代码编辑器 VS Code 开发。它融合 AI 与开发工作流程,支持用自然语言生成代码,能根据上下文精准补全代码,还具备错误检测修复、代码重构等功能。它支持多种编程语言,提供免费增值模式。在快速原型开发、编程学习、团队协作等场景应用广泛,能提升开发效率,减少重复性工作 。
Cursor 与传统 AI 相比,优势显著。它专注编程领域,代码生成和补全更精准高效,能基于代码上下文和开发者习惯给出建议,而传统 AI 泛用性强但编程专业性不足。Cursor 可直接在开发环境内理解和解释代码,辅助调试,传统 AI 多缺乏这类深度集成功能。此外,Cursor 隐私保护更到位,支持本地运行减少数据泄露风险,而传统 AI 在隐私处理上相对较弱。
二、Cursor"伪"免费使用教程
为什么是"伪"免费?
该方法借助外部网站的免费额度使用Cursor,但是学习使用是完全够用的
方法如下
1.账号注册 在网站SiliconCloud注册账号,登入,可以发现我们是有免费使用14元额度的,够我们使用很长时间了

2.选择模型
首先进入Cursor Settings,点击ADD model 之后添加模型Qwen/Qwen2.5-VL-32B-Instruct

将其他模型取消勾选,只选择我们添加的模型Qwen/Qwen2.5-VL-32B-Instruct
3.配置API
在网站中新建API密钥并复制

在Cursor中配置API,在OpenAI API Key中粘贴刚刚复制的API密钥,BaseURL 设置为api.siliconflow.cn/v1 ,之后点击Save,即可大功告成

三、一键生成爬取微博热榜代码 找到一个合适的目录,Ctrl+I 打开AI对话框,对话框中输入以下Prompt
js
请帮我编写一个node程序,去爬取微博热榜。
#要求:
1.使用request-promise和cheerio
2.目标网站:@https://tophub.today/n/KqndgxeLl9
3.爬取表格中热榜的排名、热度、链接、并保存到csv文件中
请一步步思考,你可以打开目标网站分析其网页结构,并编写代码

点击发送,AI生成的提示直接同意,会发现Cursor已经生成了所需要的代码

js
const rp = require('request-promise');
const cheerio = require('cheerio');
const createCsvWriter = require('csv-writer').createObjectCsvWriter;
// 目标URL
const url = 'https://tophub.today/n/KqndgxeLl9';
// 配置CSV写入器
const csvWriter = createCsvWriter({
path: 'weibo_hot.csv',
header: [
{id: 'rank', title: '排名'},
{id: 'title', title: '标题'},
{id: 'heat', title: '热度'},
{id: 'link', title: '链接'}
]
});
async function crawlWeiboHot() {
try {
// 发送请求获取页面内容
const html = await rp(url);
const $ = cheerio.load(html);
const hotItems = [];
// 遍历表格中的每一行
$('table tbody tr').each((index, element) => {
const $row = $(element);
// 提取排名
const rank = $row.find('td:first-child').text().trim();
// 提取标题和链接
const $titleLink = $row.find('td:nth-child(2) a');
const title = $titleLink.text().trim();
const link = $titleLink.attr('href');
// 提取热度
const heat = $row.find('td:nth-child(3)').text().trim();
// 将数据添加到数组中
hotItems.push({
rank,
title,
heat,
link
});
});
// 写入CSV文件
await csvWriter.writeRecords(hotItems);
console.log('数据已成功保存到 weibo_hot.csv');
} catch (error) {
console.error('爬取过程中发生错误:', error);
}
}
// 执行爬虫
crawlWeiboHot();
爬取数据如下
