使用anaconda创建爬虫spyder工程

1.由于每个工程使用的环境都可能不一样,因此一个好的习惯就是不同的工程都创建属于自己的环境,在anaconda中默认的环境是base,我们现在来创建一个名为spyder的环境,专门用于爬虫工程:

kotlin 复制代码
//括号中名字,代表当前的环境
(base)dragon@machine: $ conda create --name=spyder

2.激活环境

kotlin 复制代码
// 环境从base切换到example
(base)dragon@machine: $ conda activate spyder

3.安装spyder- kernels

kotlin 复制代码
// 环境已从base切换到spyder
(spyder)dragon@machine: $ conda install spyder-kernels

到此spyder的环境就创建好了,接下来我们来使用这个环境来开发。

kotlin 复制代码
(spyder)dragon@machine: $ conda activate base

5.启动navigator

kotlin 复制代码
(spyder)dragon@machine: $ anaconda-navigator

6. 点击Spyder的launch按钮,启动这个IDE

7. 启动IDE后,修改运行环境,点击右下角Completions:conda(base) ->Change default environment in Preferences...

8.选择相应Python interpreter -> Use the following Python interpreter,然后选择spyder环境下的python解析器,如下图所示:

使用anaconda 创建spyder工程是很方便的。

相关推荐
Python大数据分析@1 天前
CLI一键采集,使用Python搭建TikTok电商爬虫Agent
开发语言·爬虫·python
编程隐士1 天前
爬虫管理系统实现方案
爬虫
跨境数据猎手1 天前
1688 商品铺货到独立站实操(附工具 + 代码)
大数据·爬虫·软件构建
_.Switch2 天前
东方财富股票数据JS逆向:secids字段和AES加密实战
开发语言·前端·javascript·网络·爬虫·python·ecmascript
码界奇点2 天前
基于Python的新浪微博数据爬虫系统设计与实现
数据库·爬虫·python·毕业设计·新浪微博·源代码管理
tang777892 天前
代理IP质量检测实战:Python实现IP可用性、延迟、匿名度自动测试脚本
大数据·爬虫·python·网络协议·tcp/ip
datascome3 天前
文章自动采集发布到Discuz网站技巧
经验分享·爬虫·数据采集·discuz·网站内容批量发布
亿牛云爬虫专家3 天前
Go爬虫进阶:如何优雅地在Colly框架中实现无缝代理切换?
爬虫·中间件·golang·爬虫代理·colly框架·代理切换·api提取
小白学大数据3 天前
Python 3.7 高并发爬虫:接口请求与页面解析并发处理
开发语言·爬虫·python
深蓝电商API4 天前
淘宝商品主图视频下载:从 API 返回值中提取视频 URL 并转码
爬虫·接口·api·淘宝api