使用anaconda创建爬虫spyder工程

1.由于每个工程使用的环境都可能不一样,因此一个好的习惯就是不同的工程都创建属于自己的环境,在anaconda中默认的环境是base,我们现在来创建一个名为spyder的环境,专门用于爬虫工程:

kotlin 复制代码
//括号中名字,代表当前的环境
(base)dragon@machine: $ conda create --name=spyder

2.激活环境

kotlin 复制代码
// 环境从base切换到example
(base)dragon@machine: $ conda activate spyder

3.安装spyder- kernels

kotlin 复制代码
// 环境已从base切换到spyder
(spyder)dragon@machine: $ conda install spyder-kernels

到此spyder的环境就创建好了,接下来我们来使用这个环境来开发。

kotlin 复制代码
(spyder)dragon@machine: $ conda activate base

5.启动navigator

kotlin 复制代码
(spyder)dragon@machine: $ anaconda-navigator

6. 点击Spyder的launch按钮,启动这个IDE

7. 启动IDE后,修改运行环境,点击右下角Completions:conda(base) ->Change default environment in Preferences...

8.选择相应Python interpreter -> Use the following Python interpreter,然后选择spyder环境下的python解析器,如下图所示:

使用anaconda 创建spyder工程是很方便的。

相关推荐
电商API&Tina10 小时前
【电商API接口】多电商平台数据API接入方案(附带实例)
运维·开发语言·数据库·chrome·爬虫·python·jenkins
code tsunami13 小时前
如何将 Helium 与 CapSolver 集成,实现无缝 CAPTCHA 自动化解决
运维·数据库·人工智能·爬虫·python·自动化
电商API_1800790524714 小时前
淘宝商品数据爬虫技术实践指南
大数据·数据库·人工智能·爬虫
Serendipity_Carl14 小时前
淘宝商品数据爬取实战:突破sign签名与Cookie验证
爬虫·js逆向
code tsunami15 小时前
DrissionPage 与 CapSolver:打造无痕、高效的自动化爬虫利器
运维·爬虫·自动化
qq_124987075315 小时前
基于spark的西南天气数据的分析与应用(源码+论文+部署+安装)
大数据·分布式·爬虫·python·spark·毕业设计·数据可视化
tang777891 天前
Python爬虫代理,选短效IP还是长效IP?
爬虫·python·tcp/ip
从负无穷开始的三次元代码生活1 天前
Python网络爬虫——知识点
爬虫·python
小白学大数据2 天前
海量小说数据采集:Spark 爬虫系统设计
大数据·开发语言·爬虫·spark
Smartdaili China2 天前
如何抓取维基百科. 完整初学者教程
爬虫·指南·抓取·wikipedia·抓取api·如何·百科