使用anaconda创建爬虫spyder工程

1.由于每个工程使用的环境都可能不一样,因此一个好的习惯就是不同的工程都创建属于自己的环境,在anaconda中默认的环境是base,我们现在来创建一个名为spyder的环境,专门用于爬虫工程:

kotlin 复制代码
//括号中名字,代表当前的环境
(base)dragon@machine: $ conda create --name=spyder

2.激活环境

kotlin 复制代码
// 环境从base切换到example
(base)dragon@machine: $ conda activate spyder

3.安装spyder- kernels

kotlin 复制代码
// 环境已从base切换到spyder
(spyder)dragon@machine: $ conda install spyder-kernels

到此spyder的环境就创建好了,接下来我们来使用这个环境来开发。

kotlin 复制代码
(spyder)dragon@machine: $ conda activate base

5.启动navigator

kotlin 复制代码
(spyder)dragon@machine: $ anaconda-navigator

6. 点击Spyder的launch按钮,启动这个IDE

7. 启动IDE后,修改运行环境,点击右下角Completions:conda(base) ->Change default environment in Preferences...

8.选择相应Python interpreter -> Use the following Python interpreter,然后选择spyder环境下的python解析器,如下图所示:

使用anaconda 创建spyder工程是很方便的。

相关推荐
ONE_Gua6 小时前
chromium魔改——CDP(Chrome DevTools Protocol)检测01
前端·后端·爬虫
ONE_Gua9 小时前
chromium魔改——navigator.webdriver 检测
前端·后端·爬虫
z_mazin14 小时前
JavaScript逆向魔法:Chrome开发者工具探秘之旅
javascript·chrome·爬虫
攻城狮7号1 天前
Python爬虫第2节-网页基础和爬虫基本原理
爬虫·python爬虫
π2701 天前
爬虫:网络请求(通信)步骤,http和https协议
网络·爬虫
叫我王富贵i1 天前
0基础入门scrapy 框架,获取豆瓣top250存入mysql
爬虫·python·scrapy
小爬虫程序猿1 天前
利用 PHP 爬虫按关键字搜索淘宝商品
开发语言·爬虫·php
小爬虫程序猿1 天前
淘宝商品信息如何存储到数据库?
数据库·爬虫·php
南玖yy1 天前
Python网络爬虫:从入门到实践
爬虫·python
莓事哒1 天前
selenium和pytessarct提取古诗文网的验证码(python爬虫)
爬虫·python·selenium·测试工具·pycharm