目录
背景
居然还有万能的pycharm 解决不了的python程序???
创建scrapy
由于PyCharm 中没有直接创建Scrapy项目的选项,所以使用命令行创建一个项目
安装scrapy
python
pip install scrapy
查看版本
能看版本就是安装成功
python
scrapy version

创建一个scrapy项目
python
scrapy startproject yourprojectname

根据提示创建爬虫
python
cd asd
scrapy genspider example example.com
这样就创建成功了
难受的开始
使用PyCharm 打开这个项目,却发现爬虫中的parse 函数是灰色的框
python
Signature of method 'ExampleSpider.parse()' does not match signature of the base method in class 'Spider'
看一下父类中的parse 函数是如何定义的,因为我们是重写父类的方法,在pycharm 点这个就行了
进到父类可以看到有一个**kwargs
参数
把**kwargs
参数加入到自己的爬虫的parse 上面去,灰框就不见了,总算看着不难受了
指定类型
但是还有一个问题,灰框只是看着难受,没有代码提示才是真的难受,.
不出来谁懂啊
运行一下打印他的类型看看,可以看到是scrapy.http.response.html.HtmlResponse
类型
python
scrapy crawl example # example是你的爬虫名字,也就是类里面的name属性

如果不想看到那么多烦人的日志信息就在settings.py中加上日志等级
python
LOG_LEVEL = 'WARNING'

重新运行看看效果,世界安静
既然知道是什么类型那就给他指定类型就行了
python
from scrapy.http.response import Response
def parse(self, response: Response, **kwargs):
.
出来了,舒服了
修改模板并指定使用
终于可以看到有了正常的代码提示了,但是总不能每次都这样写吧,查看genspider 命令,发现-t
参数可以使用自定义模板
可以看到正常创建爬虫是使用basic 这个模板
在你的解释器路径下找到该文件夹
python
\Python39\Lib\site-packages\scrapy\templates\spiders
可以在该路径下找到这个模板文件
如果是用pycharm还可以这样操作更快一点,而且直接定位到解释器位置以免你用的是虚拟环境路径不一样
导入scrapy 包然后按住键盘的ctrl 键然后用鼠标左键点一下就可以跳过去他的源代码
点击后跳转到__init__.py
,其实跳哪个不重要,只要属于scrapy 这个包就好了
然后就可以找到模板文件了
这样就可以看见他的内容了,也可以右键打开他的文件夹
我选择复制一份出来(你也可以在上面直接改那就不用使用genspider -t
指定模板了)
mytemplate.tmpl 你想叫什么名字都可以
python
import scrapy
from scrapy.http.response import Response
class $classname(scrapy.Spider):
name = "$name"
allowed_domains = ["$domain"]
start_urls = ["$url"]
def parse(self, response: Response, **kwargs):
pass
然后就可以使用自定义的模板创建爬虫
python
# scrapy genspider -t 模板名称 爬虫名称 域名
scrapy genspider -t mytemplate test test.com
可以看见新建的爬虫没有一点问题,舒服的代码提示
注意模板名称必须写对,不然就会报错
如果你忘了你的模板名称可以安装提示查看
python
scrapy genspider --list

运行scrapy
前面提到的启动scrapy需要在终端使用以下命令
python
scrapy crawl example # example是你的爬虫名字,也就是类里面的name属性
这么麻烦?我都用万能的pycharm 了就没有简单的办法让我运行和断点调试吗?
我就能不能用右键运行或调试?万能的ctrl + shift + F10
吗?
那肯定是可以的啊
在项目根目录也就scrapy.cfg 同一层,settings.py 的上一层创建main.py(你想叫啥都行)文件写入以下代码
python
from scrapy.cmdline import execute
import os
import sys
if __name__ == '__main__':
sys.path.append(os.path.dirname(os.path.abspath(__file__)))
execute(['scrapy', 'crawl', 'example']) # 把最后的参数换成你自己的爬虫名字

直接运行该文件就可以运行scrapy
运行过一次后面就可以用CTRL + F5
了
也可以使用DEBUG 调试,可以看到已经停在断点处了