博客
关于我
【重磅推荐】在Pycharm中调试scrapy爬虫的两种方法(有坑,务必注意)
阅读量:669 次
发布时间:2019-03-15

本文共 826 字,大约阅读时间需要 2 分钟。

第二种方式:参考链接:

 

pycharm调试scrapy常用的命令配置:

scrapy crawl <scrapy_name> (scrapy_name不是文件名,而是Spider的属性name的值)

scrapy runspider scrapy_first/spider/book.py

第一种模式(常用模式).使用scrapy.cmdline的execute方法

首先,在项目文件scrapy.cfg的同级建立main.py文件(注意,必须是同级建立),在其中键入如下代码:

在其余爬虫文件中设置断点后,运行main.py,即可实现在pycharm中的调试。

from scrapy.cmdline import executeimport sysimport ossys.path.append(os.path.dirname(os.path.abspath(__file__)))单文件调试模式一:runspider+需要执行的spider的name.py文件execute(['scrapy', 'runspider', 'scrapy_first/spiders/book.py'])单文件调试模式二:crawl+需要执行的spider_name!!这里的spider_name不是文件名,而是继承scrapy.spiders.Spider子类的name属性名字(必须是唯一的)# execute(['scrapy', 'crawl', "spider_name"])execute(['scrapy', 'crawl', 'test'])
class Test1Spider(Spider):    name属性就是spider_name,【scrapy crawl spider_name】执行的文件名(必须是唯一)    name = 'test'     def parse(self, response):        pass

转载地址:http://pimmz.baihongyu.com/

你可能感兴趣的文章
Netty工作笔记0012---Channel应用案例3
查看>>
Netty工作笔记0013---Channel应用案例4Copy图片
查看>>
Netty工作笔记0014---Buffer类型化和只读
查看>>
Netty工作笔记0015---MappedByteBuffer使用
查看>>
Netty工作笔记0016---Buffer的分散和聚合
查看>>
Netty工作笔记0017---Channel和Buffer梳理
查看>>
Netty工作笔记0018---Selector介绍和原理
查看>>
Netty工作笔记0019---Selector API介绍
查看>>
Netty工作笔记0020---Selectionkey在NIO体系
查看>>
Netty工作笔记0021---NIO编写,快速入门---编写服务器
查看>>
Netty工作笔记0022---NIO快速入门--编写客户端
查看>>
Vue踩坑笔记 - 关于vue静态资源引入的问题
查看>>
Netty工作笔记0024---SelectionKey API
查看>>
Netty工作笔记0025---SocketChannel API
查看>>
Netty工作笔记0026---NIO 网络编程应用--群聊系统1---编写服务器1
查看>>
Netty工作笔记0027---NIO 网络编程应用--群聊系统2--服务器编写2
查看>>
Netty工作笔记0028---NIO 网络编程应用--群聊系统3--客户端编写1
查看>>
Netty工作笔记0029---NIO 网络编程应用--群聊系统4--客户端编写2
查看>>
Netty工作笔记0030---NIO与零拷贝原理剖析
查看>>
Netty工作笔记0031---NIO零拷贝应用案例
查看>>