博客
关于我
【重磅推荐】在Pycharm中调试scrapy爬虫的两种方法(有坑,务必注意)
阅读量:669 次
发布时间:2019-03-15

本文共 826 字,大约阅读时间需要 2 分钟。

第二种方式:参考链接:

 

pycharm调试scrapy常用的命令配置:

scrapy crawl <scrapy_name> (scrapy_name不是文件名,而是Spider的属性name的值)

scrapy runspider scrapy_first/spider/book.py

第一种模式(常用模式).使用scrapy.cmdline的execute方法

首先,在项目文件scrapy.cfg的同级建立main.py文件(注意,必须是同级建立),在其中键入如下代码:

在其余爬虫文件中设置断点后,运行main.py,即可实现在pycharm中的调试。

from scrapy.cmdline import executeimport sysimport ossys.path.append(os.path.dirname(os.path.abspath(__file__)))单文件调试模式一:runspider+需要执行的spider的name.py文件execute(['scrapy', 'runspider', 'scrapy_first/spiders/book.py'])单文件调试模式二:crawl+需要执行的spider_name!!这里的spider_name不是文件名,而是继承scrapy.spiders.Spider子类的name属性名字(必须是唯一的)# execute(['scrapy', 'crawl', "spider_name"])execute(['scrapy', 'crawl', 'test'])
class Test1Spider(Spider):    name属性就是spider_name,【scrapy crawl spider_name】执行的文件名(必须是唯一)    name = 'test'     def parse(self, response):        pass

转载地址:http://pimmz.baihongyu.com/

你可能感兴趣的文章
Mysql学习总结(56)——MySQL用户管理和权限设置
查看>>
Mysql学习总结(57)——MySQL查询当天、本周、本月、上周、本周、上月、距离当前现在6个月数据
查看>>
Mysql学习总结(58)——深入理解Mysql的四种隔离级别
查看>>
Mysql学习总结(59)——数据库分库分表策略总结
查看>>
Mysql学习总结(5)——MySql常用函数大全讲解
查看>>
Mysql学习总结(60)——并发量大、数据量大的互联网业务数据库设计规范总结
查看>>
Mysql学习总结(61)——MySQL优化之DBA级优化整理汇总
查看>>
Mysql学习总结(62)——MySQL连接com.mysql.jdbc.exceptions.jdbc4.CommunicationsException: Communications link问题
查看>>
Mysql学习总结(63)——Mysql数据库架构方案选择与分析
查看>>
Mysql学习总结(64)——Mysql配置文件my.cnf各项参数解读
查看>>
Mysql学习总结(65)——项目实战中常用SQL实践总结
查看>>
Mysql学习总结(66)——设置MYSQL数据库编码为UTF-8
查看>>
Mysql学习总结(67)——MYSQL慢查询日志
查看>>
Mysql学习总结(68)——MYSQL统计每天、每周、每月、每年数据 SQL 总结
查看>>
Mysql学习总结(69)——Mysql EXPLAIN 命令使用总结
查看>>
Mysql学习总结(6)——MySql之ALTER命令用法详细解读
查看>>
Mysql学习总结(70)——MySQL 优化实施方案
查看>>
Mysql学习总结(71)——MySQL 重复记录查询与删除总结
查看>>
Mysql学习总结(71)——数据库介绍(MySQL安装 体系结构、基本管理)再回顾
查看>>
Mysql学习总结(73)——MySQL 查询A表存在B表不存在的数据SQL总结
查看>>