前言
python中常用的写爬虫的库常有urllib2、requests,对于大多数比较简单的场景或者以学习为目的,可以用这两个库实现。这里有一篇我之前写过的用urllib2+BeautifulSoup做的一个抓取百度音乐热门歌曲的例子,有兴趣可以看一下。
本文介绍用Scrapy抓取我在博客园的博客列表,只抓取博客名称、发布日期、阅读量和评论量这四个简单的字段,以求用较简单的示例说明Scrapy的最基本的用法。
环境配置说明
操作系统:Ubuntu 14.04.2 LTS
Python:Python 2.7.6
Scrapy:Scrapy 1.0.3
注意:Scrapy1.0的版本和之前的版本有些区别,有些类的命名空间改变了。
创建项目
执行如下命令创建一个Scrapy项目
scrapy startproject scrapy_cnblogs
创建之后查看项目的目录结构如下:
scrapy_cnblogs ├── botcnblogs │ ├── __init__.py │ ├── items.py #用于定义抓取内容的实体 │ ├── pipelines.py #处理抓取的item的管道 │ ├── settings.py #爬虫需要的配置参数在这里 │ └── spiders │ └── __init__.py └── scrapy.cfg #项目的配置文件,可以不去理会,默认即可
其中scrapy.cfg所在的目录为项目的根目录,此文件是项目的配置文件,项目建立后,此文件的内容可以不用理会。其内容如下:
[settings] default = botcnblogs.settings [deploy] #url = http://localhost:6800/ project = botcnblogs
在items.py文件里定义在抓取网页内容中抽象出来的数据结构的定义,由于这里需要博客名称、发布日期、阅读量和评论量这四个字段,定义的Item结构如下:
from scrapy import Item,Field #引入Item、Field class BotcnblogsItem(Item): # define the fields for your item here like: title = Field() #标题 publishDate = Field() #发布日期 readCount = Field() #阅读量 commentCount = Field() #评论数<br data-filtered="filtered"><br data-filtered="filtered">
在pipelines.py里对爬虫抓取到的信息(这里的信息是已经组织好的上面定义的Item对象)进行处理,官方介绍的典型的应用场景为:
- 清理HTML数据
- 验证爬取的数据(检查item包含某些字段)
- 查重(并丢弃)
- 将爬取结果保存到数据库中
它的定义也很简单,只需要实现process_item方法即可,此方法有两个参数,一个是item,即要处理的Item对象,另一个参数是spider,即爬虫。
另外还有open_spider和close_spider两个方法,分别是在爬虫启动和结束时的回调方法。
本例中处理很简单,只是将接收的Item对象写到一个json文件中,在__init__方法中以“w+”的方式打开或创建一个item.json的文件,然后把对象反序列化为字符串,写入到item.json文件中。代码如下:
# -*- coding: utf-8 -*- import json class BotcnblogsPipeline(object): def __init__(self): self.file = open("item.json", "w+") def process_item(self, item, spider): record = json.dumps(dict(item), ensure_ascii=False)+"\n" #此处如果有中文的话,要加上ensure_ascii=False参数,否则可能出现乱码 self.file.write(record) return item def open_spider(self, spider): pass def close_spider(self, spider): self.file.close()
setting.py是爬虫的配置文件,配置爬虫的一些配置信息,这里用到的就是设置pipelines的ITEM_PIPELINES参数,此参数配置项目中启用的pipeline及其执行顺序,以字典的形式存在,{“pipeline”:执行顺序整数}
此例中的配置如下:
SPIDER_MODULES = ['botcnblogs.spiders'] NEWSPIDER_MODULE = 'botcnblogs.spiders' ITEM_PIPELINES = { 'botcnblogs.pipelines.BotcnblogsPipeline': 1, }
准备工作都做好了,爬虫呢,爬虫在哪里实现呢,我们看到项目中有个spiders目录,里面只有一个init.py文件,没错,爬虫文件需要自己创建,就在这个目录下,这里创建一个botspider.py的文件,对网页进行解析的工作就要在这里实现了,此例中定义的爬虫类继承自CrawlSpider类。
定义一个Spider需要如下几个变量和方法实现:
name:定义spider名字,这个名字应该是唯一的,在执行这个爬虫程序的时候,需要用到这个名字。
allowed_domains:允许爬取的域名列表,例如现在要爬取博客园,这里要写成cnblogs.com
start_urls:爬虫最开始爬的入口地址列表。
rules:如果要爬取的页面不是单独一个或者几个页面,而是具有一定的规则可循的,例如爬取的博客有连续多页,就可以在这里设置,如果定义了rules,则需要自己定义爬虫规则(以正则表达式的方式),而且需要自定义回调函数。
代码说话:
#-*- coding:utf-8 -*- __author__ = 'linuxfengzheng' from scrapy.spiders import Spider, Rule from scrapy.selector import Selector from botcnblogs.items import BotcnblogsItem from scrapy.linkextractors import LinkExtractor import re from scrapy.spiders import CrawlSpider class botspider(CrawlSpider): name = "cnblogsSpider" #设置爬虫名称 allowed_domains = ["cnblogs.com"] #设置允许的域名 start_urls = [ "http://www.cnblogs.com/fengzheng/default.html", #设置开始爬取页面 ] rules = ( Rule(LinkExtractor(allow=('fengzheng/default.html\"mainContent"]/div/div[@class="day"]') items = [] for p in posts: #content = p.extract() #self.file.write(content.encode("utf-8")) item = BotcnblogsItem() publishDate = p.xpath('div[@class="dayTitle"]/a/text()').extract_first() item["publishDate"] = (publishDate is not None and [publishDate.encode("utf-8")] or [""])[0] #self.file.write(title.encode("utf-8")) title = p.xpath('div[@class="postTitle"]/a/text()').extract_first() item["title"] = (title is not None and [title.encode("utf-8")] or [""])[0] #re_first("posted @ 2015-11-03 10:32 风的姿态 阅读(\d+") readcount = p.xpath('div[@class="postDesc"]/text()').re_first(u"阅读\(\d+\)") regReadCount = re.search(r"\d+", readcount) if regReadCount is not None: readcount = regReadCount.group() item["readCount"] = (readcount is not None and [readcount.encode("utf-8")] or [0])[0] commentcount = p.xpath('div[@class="postDesc"]/text()').re_first(u"评论\(\d+\)") regCommentCount = re.search(r"\d+", commentcount) if regCommentCount is not None: commentcount = regCommentCount.group() item["commentCount"] = (commentcount is not None and [commentcount.encode("utf-8")] or [0])[0] items.append(item) return items #self.file.close()
因为1.0版和之前的版本在包上有所改变,这里列出此例中所涉及的不同版本的区别
类 所在包 1.0版本 之前版本 spider scrapy.spiders scrapy.spider crawlspider scrapy.spiders scrapy.contrib.spiders linkextractor scrapy.linkextractors scrapy.contrib.linkextractors rule scrapy.spiders scrapy.contrib.spiders
爬虫思路:
首先进入到我的博客页面http://www.cnblogs.com/fengzheng/,这是我的博客首页,以列表形式显示已经发布的博文,这是第一页,点击页面下面的下一页按钮,进入第二页,页面地址为http://www.cnblogs.com/fengzheng/default.html"htmlcode">
start_urls = [ "http://www.cnblogs.com/fengzheng/default.html", "http://www.cnblogs.com/fengzheng/default.html", "http://www.cnblogs.com/fengzheng/default.html", ]
当爬取的网页具有规则定义的情况下,要继承CrawlSpider爬虫类,使用Spider就不行了,在规则定义(rules)时,如果要对爬取的网页进行处理,而不是简单的需要Url,这时,需要定义一个回调函数,在爬取到符合条件的网页时调用,并且设置follow=Ture,定义如下:
rules = ( Rule(LinkExtractor(allow=('fengzheng/default.html\"text-align: center">之后,分析网页源码,分析出xpath
用如下代码找到所有的class为day的div,每一个就是一个博文区域:
posts = sel.xpath('//div[@id="mainContent"]/div/div[@class="day"]')之后遍历这个集合,获取所需内容,其中注意一下几点:
因为有中文内容,要对获取的内容进行encode("utf-8")编码
由于评论数和阅读量混在一起,要对那个字符串再进行正则表达式提取
至此,简单的爬虫已经完成,接下来要运行这个爬虫,cd进入到爬虫项目所在的目录,执行以下命令:
scrapy crawl cnblogsSpider会输出爬取过程信息
之后会看到,根目录中多了一个item.json文件,cat此文件内容,可以看到信息已经被提取出来:
点击这里在github获取源码
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
稳了!魔兽国服回归的3条重磅消息!官宣时间再确认!
昨天有一位朋友在大神群里分享,自己亚服账号被封号之后居然弹出了国服的封号信息对话框。
这里面让他访问的是一个国服的战网网址,com.cn和后面的zh都非常明白地表明这就是国服战网。
而他在复制这个网址并且进行登录之后,确实是网易的网址,也就是我们熟悉的停服之后国服发布的暴雪游戏产品运营到期开放退款的说明。这是一件比较奇怪的事情,因为以前都没有出现这样的情况,现在突然提示跳转到国服战网的网址,是不是说明了简体中文客户端已经开始进行更新了呢?
更新动态
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]