Scrapy研究探索(五)——自动多网页爬取(抓取某人博客所有文章)

2023-05-16


首先,在教程(二)(http://blog.csdn.net/u012150179/article/details/32911511)中,研究的是爬取单个网页的方法。在教程(三)(http://blog.csdn.net/u012150179/article/details/34441655)中,讨论了Scrapy核心架构。现在在(二)的基础上,并结合在(三)中提到的爬取多网页的原理方法,进而进行自动多网页爬取方法研究。

并且,为了更好的理解Scrapy核心架构以及数据流,在这里仍采用scrapy.spider.Spider作为编写爬虫的基类。


首先创建project:

scrapy startproject CSDNBlog

一. items.py编写

在这里为清晰说明,只提取文章名称和文章网址。

# -*- coding:utf-8 -*-

from scrapy.item import Item, Field

class CsdnblogItem(Item):
    """存储提取信息数据结构"""

    article_name = Field()
    article_url = Field()

二. pipelines.py编写

import json
import codecs

class CsdnblogPipeline(object):

    def __init__(self):
        self.file = codecs.open('CSDNBlog_data.json', mode='wb', encoding='utf-8')

    def process_item(self, item, spider):
        line = json.dumps(dict(item)) + '\n'
        self.file.write(line.decode("unicode_escape"))

        return item

其中,构造函数中以可写方式创建并打开存储文件。在process_item中实现对item处理,包含将得到的item写入到json形式的输出文件中。


三. settings.py编写

对于setting文件,他作为配置文件,主要是至执行对spider的配置。一些容易被改变的配置参数可以放在spider类的编写中,而几乎在爬虫运行过程中不改变的参数在settings.py中进行配置。

# -*- coding:utf-8 -*-

BOT_NAME = 'CSDNBlog'

SPIDER_MODULES = ['CSDNBlog.spiders']
NEWSPIDER_MODULE = 'CSDNBlog.spiders'

#禁止cookies,防止被ban
COOKIES_ENABLED = False

ITEM_PIPELINES = {
    'CSDNBlog.pipelines.CsdnblogPipeline':300
}

# Crawl responsibly by identifying yourself (and your website) on the user-agent
#USER_AGENT = 'CSDNBlog (+http://www.yourdomain.com)'

这里将COOKIES_ENABLED参数置为True,使根据cookies判断访问的站点不能发现爬虫轨迹,防止被ban。

ITEM_PIPELINES类型为字典,用于设置启动的pipeline,其中key为定义的pipeline类,value为启动顺序,默认0-1000。


四. 爬虫编写

爬虫编写始终是重头戏。原理是分析网页得到“下一篇”的链接,并返回Request对象。进而继续爬取下一篇文章,直至没有。

上码:

#!/usr/bin/python
# -*- coding:utf-8 -*-

# from scrapy.contrib.spiders import  CrawlSpider,Rule

from scrapy.spider import Spider
from scrapy.http import Request
from scrapy.selector import Selector
from CSDNBlog.items import CsdnblogItem


class CSDNBlogSpider(Spider):
    """爬虫CSDNBlogSpider"""

    name = "CSDNBlog"

    #减慢爬取速度 为1s
    download_delay = 1
    allowed_domains = ["blog.csdn.net"]
    start_urls = [

        #第一篇文章地址
        "http://blog.csdn.net/u012150179/article/details/11749017"
    ]

    def parse(self, response):
        sel = Selector(response)

        #items = []
        #获得文章url和标题
        item = CsdnblogItem()

        article_url = str(response.url)
        article_name = sel.xpath('//div[@id="article_details"]/div/h1/span/a/text()').extract()

        item['article_name'] = [n.encode('utf-8') for n in article_name]
        item['article_url'] = article_url.encode('utf-8')

        yield item

        #获得下一篇文章的url
        urls = sel.xpath('//li[@class="next_article"]/a/@href').extract()
        for url in urls:
            print url
            url = "http://blog.csdn.net" + url
            print url
            yield Request(url, callback=self.parse)

慢慢分析:

(1)download_delay参数设置为1,将下载器下载下一个页面前的等待时间设置为1s,也是防止被ban的策略之一。主要是减轻服务器端负载。

(2)从response中抽取文章链接与文章题目,编码为utf-8。注意yield的使用。

(3)抽取“下一篇”的url,由于抽取后缺少http://blog.csdn.net部分,所以补充。两个print只为调试,无实际意义。重点在于

yield Request(url, callback=self.parse)

也就是将新获取的request返回给引擎,实现继续循环。也就实现了“自动下一网页的爬取”。


五. 执行

scrapy crawl CSDNBlog

部分存储数据截图:


原创,转载注明:http://blog.csdn.net/u012150179/article/details/34486677

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Scrapy研究探索(五)——自动多网页爬取(抓取某人博客所有文章) 的相关文章

随机推荐

  • Ubuntu20.04安装gazebo11报错

    在这记录下安装gazebo11的报错解决方案 xff0c 本人遇到问题的过程 xff1a 我在安装gazebo11后又卸载了全部相关的东西 xff0c 然后用命令sudo apt upgrade升级了下Ubuntu20 04里的一些东西 x
  • Linux上安装npm最新版

    首先 npm是随同NodeJS一起安装的包管理工具 基本信息 1 NPM Node Package Manager 即node包管理器 是用Javascript编写 最初由Isaac Z Schlueter开发 它会随着node js一起安
  • sphinx文档生成脚手架工具安装和使用

    1 sphinx的安装与使用 1 1 安装sphinx sphinx官方安装说明 xff1a Installing Sphinx Sphinx documentation readthedoc官方说明 xff1a Getting Start
  • 常用的PCB供电电路,电源芯片,看看有没有你需要的

    供电电路 xff0c 是PCB都要用到的 xff0c 是PCB的能量来源 电源芯片种类繁多 xff0c 供电方案各式各样 xff0c 在PCB设计中该怎样选择 xff0c 本文将详细描述 首先 xff0c 供电电路设计 xff0c 基本要考
  • px4固件源码分析(文件夹作用以及总体架构)

    px4固件源码分析 文件夹作用以及总体架构 总体概述总体构架代码分块总结分析 总体概述 px4是一个操作系统 xff0c 其中运行着很多程序 类比windows 比如我们十分感兴趣与关心的姿态解算 位置解算 姿态控制 位置控制等 每一个程序
  • 程序员生涯之生活篇

    作为一名非正规的程序员菜鸟 xff0c 我没有什么职场沉淀 xff0c 也没有开阔的视野 xff0c 只是读了几篇博文与时讯 xff0c 有所感触 xff0c 想要记录一下自己的想法与体会 xff0c 暂定为程序员生涯之生活篇 首先介绍一下
  • 大数据领域的Benchmark介绍

    一 Benchmark简介 Benchmark是一个评价方式 xff0c 在整个计算机领域有着长期的应用 正如维基百科上的解释 As computer architecture advanced it became more difficu
  • 关于ROS包中CMakeList.txt中几个常用的命令的作用 ——————(一)

    目录 xff08 1 xff09 find package catkin REQUIRED COMPONENTS 2 include directories 3 add executable src1 src2 xff08 简易写法 xff
  • 【Kubernetes系列】K8s更新镜像的几种方法

    目录 一 准备二 更新镜像1 方法一 xff1a 修改 yaml 文件版本号并执行2 方法二 xff1a 使用 set image3 方法三 xff1a 使用 patch 一 准备 以下以前端的服务为例 xff0c 前端 yaml 文件内容
  • Java中toString的使用

    在java中 xff0c 所有对象都有toString 这个方法 xff0c 因为它是Object里面已经有了的方法 xff0c 而所有类都是继承Object xff0c 所以 所有对象都有这个方法 它通常只是为了方便输出 xff0c 比如
  • Linux安装时至少划分哪两个分区才能正常安装使用

    根 xff08 boot xff09 分区和SWAP分区
  • C#界面动态布局 界面控件随着界面大小尺寸变化而变化

    要想写一个漂亮的界面 xff0c 光靠利用Anchor和Dock属性是远远不够的 xff0c 我们需要用到相对布局 xff0c 就是不管窗口大小怎么变化 xff0c 控件相对父控件的相对位置保持不变 可惜c 里没有提供按照百分比布局 所以只
  • 一个简单的Dockerfile

    一个简单的Dockerfile xff0c 如下 xff1a FROM golang span class token comment 基础镜像 span COPY print num go root span class token co
  • c++ 构造函数后面加冒号

    有四种情况下应该使用初始化表达式来初始化成员 xff1a 1 xff1a 初始化const成员 常量必须在构造函数的初始化列表中初始 xff0c 或将其设为static Wrong Class A const int size 61 0 R
  • PX4程序编译过程解析

    第一章 PX4程序编译过程解析 PX4是一款软硬件开源的项目 xff0c 目的在于学习和研究 其中也有比较好的编程习惯 xff0c 大家不妨可以学习一下国外牛人的编程习惯 这个项目是苏黎世联邦理工大学的一个实验室搞出来的 该方案是基于NUT
  • Git使用之——冲突解决一(git merge conflict)

    Git冲突是在多用户协同工作下出现 xff0c 在一些情况下Git可以智能自动合并 xff0c 但有时需要用户手动合并 xff08 本文链接 xff1a http blog csdn net u012150179 article detai
  • git fetch 的简单用法:更新远程代码到本地仓库

    Git中从远程的分支获取最新的版本到本地方式如下 xff0c 如何更新下载到代码到本地 xff0c 请参阅ice的博客基于Github参与eoe的开源项目指南 方式一 1 查看远程仓库 1 2 3 4 5 6 git remote v eo
  • 各类数值型数据间如何混合运算?

    整型 包括int xff0c short xff0c long 实型 包括float xff0c double 可以混合运算 前已述及 xff0c 字符型数据可以与整型通用 xff0c 因此 xff0c 整型 实型 字符型数据间可以混合运算
  • 整型与字符型相加

    想通过整型与字符型相加的到正确的整型数值 xff0c xff0c 见下面的程序 xff1a include lt stdio h gt void main int a 61 2 char c 61 39 3 39 int b 61 a 43
  • Scrapy研究探索(五)——自动多网页爬取(抓取某人博客所有文章)

    首先 xff0c 在教程 xff08 二 xff09 xff08 http blog csdn net u012150179 article details 32911511 xff09 中 xff0c 研究的是爬取单个网页的方法 在教程