Python爬虫需要哪些基础

2023-05-16

Python爬虫是指使用Python语言编写程序,自动化地访问Web页面并抓取其中的信息。以下是Python爬虫的基础知识:

爬虫的工作原理:爬虫程序通过网络请求获取Web页面的HTML源码,然后使用正则表达式或解析器提取所需要的信息。

常用的爬虫库:Python中常用的爬虫库包括requests、BeautifulSoup、Scrapy等。

爬虫的流程:爬虫一般分为请求、解析和存储三个步骤。首先发送请求获取HTML源码,然后解析HTML源码,提取所需信息并存储到文件或数据库中。

爬虫的注意事项:爬虫需要遵守网站的规则,不能过度访问网站,否则可能会被封IP或者遭到其他惩罚。在编写爬虫时需要注意代码的可读性和可维护性。

爬虫的应用:爬虫可以用于数据分析、舆情监测、搜索引擎优化、数据挖掘等领域,甚至可以用于自动化测试等方面。

以上是Python爬虫的基础知识,如果要深入学习Python爬虫,需要掌握更多的技术和工具。

Note:

一:简单爬虫的基本步骤

1、爬虫的前奏:
    (1)明确目的
    (2)找到数据对应的网页
    (3)分析网页的结构,找到数据的位置

2、爬虫第二步:__fetch_content方法
    模拟HTTP请求,向服务器发送这个请求,获取服务器返回给我们的Html
    用正则表达式提取我们要的数据

3、爬虫第三步:__analysis
    (1)找到一个定位标签或者是标识符,利用正则表达式找到需要的内容:
    它的选择原则是:
    唯一原则、就近原则、选择父级闭合标签
    (2)再找到的内容中进一步提取需要的数据,可能多次提取

4、精炼提取到的数据
    利用lambda表达式替换for循环

5、处理精炼后的数据

6、显示处理后的数据

二、程序规范
    1.注释
    2.空行的利用
    3.函数大小10-204.写平级方法并用主方法调用,避免多级嵌套方法!

四、补充
    beautiful Soup, scrapy爬虫框架
    爬虫、反爬虫、反反爬虫
    ip 被封  代理IP
    
五、总结
    (1)加强对正则表达式的练习
    (2)加强对lambda表达式的练习!
    (3)锻炼面向对象的思维模式

Code:

 1 """
 2 this module is used to spider data!
 3 """
 4 
 5 from urllib import request
 6 import re
 7 # 代替print的断点调试方法,特别重要!!!
 8 
 9 
10 class Spider:
11     """
12     this class is used to spider data!
13     """
14     url = 'https://www.panda.tv/cate/hearthstone'
15     root_pattern = '<div class="video-info">([\s\S]*?)</div>'     # 非贪婪模式
16     name_pattern = '</i>([\s\S]*?)</span>'
17     number_pattern = '<span class="video-number">([\s\S]*?)</span>'
18 
19     def __fetch_content(self):
20         """
21             this class is used to spider data!
22         """
23 
24         r = request.urlopen(self.url)   # 提取到html
25         html_s = r.read()
26         html = str(html_s, encoding='utf-8')
27 
28         return html
29 
30     def __analysis(self, html):
31         root_html = re.findall(self.root_pattern, html)     # list
32         # print(root_html[0])   # 第一次匹配的结果
33 
34         anchors =[]
35         for html in root_html:
36             name = re.findall(self.name_pattern, html)
37             number = re.findall(self.number_pattern, html)
38             anchor = {'name': name, 'number': number}
39             anchors.append(anchor)
40         # print(anchors[0])
41 
42         return anchors
43 
44     @staticmethod
45     def __refine(anchors):
46         i = lambda anchor: {'name': anchor['name'][0].strip(),  # 列表后面只有一个元素
47                             'number': anchor['number'][0].strip()
48                             }
49         return map(i, anchors)
50 
51     def __sort(self, anchors):      # 业务处理
52         anchors = sorted(anchors, key=self.__sort_seek, reverse=True)
53         return anchors
54 
55     @staticmethod
56     def __sort_seek(anchors):
57         r = re.findall('\d*', anchors['number'])
58         number = float(r[0])
59         if '万' in anchors['number']:
60             number *= 10000
61 
62         return number
63 
64     @staticmethod
65     def __show(anchors):
66         # for anchor in anchors:
67             # print(anchor['name'] + '-----' + anchor['number'])
68         for rank in range(0, len(anchors)):
69             print('rank' + str(rank + 1)
70                   + ' : ' + anchors[rank]['name']
71                   + '   ' + anchors[rank]['number'])
72 
73     def go(self):                           # 主方法(平级的函数)
74         html = self.__fetch_content()       # 获取到文本
75         anchors = self.__analysis(html)     # 分析数据
76         anchors = self.__refine(anchors)    # 精炼数据
77         # print(list(anchors))
78         anchor = self.__sort(anchors)
79         self.__show(anchor)
80 
81 
82 spider = Spider()
83 spider.go()
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Python爬虫需要哪些基础 的相关文章

  • PX4算法解析:L1制导律

    一 前沿 更多无人机知识请关注公众号 xff1a 无人机系统技术 xff0c 北航博士为你解析全面的无人机系统知识 从今天开始 xff0c 会陆续为大家解读开源飞控软件px4中使用到的各种算法 xff0c 今天要讲述的是L1制导律 xff0
  • PX4算法:L1制导律(二)

    一 前沿 上一篇文章中我们对L1制导律做了一个比较详细的解释 xff0c 但没有对PX4软件中的算法和理论进行对应 xff0c 好多读者看了之后还是云里雾里 xff0c 在后台提问的也有不少 今天我们就来具体介绍一下PX4中的L1参数和制导
  • instant-ngp中run.py的使用

    在https blog csdn net fengbingchun article details 129642774 中对instant ngp进行了简单介绍 xff0c 这里简单介绍下如何使用其中的run py 1 若能运行run py
  • MAVROS PX4

    最近在做视觉识别的项目 xff0c 视觉开发的工作在NVIDIA的JETSON TX2板卡上完成 xff0c 也可以用ODROID xff0c 这个视情况而定 xff0c 而视觉识别后的结果要传输给飞控 xff0c 因为在TX2上面跑的是R
  • sudo apt-get install –y

    ubuntu系统下安装软件时总会提示你是否安装 xff0c 你要输入yes才会继续安装 xff0c 下面这个指令可以帮助你省略这个步骤 xff0c 只需要简单的在后面加一个 y即可 sudo apt get install y y xff1
  • PX4开发环境搭建

    前言 更多无人机知识可关注公众号 xff1a 无人机系统技术 北航博士为你解析全面的无人机系统知识 很多朋友在搭建PX4开发环境的时候都会出现一些环境配置的问题 xff0c 今天笔者就来总结一下ubuntu系统下搭建PX4开发环境的过程 想
  • Linux(Ubuntu)系统如何安装Python

    Linux 系统是为编程而生的 xff0c 因此绝大多数的 Linux 发行版 xff08 Ubuntu CentOS 等 xff09 都默认自带了 Python 有的 Linux 发行版甚至还会自带两个版本的 Python xff0c 例
  • Python抓取数据如何设置爬虫ip

    在写爬虫爬取github数据的时候 xff0c 国内的ip不是非常稳定 xff0c 在测试的时候容易down掉 xff0c 因此需要设置爬虫ip 本片就如何在Python爬虫中设置爬虫ip展开介绍 也可以爬取外网 爬虫编写 需求 做一个通用
  • PHP爬虫框架盘点

    大数据分析必定少不了数据抓取 xff0c 只有拥有海量的数据才能对数据进行对比分析 因此 xff0c 网页爬虫是作为程序员必须要懂得技能 xff0c 下文我将通过文字形式记录下php的爬虫框架的一些内容 Goutte Goutte库非常有用
  • 反爬虫常见策略总结

    有爬虫就有反爬虫 xff0c 这都是相辅相成的 xff0c 对于长时期从事在爬虫行业的技术员来说 xff0c 时刻要了解对应网站的反爬机制 xff0c 才能稳定获取数据 下面就是我这几年接触过的反爬的一些案例 xff0c 供大家参考下 反爬
  • Python网络爬虫进阶扩展

    学习爬虫不是一天就能学会的 xff0c 得循序渐进的慢慢学透了 xff0c 才能更好的做爬虫相关的工作 下面的爬虫有关的有些知识点肯定要学会 1 如何使scrapy爬取信息不打印在命令窗口中 通常 xff0c 我们使用这条命令运行自己的sc
  • 爬虫之数据库存储

    在对于爬取数量数量较少时 xff0c 我们可以将爬虫数据保存于CSV文件或者其他格式的文件中 xff0c 既简单又方便 xff0c 但是如果需要存储的数据量大 xff0c 又要频繁访问这些数据时 xff0c 就应该考虑将数据保存到数据库中了
  • 关于Python爬虫的一些总结

    作为一名资深的爬虫工程师来说 xff0c 把别人公开的一些合法数据通过爬虫手段实现汇总收集是一件很有成就的事情 xff0c 其实这只是一种技术 初始爬虫 问题 xff1a 什么是爬虫 xff1f 网络爬虫是一种按照一定的规则 xff0c 自
  • 3D文件格式之OBJ介绍

    在 instant ngp 中使用NeRF时 xff0c 保存的mesh可指定为obj 这里对obj文件格式进行说明 OBJ文件 obj 包含有关3D对象的几何体的信息 OBJ文件可以支持无限的颜色 unlimited colors xff
  • Python爬虫知识回顾

    之前一直沉溺于java xff0c jsp xff0c ssh xff0c db等爬虫 xff0c 现在又要开始走python的老路了 常用的requests库 xff0c 通过requests对象的get方法 xff0c 获取一个resp
  • Python 编程必不可少的unittest测试框架

    一段表面看起来平平无常的代码 xff0c 很可能暗藏很多bug无法一眼看透 xff0c 没有经过测试的代码是不可靠的代码 上一篇讲过pytest测试框架这次我们换个框架 unittest 是一个单元测试框架 xff0c 单元测试完成对一个模
  • Python爬虫之读取数据库中的数据

    之前几篇我们一直在研究如何从网站上快速 方便的获取数据 xff0c 并将获取到的数据存储在数据库中 但是将数据存储在数据中并不是我们的目的 xff0c 获取和存储数据的目的是为了更好的利用这些数据 xff0c 利用这些数据的前提首先需要从数
  • Python爬虫之多线程加快爬取速度

    之前我们学习了动态翻页我们实现了网页的动态的分页 xff0c 此时我们可以爬取所有的公开信息了 xff0c 经过几十个小时的不懈努力 xff0c 一共获取了 16万 43 条数据 xff0c 但是软件的效率实在是有点低了 xff0c 看了下
  • Python与c语言的区别与联系

    Python与c语言都是一种机器学习语言 xff0c 进过长时间的学习和总结 xff0c 我将Python与c语言的一些特点总结成以下几点 xff0c 不全面还望多多指正 1 因为C语言是编译型语言 xff0c python是解释型语言 x
  • 关于Python爬虫使用技巧

    首先 xff0c Python是一种非常流行的编程语言 xff0c 拥有广泛的应用领域 xff0c 例如数据分析 人工智能 Web开发等 如果您是初学者 xff0c 可以开始学习基础的语法和概念 xff0c 例如变量 数据类型 循环 函数等

随机推荐

  • selenium爬取异步加载的网站

    为了便利化使用selenium驱动浏览器进行操作 xff0c 遇到一个网页 xff0c 大部分内容都是通过xhr请求后再通过前端js处理显示 xff0c 带来的一个问题就是 xff0c 采用显示等待无法准确的定位到需要的节点 因此 xff0
  • 一种通过编码的反爬虫机制

    遇到一个反爬虫机制 xff0c 该网页为gbk编码网页 xff0c 但是请求参数中 xff0c 部分请求使用gbk编码 xff0c 部分请求使用utf8编码 xff0c 还设置了一些不进行编码的安全字符 xff0c 在爬取的过程中形成了阻碍
  • python常见问题总结

    对于长期深耕在python爬虫的程序员来说 xff0c 如何快速解决代码中的问题它是作为合格的程序员应该具备的基本素质 下面将我总结整理出有关python的一些常见问题记录下来方便后期查证 Python python 没有多态 xff0c
  • 爬虫为什么需要多线程

    多线程爬虫是一种同时运行多个线程来提高爬取速度的爬虫方式 通过将大量的工作分配给不同的线程 xff0c 可以减少爬虫的运行时间 xff0c 提高效率 不过需要注意的是 xff0c 在爬取过程中需要合理的管理线程数 xff0c 以避免对被爬取
  • 相机的内参和外参介绍

    注 xff1a 以下相机内参与外参介绍除来自网络整理外全部来自于 视觉SLAM十四讲从理论到实践 第2版 中的第5讲 xff1a 相机与图像 xff0c 为了方便查看 xff0c 我将每节合并到了一幅图像中 相机与摄像机区别 xff1a 相
  • padans关于数据处理的杂谈

    情况 xff1a 业务数据基本字段会有如下 xff1a Index span class token punctuation span span class token punctuation span span class token s
  • Go程序开发快速入门

    当进行Go程序开发时 xff0c 需要注意以下几点 xff1a 1 代码可读性 xff1a 尽可能使用有意义的变量名和注释 xff0c 确保代码易于理解和维护 2 错误处理 xff1a Go语言有很好的错误处理机制 xff0c 应该合理地处
  • 关于python爬虫解析的问题

    在进行Python爬虫解析时 xff0c 需要注意以下事项 xff1a 1 良好的网站使用协议 xff1a 需要遵守网站的robots txt文件 xff0c 以确保你的爬虫程序不会将网站拦截下来 2 编码问题 xff1a 需要正确设置HT
  • 爬虫利器:jsDOM

    需求 xff1a 之前使用node做爬虫的时候 xff0c 使用puppeteer来模拟浏览器 xff0c 然后抓取信息 xff0c 但是这样的效率和消耗太大了 xff0c 所以需要一种更为效率的方法 xff1a 直接使用axios来请求对
  • UUID与Python线程同步方式

    UUID是如何保证唯一性 高可靠 xff0c 32位16进制数 xff0c 32 4 61 128位二进制数 xff0c UUID4重复概率1 2 128 xff0c 加上时间戳应该好点 xff0c UUID1好点 UUID Version
  • 利用Python操作Mysql数据库

    我们在进行Python编程的时候 xff0c 时常要将一些数据保存起来 xff0c 其中最方便的莫过于保存在文本文件了 但是如果保存的文件太大 xff0c 用文本文件就不太现实了 xff0c 毕竟打开都是个问题 xff0c 这个时候我们需要
  • Python爬虫基础之一

    Python爬虫基础包括HTTP协议 HTML CSS和JavaScript语言基础 requests库的使用 Beautiful Soup库的使用 xpath和正则表达式的使用等 此外 xff0c 还应该了解反爬虫机制和爬虫的一些常见问题
  • Python爬虫基础之二

    Python爬虫基础包括HTTP协议 HTML CSS和JavaScript语言基础 requests库的使用 Beautiful Soup库的使用 xpath和正则表达式的使用等 此外 xff0c 还应该了解反爬虫机制和爬虫的一些常见问题
  • Python爬虫基础之三

    Python爬虫基础包括HTTP协议 HTML CSS和JavaScript语言基础 requests库的使用 Beautiful Soup库的使用 xpath和正则表达式的使用等 此外 xff0c 还应该了解反爬虫机制和爬虫的一些常见问题
  • 最容易上手的爬虫项目

    今天和大家分享一个爬取项目 xff0c 那就是爬取自己博客的项目 1 确定爬取的目标 开始之前我们需要确定一个爬取的目标 xff0c 从我自己博客的首页进入 在这个例子里面我们要写一个爬虫将我的的文章列表拉出来 xff0c 保存在一个JSO
  • OpenCV中的相机标定

    之前在https blog csdn net fengbingchun article details 130039337 中介绍了相机的内参和外参 xff0c 这里通过OpenCV中的接口实现对内参和外参的求解 估计相机参数的过程称为相机
  • 应用scrapy爬虫框架

    Scrapy是一个基于Python的开源网络爬虫框架 xff0c 它可以帮助我们快速 高效地抓取网页数据 xff0c 并支持数据的自动化处理 存储和导出 Scrapy提供了丰富的扩展机制 xff0c 可以轻松地实现各种自定义需求 Scrap
  • 爬虫为什么需要ip

    爬虫需要使用爬虫ip主要是为了解决以下问题 xff1a 1 反爬虫机制 xff1a 许多网站会设置反爬虫机制来防止爬虫程序的访问 xff0c 例如限制IP地址的访问频率 检测访问来源等 使用爬虫ip可以绕过这些限制 xff0c 使得爬虫程序
  • scrapy 爬虫中间件的学习

    Scrapy中间件是一个处理Scrapy请求和响应的机制 中间件可以在请求或响应被Scrapy引擎处理之前或之后对其进行修改或操作 xff0c 用于实现诸如缓存 代理 用户代理等功能 Scrapy中间件的作用主要有以下几个方面 xff1a
  • Python爬虫需要哪些基础

    Python爬虫是指使用Python语言编写程序 xff0c 自动化地访问Web页面并抓取其中的信息 以下是Python爬虫的基础知识 xff1a 爬虫的工作原理 xff1a 爬虫程序通过网络请求获取Web页面的HTML源码 xff0c 然