一种通过编码的反爬虫机制

2023-05-16

遇到一个反爬虫机制,该网页为gbk编码网页,但是请求参数中,部分请求使用gbk编码,部分请求使用utf8编码,还设置了一些不进行编码的安全字符,在爬取的过程中形成了阻碍。

提示:在认为参数设置正常,又无法正确爬取数据的情况下,通过response.requests.headers和esponse.requests.body与浏览器的请求数据的对比,会比较容易发现问题。

1.python的url编码函数

也有通用函数- decode(解码为unicode),encode(编码)

import requests  
from urllib.parse import urlencode  # 对整个字典进行编码
from requests.utils import quote,unquote  # 对字符串进行编码和解码
# 对整个字典进行编码,对于需要进行局部编码不太方便。
Signature:
urlencode(
    query,
    doseq=False,
    safe='',  # 不进行编码的字符串
    encoding=None,
    errors=None,
    quote_via=<function quote_plus at 0x0000027AB54DD678>,
)
Docstring:
Encode a dict or sequence of two-element tuples into a URL query string.

If any values in the query arg are sequences and doseq is true, each
sequence element is converted to a separate parameter.

If the query arg is a sequence of two-element tuples, the order of the
parameters in the output will match the order of parameters in the
input.

The components of a query arg may each be either a string or a bytes type.

The safe, encoding, and errors parameters are passed down to the function
specified by quote_via (encoding and errors only if a component is a str).
# 对字符串进行编码
Signature: requests.utils.quote(string, safe='/', encoding=None, errors=None)
Docstring:
quote('abc def') -> 'abc%20def'
# 对字符串进行解码
Signature: requests.utils.unquote(string, encoding='utf-8', errors='replace')
Docstring:
Replace %xx escapes by their single-character equivalent. The optional
encoding and errors parameters specify how to decode percent-encoded
sequences into Unicode characters, as accepted by the bytes.decode()
method.
By default, percent-encoded sequences are decoded with UTF-8, and invalid
sequences are replaced by a placeholder character.

unquote('abc%20def') -> 'abc def'.

2、模拟过程 - 以错误编码模式

这里还设置了一个安全符号,如果设置。"+"会进行编码。

# 如果错误的采用了网页编码进行访问
# 1. 请求数据
req1 = '+导出+++'
print('1.原始请求数据:',req1)
# 2. 自行编码以后发送出去的数据
req2 = quote(req1,encoding='gbk',safe='+')
print('2.浏览器编码后发出的数据:',req2)
# 3. 服务区接受的数据为req2,服务器会编码以后提交给后台
req3 = unquote(req2,encoding='gbk')
print('3.经服务器编码以后,后台接收到的数据:',req3)
# 4. 后台逆编码获取浏览器发送的原始数据
req4 = quote(req3,encoding='gbk',safe='+')
print('4.后台逆编码,重新得到浏览器发送的原始数据:',req4)
# 5. 后台再进行正确编码获取正确数据
req5 = unquote(req4,encoding='utf8')
print('5.后台逆编码,重新得到浏览器发送的原始数据,最终获取数据为乱码:',req5)

最后后台获取的数据是乱码,可以进行校准,如果是非正常编码数据则不进行处理。

1.原始请求数据: +导出+++
2.浏览器编码后发出的数据: +%B5%BC%B3%F6+++
3.经服务器编码以后,后台接收到的数据: +导出+++
4.后台逆编码,重新得到浏览器发送的原始数据: +%B5%BC%B3%F6+++
5.后台逆编码,重新得到浏览器发送的原始数据: +����+++

3、模拟过程-正确例子

# 1. 请求数据
req1 = '+导出+++'
print('1.原始请求数据:',req1)
# 2. 自行编码以后发送出去的数据
req2 = quote(req1,encoding='utf8',safe='+')
print('2.浏览器编码后发出的数据:',req2)
# 3. 服务区接受的数据为req2,服务器会编码以后提交给后台
req3 = unquote(req2,encoding='gbk')
print('3.经服务器编码以后,后台接收到的数据:',req3)
# 4. 后台逆编码获取浏览器发送的原始数据
req4 = quote(req3,encoding='gbk',safe='+')
print('4.后台逆编码,重新得到浏览器发送的原始数据:',req4)
# 5. 后台再进行正确编码获取正确数据
req5 = unquote(req4,encoding='utf8')
print('5.后台逆编码,重新得到浏览器发送的原始数据:',req5)
1.原始请求数据: +导出+++
2.浏览器编码后发出的数据: +%E5%AF%BC%E5%87%BA+++
3.经服务器编码以后,后台接收到的数据: +瀵煎嚭+++
4.后台逆编码,重新得到浏览器发送的原始数据: +%E5%AF%BC%E5%87%BA+++
5.后台逆编码,重新得到浏览器发送的原始数据: +导出+++
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

一种通过编码的反爬虫机制 的相关文章

  • C语言——鸡兔同笼问题

    include lt stdio h gt int main int a b c d printf 34 head 34 scanf 34 d 34 amp a printf 34 feet 请输入偶数 34 scanf 34 d 34 a
  • Python 通过爬虫获取网页内容时去掉某一标签内容

    以这篇文章https finance sina com cn money smjj smdt 2020 08 12 doc iivhvpwy0527268 shtml为例 xff0c 在抓取文章内容时 xff0c 不抓取 今日直播 的模块内
  • cas单点登录(5.2)-使用cas-overlay-template搭建cas服务器

    在开始之前先介绍一下CAS 官网地址 xff1a https www apereo org Github地址 https github com apereo cas 介绍 CAS是Central Authentication Service
  • 海康ISAPI使用相关

    海康ISAPI使用相关 海康SDK对运行环境有要求 xff0c 只支持x86系统 xff0c ARM或者单片机等无法使用 可以使用海康提供的ISAPI接口协议对设备进行操控 1 接口验证使用Digest Auth 2 使用设备ip地址 43
  • 计算机网络习题(IP地址分类及CIDR划分方法)

    计算机网络习题 xff08 IP地址分类及CIDR划分方法 xff09 题目描述 xff1a 已知地址块中的一个地址是140 120 84 24 20 xff08 1 xff09 求这个地址块中的最小地址和最大地址 xff08 2 xff0
  • centos7 nvidia-smi命令很慢

    nvidia smi命令很慢 xff0c 长时间才有输出 sudo usr bin nvidia persistenced verbose 设置开机自启动 chmod 43 x etc init d rc local vim etc ini
  • PX4代码解析:振动分析

    本篇文章首发于公众号 xff1a 无人机系统技术 更多无人机技术相关文章请关注此公众号 一 前言 前面的文章主要都是一些理论知识为主 xff0c 很多读者朋友看了之后可能会有点枯燥 xff0c 里面很多公式看起来也比较晦涩 xff0c 今天
  • 如何学习飞控

    本篇文章首发于公众号 xff1a 无人机系统技术 更多无人机技术相关文章请关注此公众号 xff0c 有问题也可在公众号底部添加个人微信进行交流 无人机涉及哪些工作 自开公众号以来 xff0c 陆续有不少关注者提问怎么去学习无人机技术 xff
  • Python3中.pyd文件介绍

    pyd文件是用Python编写生成的动态链接库 xff0c 包含一个或多个Python modules xff0c 可以被其它Python代码调用 以下是 pyd的生成及调用测试 xff1a 通过conda创建虚拟环境Python Test
  • PX4姿态控制算法详解

    本篇文章首发于公众号 xff1a 无人机系统技术 更多无人机技术相关文章请关注此公众号 xff0c 有问题也可在公众号回复 加群 进入技术交流群进行交流 倾转分离 今天的内容我们来解析开源飞控软件PX4中关于多旋翼飞行器的姿态控制算法 首先
  • 我为什么不挣钱也要写公众号

    本篇文章首发于公众号 xff1a 无人机系统技术 更多无人机技术相关文章请关注此公众号 xff0c 有问题也可在公众号回复 加群 进入技术交流群进行交流 自开无人机系统技术这个公众号以来已经有半年之久了 xff0c 我是在今年一月份开的公众
  • 开源飞控PX4姿态控制代码解析

    本篇文章首发于公众号 xff1a 无人机系统技术 更多无人机技术相关文章请关注此公众号 xff0c 有问题也可在公众号回复 加群 进入技术交流群进行交流 本公众号将于9月11号联合电子工业出版社送出15本价值98元的 多旋翼飞行器设计与控制
  • 位置控制器PX4代码解析(文中有福利!!!)

    号外号外 xff01 xff01 xff01 本公众号将联合电子工业出版社于9月11号送出15本价值98元的全权老师著作 多旋翼飞行器设计与控制 xff0c 关注本公众号的朋友均可参加 xff0c 敬请期待 还没关注的朋友赶紧关注吧 xff
  • 多旋翼无人机的控制分配

    本文最先发表于公众号 xff1a 无人机系统技术 公众号回复 加群 进入无人机技术交流群交流 公众号回复 多旋翼 获取国际顶尖团队科研成果 公众号回复 控制分配 获取控制分配相关论文 引言 本文内容主要阐述控制分配在多旋翼无人机上的使用方法
  • 无人机

    引言 本文最先发表于公众号 xff1a 无人机系统技术 公众号回复 加群 进入技术交流群进行交流 公众号回复 多旋翼 获取国际顶尖团队科研成果 公众号回复 控制分配 获取控制分配相关论文 从今年初开始写公众号也有一段时间了 xff0c 不知
  • 顺丰旗下丰鸟无人机高薪诚聘海内外英才

    公司简介 丰鸟无人机 xff08 顺丰无人机 xff09 成立于2017年 xff0c 是顺丰集团旗下大型无人机技术和服务提供商 xff0c 致力于运用智能航空技术 xff0c 提供高效物流服务 通过自主研发和对外合作 xff0c 打造业载
  • 无人机研发什么?

    更多无人机知识请关注公众号 xff1a 无人机系统技术 xff0c 北航博士为你解析全面的无人机系统知识 无人机是一个很复杂的系统 xff0c 有点类似于我们平常使用的手机 xff0c 都是软件和硬件的结合体 xff0c 手机上面需要各种芯
  • PX4算法解析:L1制导律

    一 前沿 更多无人机知识请关注公众号 xff1a 无人机系统技术 xff0c 北航博士为你解析全面的无人机系统知识 从今天开始 xff0c 会陆续为大家解读开源飞控软件px4中使用到的各种算法 xff0c 今天要讲述的是L1制导律 xff0
  • PX4算法:L1制导律(二)

    一 前沿 上一篇文章中我们对L1制导律做了一个比较详细的解释 xff0c 但没有对PX4软件中的算法和理论进行对应 xff0c 好多读者看了之后还是云里雾里 xff0c 在后台提问的也有不少 今天我们就来具体介绍一下PX4中的L1参数和制导

随机推荐

  • instant-ngp中run.py的使用

    在https blog csdn net fengbingchun article details 129642774 中对instant ngp进行了简单介绍 xff0c 这里简单介绍下如何使用其中的run py 1 若能运行run py
  • MAVROS PX4

    最近在做视觉识别的项目 xff0c 视觉开发的工作在NVIDIA的JETSON TX2板卡上完成 xff0c 也可以用ODROID xff0c 这个视情况而定 xff0c 而视觉识别后的结果要传输给飞控 xff0c 因为在TX2上面跑的是R
  • sudo apt-get install –y

    ubuntu系统下安装软件时总会提示你是否安装 xff0c 你要输入yes才会继续安装 xff0c 下面这个指令可以帮助你省略这个步骤 xff0c 只需要简单的在后面加一个 y即可 sudo apt get install y y xff1
  • PX4开发环境搭建

    前言 更多无人机知识可关注公众号 xff1a 无人机系统技术 北航博士为你解析全面的无人机系统知识 很多朋友在搭建PX4开发环境的时候都会出现一些环境配置的问题 xff0c 今天笔者就来总结一下ubuntu系统下搭建PX4开发环境的过程 想
  • Linux(Ubuntu)系统如何安装Python

    Linux 系统是为编程而生的 xff0c 因此绝大多数的 Linux 发行版 xff08 Ubuntu CentOS 等 xff09 都默认自带了 Python 有的 Linux 发行版甚至还会自带两个版本的 Python xff0c 例
  • Python抓取数据如何设置爬虫ip

    在写爬虫爬取github数据的时候 xff0c 国内的ip不是非常稳定 xff0c 在测试的时候容易down掉 xff0c 因此需要设置爬虫ip 本片就如何在Python爬虫中设置爬虫ip展开介绍 也可以爬取外网 爬虫编写 需求 做一个通用
  • PHP爬虫框架盘点

    大数据分析必定少不了数据抓取 xff0c 只有拥有海量的数据才能对数据进行对比分析 因此 xff0c 网页爬虫是作为程序员必须要懂得技能 xff0c 下文我将通过文字形式记录下php的爬虫框架的一些内容 Goutte Goutte库非常有用
  • 反爬虫常见策略总结

    有爬虫就有反爬虫 xff0c 这都是相辅相成的 xff0c 对于长时期从事在爬虫行业的技术员来说 xff0c 时刻要了解对应网站的反爬机制 xff0c 才能稳定获取数据 下面就是我这几年接触过的反爬的一些案例 xff0c 供大家参考下 反爬
  • Python网络爬虫进阶扩展

    学习爬虫不是一天就能学会的 xff0c 得循序渐进的慢慢学透了 xff0c 才能更好的做爬虫相关的工作 下面的爬虫有关的有些知识点肯定要学会 1 如何使scrapy爬取信息不打印在命令窗口中 通常 xff0c 我们使用这条命令运行自己的sc
  • 爬虫之数据库存储

    在对于爬取数量数量较少时 xff0c 我们可以将爬虫数据保存于CSV文件或者其他格式的文件中 xff0c 既简单又方便 xff0c 但是如果需要存储的数据量大 xff0c 又要频繁访问这些数据时 xff0c 就应该考虑将数据保存到数据库中了
  • 关于Python爬虫的一些总结

    作为一名资深的爬虫工程师来说 xff0c 把别人公开的一些合法数据通过爬虫手段实现汇总收集是一件很有成就的事情 xff0c 其实这只是一种技术 初始爬虫 问题 xff1a 什么是爬虫 xff1f 网络爬虫是一种按照一定的规则 xff0c 自
  • 3D文件格式之OBJ介绍

    在 instant ngp 中使用NeRF时 xff0c 保存的mesh可指定为obj 这里对obj文件格式进行说明 OBJ文件 obj 包含有关3D对象的几何体的信息 OBJ文件可以支持无限的颜色 unlimited colors xff
  • Python爬虫知识回顾

    之前一直沉溺于java xff0c jsp xff0c ssh xff0c db等爬虫 xff0c 现在又要开始走python的老路了 常用的requests库 xff0c 通过requests对象的get方法 xff0c 获取一个resp
  • Python 编程必不可少的unittest测试框架

    一段表面看起来平平无常的代码 xff0c 很可能暗藏很多bug无法一眼看透 xff0c 没有经过测试的代码是不可靠的代码 上一篇讲过pytest测试框架这次我们换个框架 unittest 是一个单元测试框架 xff0c 单元测试完成对一个模
  • Python爬虫之读取数据库中的数据

    之前几篇我们一直在研究如何从网站上快速 方便的获取数据 xff0c 并将获取到的数据存储在数据库中 但是将数据存储在数据中并不是我们的目的 xff0c 获取和存储数据的目的是为了更好的利用这些数据 xff0c 利用这些数据的前提首先需要从数
  • Python爬虫之多线程加快爬取速度

    之前我们学习了动态翻页我们实现了网页的动态的分页 xff0c 此时我们可以爬取所有的公开信息了 xff0c 经过几十个小时的不懈努力 xff0c 一共获取了 16万 43 条数据 xff0c 但是软件的效率实在是有点低了 xff0c 看了下
  • Python与c语言的区别与联系

    Python与c语言都是一种机器学习语言 xff0c 进过长时间的学习和总结 xff0c 我将Python与c语言的一些特点总结成以下几点 xff0c 不全面还望多多指正 1 因为C语言是编译型语言 xff0c python是解释型语言 x
  • 关于Python爬虫使用技巧

    首先 xff0c Python是一种非常流行的编程语言 xff0c 拥有广泛的应用领域 xff0c 例如数据分析 人工智能 Web开发等 如果您是初学者 xff0c 可以开始学习基础的语法和概念 xff0c 例如变量 数据类型 循环 函数等
  • selenium爬取异步加载的网站

    为了便利化使用selenium驱动浏览器进行操作 xff0c 遇到一个网页 xff0c 大部分内容都是通过xhr请求后再通过前端js处理显示 xff0c 带来的一个问题就是 xff0c 采用显示等待无法准确的定位到需要的节点 因此 xff0
  • 一种通过编码的反爬虫机制

    遇到一个反爬虫机制 xff0c 该网页为gbk编码网页 xff0c 但是请求参数中 xff0c 部分请求使用gbk编码 xff0c 部分请求使用utf8编码 xff0c 还设置了一些不进行编码的安全字符 xff0c 在爬取的过程中形成了阻碍