自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 解决window防火墙无法开启问题

打开防火墙页面显示0x6D9,我个人收集的解决方法

2025-03-05 12:52:32 849

原创 某直聘zp_stoken纯算法还原

N初始值为空数组,首先需要获取获取cookie前四位head,通过c函数计算得到5位数组推入N,同理通过c函数和参数seek计算得到50位数组推入N,然后对i即为ts处理后进行计算,继续得到55位数组。在ts和seed的运用上大概是这样,后续计算还有很多步骤比较繁琐,后面还需要传入环境数组,如果是补环境过的话,可以先抓一下那个数组看看自己补的环境过不过。传入rl,继续计算得到56位数组,最好t函数会对获得的56位N数组进行重新计算。1.zp_stoken的计算函数有一个会每天变化。

2024-11-24 17:22:26 547 2

原创 boss 直聘__zp_stoken__ 部分风控解决

最近搞了个boss纯算,解除混淆后发现有个环境数组会随每天动态返回的js动态变化。虽然写死也能获取数据但是却有,成功率随请求次数降低的情况,就猜测环境数组应该记录了部分浏览器指纹。

2024-11-24 01:28:17 492 1

原创 过tls ja3浏览器指纹方法总结

根据tls校验程度从小到大排序,总结了过tls指纹的方法,方法有些新的有些旧的

2024-09-27 01:02:52 1580

原创 Error错误堆栈重写

Error在 JavaScript 逆向工程中,错误堆栈信息(stack)是一个重要的调试工具。然而,某些反调试技术可能会利用堆栈信息来检测是否存在调试器或篡改行为。为了绕过这些检测,我们可以自定义Error对象,修改其堆栈信息,使其看起来像是正常的执行流程。ErrorError在 JavaScript 逆向工程中,自定义Error对象是一种有效的绕过反调试技术的方法。通过继承和重写Error对象,我们可以修改堆栈信息,使其看起来像是正常的执行流程,从而避免被检测到调试或篡改行为。

2024-09-19 17:23:19 1063

原创 python 豆瓣滑块验证码 js逆向(附源码)

在爬虫领域,豆瓣通常被视为入门项目,因其相对友好的反爬机制和丰富的数据资源,吸引了众多初学者。然而,即使是入门项目,豆瓣也设置了一定的挑战,其中滑块验证码便是常见的一道门槛。验证码虽然难度不高,但是确是学习验证码逆向的好例子。本次我将采用js逆向+PIL(Python Imaging Library)的方法过验证码本次目标验证码是豆瓣的登录界面的滑块。

2024-09-19 00:56:37 1585

原创 Python还原Proto数据小案例

Protocol Buffers(简称Proto)是Google开发的一种轻量级、高效的序列化数据结构,类似于XML和JSON,但更加紧凑和快速。Proto使用二进制格式进行数据编码,因此数据体积小,解析速度快。Proto数据通常由.proto文件定义,这些文件描述了数据的结构。通过这些定义文件,我们可以生成不同编程语言的代码,用于序列化和反序列化数据。假设我们有一个简单的.proto这个文件定义了一个Person消息,包含nameage和hobbies三个字段。

2024-09-16 21:51:07 768

原创 使用KNN算法破解字体反爬虫

字体反爬虫是一种通过自定义字体文件来隐藏网页中真实信息的反爬虫技术。例如,网页中的数字“12345”可能会被替换为自定义字体中的“ABCDE”,而爬虫直接抓取到的内容是“ABCDE”,而不是真实的“12345”。为了获取到真实的信息,我们需要识别出这些自定义字体,并将其映射回真实的数字或文字。K近邻算法(K-Nearest Neighbors, KNN)是一种简单且有效的分类算法。

2024-09-16 21:43:16 698

原创 使用AST还原JavaScript控制流平坦化

使用AST还原JavaScript控制流平坦化,通过解析代码生成AST,识别主循环和状态变量,重建控制流并生成还原后的代码,提高逆向分析效率

2024-09-12 13:00:00 935

原创 瑞数 6vmp 补环境 js逆向

现在许多gov网站都上了最新的瑞数6vmp,而vmp如果采用传统的扣代码方法难度是不小的。所以我决定采用补环境的方法过,虽然补环境框架那种一力破万法的方式很强,但是我还是决定用node+代理的方式,所以今天发一点纯补js过瑞数vmp的文章以供大家学习参考。学习目标网站。

2024-09-12 00:48:49 2895

原创 瑞数6vmp补环境400个人解决

解决遇到的补环境返回400问题的一点个人见解

2024-08-30 22:28:17 1910

原创 瑞数6vmp后缀获取流程个人记录

瑞数vmp后缀获取流程

2024-08-22 21:11:26 1408 3

原创 瑞数6VMP补环境检测点(2024-8-20)

补环境过瑞数vmp cookie 记录

2024-08-20 10:47:09 1266

douban 豆瓣滑块验证码js逆向,过豆瓣滑块内有py和js,可运行,不是seleinum

本资源提供了一个完整的解决方案,帮助你通过豆瓣的滑块验证码。采用nodejs+pil+Python的方案,不是seleinum,不是seleinum。资源内含详细的代码注释和操作步骤,即使是初学者也能轻松上手。使用 PIL 和 OpenCV 进行图像处理,提升识别成功率,代码可直接运行。

2024-09-19

testab 某程、携程纯算,发布时可运行 ,js逆向

`testab` 是携程(Ctrip)网站或移动应用中使用的一种加密参数,主要用于确保请求的安全性和合法性。它可能包含用户身份验证信息、数据加密以及防止重放攻击等功能。加密方式通常基于对称加密(如AES)、非对称加密(如RSA)或哈希算法(如SHA-256)。在用户登录、支付请求和API调用等场景中,`testab` 参数用于加密敏感信息,确保数据传输的安全性,防止信息被窃取或篡改。通过这种方式,携程能够有效保护用户隐私和交易安全。

2024-09-13

控制流平坦化还原示例代码,采用ast技术

控制流平坦化(Control Flow Flattening)是一种常见的代码混淆技术,旨在通过打乱程序的控制流结构,使其难以理解和分析。在这种技术中,程序的正常控制流(如条件分支、循环等)被替换为一种平坦化的结构,通常是通过一个主循环和一个状态变量来控制程序的执行路径。 还原控制流平坦化的过程通常包括以下几个步骤: 1. **识别主循环**:首先,需要识别出程序中的主循环,这是控制流平坦化的核心结构。主循环通常会包含多个条件分支,这些分支决定了程序的执行路径。 2. **分析状态变量**:接下来,需要分析主循环中的状态变量。状态变量通常用于控制程序的执行路径,通过改变状态变量的值,程序会在不同的分支之间跳转。 3. **重建控制流**:在识别出主循环和状态变量后,可以通过分析状态变量的变化和条件分支的逻辑,逐步重建程序的原始控制流结构。这通常涉及到将平坦化的控制流转换回正常的条件分支、循环等结构。 4. **优化代码**:最后,可以对还原后的代码进行优化,去除不必要的变量和冗余代码,使其更易于理解和维护。 还原控制流平坦化的过程需要对程序的控制流有深入的理解,并且可能需要

2024-09-12

自用爬虫案例,可供参考

该代码是一个用于定时抓取水质监测数据的脚本,使用 Python 中的 `requests` 库来发送 POST 请求,并通过 `lxml` 解析 HTML 内容。它将抓取到的数据保存到 Excel 文件中,并使用 `apscheduler` 实现定时任务。 ### 简介 1. **模块与代理设置**: - 使用 `requests` 库发送 HTTP 请求,通过设置 `proxies_clash` 代理访问受限制的网站。 - 使用 `lxml.etree` 解析 HTML,`openpyxl` 用于将数据保存为 Excel 文件。 2. **数据抓取功能 (`timedTask` 方法)**: - 初始化 Excel 工作簿,并创建一个包含相关水质指标的表头。 - 循环遍历多个页面,向目标网址发送请求以获取实时水质数据。 - 解析返回的 JSON 数据并提取各项指标信息,如水温、PH 值、溶解氧等。 - 将提取的数据逐行写入 Excel 文件,最后保存为带时间戳的文件名。 3. **定时任务调度**: - 使用 `apscheduler

2024-09-10

scrapy案例,我自己写的一个小案例

这个代码是一个使用 Scrapy 框架编写的网页爬虫,目标是从宁波财经学院的一个新闻网页上抓取文章的标题、链接、作者、时间以及文章的简要内容。以下是该爬虫的工作原理 ### 简介 1. **类和导入模块**: - 使用了 `scrapy` 框架和 `BeautifulSoup` 库来处理网页内容。 - 导入了 `MyprojectItem` 用于存储抓取的数据。 2. **定义爬虫类**: - 类名为 `MySpider`,继承自 `scrapy.Spider`。 - 设置 `name` 为 `'myspider'`,用来标识该爬虫。 - 设置 `start_urls`,生成要抓取的初始 URL 列表,范围为 1 到 5 页。 3. **数据提取 (`parse` 方法)**: - 使用 XPath 表达式从网页提取文章的标题、详细链接、作者、和发布时间。 - 对于每个提取的文章,发送一个新的请求来抓取详细页面。 4. **详细页面解析 (`parse_detail_xkl` 方法)**: - 使用 `BeautifulS

2024-09-10

瑞数6补环境,学习版本不保证时效性

瑞数6补环境,学习版本不保证时效性,需要的自行下载,内包含js文件和py文件,需要现行版本可以看看我的其他文章

2024-09-01

某监局补环境资源,用的代理的方法补的环境,内包含js 和 案例文件

某监局补环境资源,用的代理的方法补的环境,内包含js 和 案例文件,之前的版本不保证有限,仅仅作为参考

2024-09-01

韭研参数简单逆向包含js 和案例py文件

逆向韭研参数,这个是之前的版本,不保证现在有效,可作为参考

2024-09-01

药监局请求头headers sign python 还原

药监局请求头有sign检测,扣完代码后,用python简单还原了一下,我测试的链接为https://www.nmpa.gov.cn/datasearch/search-result.html

2024-08-30

node js过无限debugger 代码参考

过无限debugger反调试代码参考,请按照情况进行修改

2024-08-30

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除