fofa爬取ip

from bs4 import BeautifulSoup
import requests
from time import sleep
import re
headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36',
    'cookie': 'Hm_lvt_9490413c5eebdadf757c2be2c816aedf=1615862900,1617079059,1617094775,1617155303; befor_router=%2F; refresh_token=eyJhbGciOiJIUzUxMiIsImtpZCI6Ik5XWTVZakF4TVRkalltSTJNRFZsWXpRM05EWXdaakF3TURVMlkyWTNZemd3TUdRd1pUTmpZUT09IiwidHlwIjoiSldUIn0.eyJpZCI6NTI3NTIsIm1pZCI6MTAwMDM1MTM0LCJ1c2VybmFtZSI6Iueul-WRveWFiOeUnyIsImV4cCI6MTYyMDQ1NTIyMywiaXNzIjoicmVmcmVzaCJ9.ZYWH7dIHc0Y24SiW1VVyUMB0gtycZ4phARHhfwDfiEMnvATm3Cpz0O8AxQ3h4qQ3Fas_g1C0PLH76hFZBXAS3Q; fofa_token=eyJhbGciOiJIUzUxMiIsImtpZCI6Ik5XWTVZakF4TVRkalltSTJNRFZsWXpRM05EWXdaakF3TURVMlkyWTNZemd3TUdRd1pUTmpZUT09IiwidHlwIjoiSldUIn0.eyJpZCI6NTI3NTIsIm1pZCI6MTAwMDM1MTM0LCJ1c2VybmFtZSI6Iueul-WRveWFiOeUnyIsImV4cCI6MTYyMDMwODI0NS44OTE4NjcsImlzcyI6InJlZnJlc2gifQ.kLiBXlPSagIAj8Cnxjol1aMAUAlrYFpuOjWXVfGCf_KR83gU_l57P7xLWuT1vmyZkNFRzFLqdUrkzAFqBtmrhQ; Hm_lvt_b5514a35664fd4ac6a893a1e56956c97=1620209412,1620209827,1620228731,1620264999; user=%7B%22id%22%3A52752%2C%22mid%22%3A100035134%2C%22is_admin%22%3Afalse%2C%22username%22%3A%22%E7%AE%97%E5%91%BD%E5%85%88%E7%94%9F%22%2C%22nickname%22%3A%22%22%2C%22email%22%3A%22fortune_teller%40foxmail.com%22%2C%22avatar_medium%22%3A%22https%3A%2F%2Fnosec.org%2Fmissing.jpg%22%2C%22avatar_thumb%22%3A%22https%3A%2F%2Fnosec.org%2Fmissing.jpg%22%2C%22key%22%3A%22%22%2C%22rank_name%22%3A%22%E9%AB%98%E7%BA%A7%E4%BC%9A%E5%91%98%22%2C%22rank_level%22%3A2%2C%22company_name%22%3A%22%22%2C%22coins%22%3A0%2C%22credits%22%3A14695%2C%22expiration%22%3A%22-%22%2C%22login_at%22%3A0%7D; Hm_lpvt_b5514a35664fd4ac6a893a1e56956c97=1620265424',
    'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9'
}
def file_put(str):
    with open("ip.txt","a") as f:
        f.write(str)
def spider_link(url):
    comment = requests.get(url,headers=headers)
    soup = BeautifulSoup(comment.text,'lxml')
    r = soup.find_all('a',attrs={'target':'_blank'})
    #ip爬取
    a = re.compile(r'target="_blank">(.*)<i class="iconfont iconlink"></i></a>')
    for item in r:
        item = str(item)
        if re.findall(a,item):
            ip = re.findall(a, item)[0]
            sleep(2)
            print(ip)
            file_put(ip + "\n")
    #超链接爬取
    # for eachone in r:
    #     link = eachone['href']
    #     print(link)
    #     sleep(1)
    #     file_put(link + "\n")
for i in range(50):
    spider_link("https://fofa.so/result?qbase64=Y291bnRyeT0iVVMi&page="+ str(i) +"&page_size=10")

在这里插入图片描述
在这里插入图片描述
可以成功写入txt文件中,只需要更改cookie即可,这里有个问题就是页数多会丢失数据,之后再修改吧,先做个记录。

Python爬取FOFA数据的示例代码中的each_dic['ip'] = each[0] 表示将FOFA数据中每个元素的第一个值赋值给字典 each_dic 的 'ip' 键。 在使用 Python 爬取 FOFA 数据时,我们通常会通过编写代码来获取所需的数据,并存储成一个字典。在每次获取到一个数据元素时,我们可以使用列表的下标索引来访问相应的值。 例如,假设我们从 FOFA爬取到了一组数据,其中每个元素是一个列表,列表中的第一个值表示 IP 地址。我们使用 each[0] 这样的索引来获取每个元素的第一个值。 接下来,我们可以将每个元素的第一个值赋值给字典 each_dic 中的 'ip' 键。这样,每次获取到的 IP 地址就会被存储到字典 each_dic 中,以便后续的处理和使用。 示例代码如下: ```python # 导入所需的库 import requests # 设置请求头 headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} # 发送请求 response = requests.get('http://www.example.com', headers=headers) # 解析数据 data = response.json() # 创建字典 each_dic = {} # 遍历每个数据元素 for each in data: # 将每个元素的第一个值赋值给 'ip' 键 each_dic['ip'] = each[0] # 进行后续的处理和使用 # ... ``` 以上代码是一个简单的示例,演示了如何使用 Python 爬取 FOFA 数据,并将其中的每个元素的第一个值赋值给字典的 'ip' 键。实际使用中,可能还需要进行其他数据处理和存储操作。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值