中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
用python編寫自動信息收集腳本(一)

本人只是python初學者,本文只適合初學者觀看學習。大佬請繞過(或者指出需要改進的地方)!

在日常滲透測試過程中我們都知道,在對目標進行滲透之前都是先要信息收集一波。收集到越多的信息往往滲透過程中越順利,所以信息收集格外重要。而信息收集往往費時間比較多,所以我們想寫一個自動信息收集的腳本,但是代碼量太大。本文就先從whois信息開始,代碼不好的地方。希望大家提出意見!


import requests
from lxml import etree
import csv
class xxsj(object):
    def __init__(self):
        self.header = {'User-Agent''Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36'}
    def whois(self):
        wz = input('請輸入您想信息收集的網(wǎng)站:')
        print('正在whois查詢',)
        url = 'https://whois.aizhan.com/' wz
        response = requests.get(url=urlheaders=self.header)
        selector = etree.HTML(response.content)
        title = selector.xpath('//td[@class='thead']/text()')
        yuming = selector.xpath('//td[2]//text()')
        a = len(title)
        for in range(0a - 1):
            title1 = title
            yuming1 = yuming
            self.write([title1yuming1])

    def write(self,lis):
        with open('信息收集.csv''a'newline=''as f:
            csw = csv.writer(f)
            csw.writerow(lis)


s=xxsj()
s.whois()

運行:


 


本站僅提供存儲服務,所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
如何使用Selenium IDE瀏覽器插件輕松完成腳本錄制,輕松搞定自動化測試!
Python大佬批量爬取中國院士信息,告訴你哪個地方人杰地靈
Python爬取大量數(shù)據(jù)時防止被封IP
Selenium Web元素定位方法
性能測試藝術
Python 爬蟲程序 PySpider 
更多類似文章 >>
生活服務
熱點新聞
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服