批量找注入 python3+sqlmap结合
生活随笔
收集整理的這篇文章主要介紹了
批量找注入 python3+sqlmap结合
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
注入一直都是用sqlmap??導(dǎo)致本來就不怎么精通的手工注入現(xiàn)在就忘的一干二凈
想實戰(zhàn)練習(xí)??卻一時又找不到有注入的網(wǎng)站? ?于是便有了這篇文章
想找個批量獲取域名鏈接的工具? ?但都是只是獲取域名而已??都沒獲取后面的參數(shù)
于是自己寫了個
只獲取bing前10頁的結(jié)果??輸入q 結(jié)束循環(huán) 并開始整理數(shù)據(jù)
?
#!/usr/bin/env python # -*- conding:utf-8 -*- import re import urllib.request,urllib.parselogo = '''_______ ___ ___ _ |__ __| / _ \ / _ \ | | | | | | | | | | | | | | ___ | | | | | | | | | | | | / __|| | | |_| | | |_| | | | \__ \\|_| \___/ \___/ |_| |___/''' print(logo) def Obtain_url(): #爬抓bing獲取urlpage = ['', '&first=11&FORM=PERE', '&first=21&FORM=PERE1', '&first=31&FORM=PERE2','&first=41&FORM=PERE3', '&first=51&FORM=PERE4', '&first=61&FORM=PERE5','&first=71&FORM=PERE6', '&first=81&FORM=PERE7', '&first=91&FORM=PERE8']headers = {'User-Agent': r'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) 'r'Chrome/45.0.2454.85 Safari/537.36 115Browser/6.0.3','Referer': r'http://www.baidu.com','Connection': 'keep-alive'}while True: #一直循環(huán)輸入關(guān)鍵字crux = input('請輸入關(guān)鍵字:')if crux == 'q': #判斷關(guān)鍵字是否為q 是就結(jié)束循環(huán)breakcrux = urllib.parse.quote(crux) #解決編碼報錯問題with open('url.txt', 'a', encoding='utf-8') as f:for i in page:content = urllib.request.Request('https://cn.bing.com/search?q='+crux+i,headers=headers)contents = urllib.request.urlopen(content).read().decode('utf-8')res = re.compile(r'<h2><a target="_blank" href="(.*?)"')data = res.findall(contents)for i in data:print(i)f.write(i+'\n')def url(): #處理bing爬抓下來的鏈接url = []with open('url.txt','r',encoding='utf-8') as f: #讀取文件內(nèi)容到列表里for i in f.readlines():url.append(i)data = list(set(url)) #去重url列表data = sorted(data) #排列順序with open('new_url.txt','a',encoding='utf-8') as f: #判斷url是否有.php? .asp? .aspx?for i in data:res = re.compile(r'\.php\?')datas = res.findall(i)if datas != []:f.write(i)else:res = re.compile(r'\.asp\?')datas = res.findall(i)if datas != []:f.write(i)else:res = re.compile(r'\.aspx\?')datas = res.findall(i)if datas != []:f.write(i) Obtain_url() url()?
?
輸入q
結(jié)束循環(huán)并開始處理數(shù)據(jù)
url.txt 是爬抓的鏈接數(shù)據(jù)
new_url.txt 是處理后的數(shù)據(jù)
復(fù)制 new_url.txt 到sqlmap根目錄
-m是用new_url.txt里面的鏈接批量注入??--batch自動選擇??--smart快速注入
?
注入的結(jié)果在C:\Users\Administrator\.sqlmap\output 文件下
類似results-04242018_0624pm.csv的文件中
?
轉(zhuǎn)載于:https://www.cnblogs.com/smxiazi/p/8954594.html
創(chuàng)作挑戰(zhàn)賽新人創(chuàng)作獎勵來咯,堅持創(chuàng)作打卡瓜分現(xiàn)金大獎總結(jié)
以上是生活随笔為你收集整理的批量找注入 python3+sqlmap结合的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【文件处理】——Python panda
- 下一篇: [转] 如何轻松愉快地理解条件随机场(C