• 批量找注入 python3+sqlmap结合


    注入一直都是用sqlmap  导致本来就不怎么精通的手工注入现在就忘的一干二净
    想实战练习  却一时又找不到有注入的网站   于是便有了这篇文章

    想找个批量获取域名链接的工具   但都是只是获取域名而已  都没获取后面的参数
    于是自己写了个
    只获取bing前10页的结果  输入q 结束循环 并开始整理数据

    #!/usr/bin/env python
    # -*- conding:utf-8 -*- 
    import re
    import urllib.request,urllib.parse
    
    logo = '''
      _______    ___     ___    _       
     |__   __|  / _    / _   | |      
        | |    | | | | | | | | | |  ___ 
        | |    | | | | | | | | | | / __|
        | |    | |_| | | |_| | | | \__ \
        |_|     \___/   \___/  |_| |___/
    
    '''
    print(logo)
    def Obtain_url(): #爬抓bing获取url
        page = ['', '&first=11&FORM=PERE', '&first=21&FORM=PERE1', '&first=31&FORM=PERE2',
                '&first=41&FORM=PERE3', '&first=51&FORM=PERE4', '&first=61&FORM=PERE5',
                '&first=71&FORM=PERE6', '&first=81&FORM=PERE7', '&first=91&FORM=PERE8']
        headers = {
            'User-Agent': r'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) '
                          r'Chrome/45.0.2454.85 Safari/537.36 115Browser/6.0.3',
            'Referer': r'http://www.baidu.com',
            'Connection': 'keep-alive'
        }
        while True:  #一直循环输入关键字
            crux = input('请输入关键字:')
            if crux == 'q':  #判断关键字是否为q 是就结束循环
                break
            crux = urllib.parse.quote(crux)   #解决编码报错问题
            with open('url.txt', 'a', encoding='utf-8') as f:
                for i in page:
                    content = urllib.request.Request('https://cn.bing.com/search?q='+crux+i,headers=headers)
                    contents = urllib.request.urlopen(content).read().decode('utf-8')
                    res = re.compile(r'<h2><a target="_blank" href="(.*?)"')
                    data = res.findall(contents)
                    for i in data:
                        print(i)
                        f.write(i+'
    ')
    
    def url():  #处理bing爬抓下来的链接
        url = []
        with open('url.txt','r',encoding='utf-8') as f:  #读取文件内容到列表里
            for i in f.readlines():
                url.append(i)
        data = list(set(url))  #去重url列表
        data = sorted(data)    #排列顺序
        with open('new_url.txt','a',encoding='utf-8') as f:  #判断url是否有.php? .asp? .aspx?
            for i in data:
                res = re.compile(r'.php?')
                datas = res.findall(i)
                if datas != []:
                    f.write(i)
                else:
                    res = re.compile(r'.asp?')
                    datas = res.findall(i)
                    if datas != []:
                        f.write(i)
                    else:
                        res = re.compile(r'.aspx?')
                        datas = res.findall(i)
                        if datas != []:
                            f.write(i)
    Obtain_url()
    url()
    


    输入q
    结束循环并开始处理数据

    url.txt 是爬抓的链接数据
    new_url.txt 是处理后的数据

    复制 new_url.txt 到sqlmap根目录

    sqlmap.py -m new_url.txt --batch --smart

    -m是用new_url.txt里面的链接批量注入  --batch自动选择  --smart快速注入

    注入的结果在C:UsersAdministrator.sqlmapoutput 文件下
    类似results-04242018_0624pm.csv的文件中

    算命縖子'blog http://www.cnblogs.com/smxiazi/
  • 相关阅读:
    CentOS7 安装rabbitmq
    CentOS 7安装和配置ssh
    日志备份脚本
    Dubbo配置优化
    MySQL Index Condition Pushdown(ICP) 优化
    Mysql 5.6 新特性(转载)
    Mysql 中bitwise对效率的影响??
    Linux 通过 load average 判断服务器负载情况
    VMware使用过程中出现了虚拟机繁忙问题
    Centos7设置开机启动界面:图形化or命令行
  • 原文地址:https://www.cnblogs.com/smxiazi/p/8954594.html
Copyright © 2020-2023  润新知