使用colloide扫描网站后台

概述

在渗透测试的时候我们通常要找一个网站的后台,但是有时候网站的后台并不是特别好找,比如我们学校的那个垃圾网站,今天用到的工具叫colloide,它是一款利用字典扫描后台的工具

使用

首先clone下来
git clone https://github.com/MichaelDim02/colloide.git

root@kali:~/colloide# ls
LICENSE  README  colloide.py  links.txt

里面有上面四个文件当然主要的文件就是colloide.py,links.txt就是字典文件

运行一下

root@kali:~/colloide# python colloide.py 
_________        .__  .__         .__    .___     
\_   ___ \  ____ |  | |  |   ____ |__| __| _/____  
/    \  \/ /  _ \|  | |  |  /  _ \|  |/ __ |/ __ \ 
\     \___(  <_> )  |_|  |_(  <_> )  / /_/ \  ___/
 \______  /\____/|____/____/\____/|__\____ |\___  >
        \/                                \/    \/ 
Colloide v 0.6
Michael C. Dimopoulos 2017
www.greekhacking.gr


    -h  --help   Display the help panel (Shown right now)
    -u --URL     The URL to the website
    -p --pages   Path to the wordlist with the page names / links
    -l --legals  License & legal disclaimer
    -s --save    Save pages on a text file (name of the file)
    -L --limit   Add limit to the pages (Integer)


Usage: python colloide.py -u [URL] -p [WORDLIST] -s [TEXT FILE] -L [NUMBER]

-u用来指定扫描地址,-p指定字典,其他的看上面
最常用的就是下面这样
python colloide.py -u www.example.com -p links.txt
其实说实在的这个脚本不是特别好
看它里面的这段代码

try:
                response = urlopen(req)
            except HTTPError as e:
                continue
            except URLError as e:
                continue 
            else: #prints working link
                print("[+] Link Found -> " + req_link)
                found = found + 1
                if txt:
                    f = open(str(tfilename) ,'a')
                    f.write(req_link + "\n")
                else:
                    pass

因为如果我只要在服务器端设置一个404页面,让每一个你扫描到的页面都不会报出httperror就可以了,这样你的每一个字典中的链接都是可以找到的,所以这个脚本就没什么用了

欢迎关注Bboysoul的博客www.bboysoul.com
Have Fun

上一篇:【Linux&Unix】使用nohup让程序永远后台运行


下一篇:做 一个 sns 的项目 考虑 使用 GWT 做 前台 后台 spring hibernate 如何 ?