文档章节

google开源web安全扫描工具skipfish简介

rasine的杂货铺
 rasine的杂货铺
发布于 2015/06/17 02:46
字数 1018
阅读 7892
收藏 191

1、简介

Skipfish是一个积极的Web应用程序的安全性侦察工具。 它准备了一个互动为目标的网站的站点地图进行一个递归爬网和基于字典的探头。 然后,将得到的地图是带注释的与许多活性(但希望非破坏性的)安全检查的输出。 最终报告工具生成的是,作为一个专业的网络应用程序安全评估的基础。

http://zone.wooyun.org/content/2628

2、项目

https://github.com/spinkham/skipfish

http://code.google.com/p/skipfish/

3、安装部署

    a、安装所需软件库:

yum install pcre-devel openssl-devel libidn-devel libidn2-devel

    b、下载源码skipfish

#https://github.com/spinkham/skipfishhttp://code.google.com/p/skipfish/)获取源码

#解压,源码文件如下:

    c、编译

make

生成的可执行文件如下:

    d、安装部署成功

4、使用

//编译完成,在目录中生成skipfish可执行程序
cp dictionaries/complete.wl skipfish.wl
//拷贝其中一个字典,用来扫描

 ./skipfish -o data http://www.baidu.com

//其中data是输出目录,扫描结束后可打开data目录下的index.html查看扫描结果


5、相关参数

skipfish web application scanner - version 2.10b
Usage: /home/admin/workspace/skipfish/skipfish [ options ... ] -W wordlist -o output_dir start_url [ start_url2 ... ]
 
Authentication and access options:
验证和访问选项:

 
  -A user:pass      - use specified HTTP authentication credentials
                      使用特定的http验证
  -F host=IP        - pretend that 'host' resolves to 'IP'
  -C name=val       - append a custom cookie to all requests
                      对所有请求添加一个自定的cookie
  -H name=val       - append a custom HTTP header to all requests
                      对所有请求添加一个自定的http请求头
  -b (i|f|p)        - use headers consistent with MSIE / Firefox / iPhone
                      伪装成IE/FIREFOX/IPHONE的浏览器
  -N                - do not accept any new cookies
                      不允许新的cookies
  --auth-form url   - form authentication URL
  --auth-user user  - form authentication user
  --auth-pass pass  - form authentication password
  --auth-verify-url -  URL for in-session detection
 
Crawl scope options:
 
  -d max_depth     - maximum crawl tree depth (16)最大抓取深度
  -c max_child     - maximum children to index per node (512)最大抓取节点
  -x max_desc      - maximum descendants to index per branch (8192)每个索引分支抓取后代数
  -r r_limit       - max total number of requests to send (100000000)最大请求数量
  -p crawl%        - node and link crawl probability (100%) 节点连接抓取几率
  -q hex           - repeat probabilistic scan with given seed
  -I string        - only follow URLs matching 'string' URL必须匹配字符串
  -X string        - exclude URLs matching 'string' URL排除字符串
  -K string        - do not fuzz parameters named 'string'
  -D domain        - crawl cross-site links to another domain 跨域扫描
  -B domain        - trust, but do not crawl, another domain
  -Z               - do not descend into 5xx locations 5xx错误时不再抓取
  -O               - do not submit any forms 不尝试提交表单
  -P               - do not parse HTML, etc, to find new links 不解析HTML查找连接
 
Reporting options:
 
  -o dir          - write output to specified directory (required)
  -M              - log warnings about mixed content / non-SSL passwords
  -E              - log all HTTP/1.0 / HTTP/1.1 caching intent mismatches
  -U              - log all external URLs and e-mails seen
  -Q              - completely suppress duplicate nodes in reports
  -u              - be quiet, disable realtime progress stats
  -v              - enable runtime logging (to stderr)
 
Dictionary management options:
 
  -W wordlist     - use a specified read-write wordlist (required)
  -S wordlist     - load a supplemental read-only wordlist
  -L              - do not auto-learn new keywords for the site
  -Y              - do not fuzz extensions in directory brute-force
  -R age          - purge words hit more than 'age' scans ago
  -T name=val     - add new form auto-fill rule
  -G max_guess    - maximum number of keyword guesses to keep (256)
 
  -z sigfile      - load signatures from this file
 
Performance settings:
 
  -g max_conn     - max simultaneous TCP connections, global (40) 最大全局TCP链接
  -m host_conn    - max simultaneous connections, per target IP (10) 最大链接/目标IP
  -f max_fail     - max number of consecutive HTTP errors (100) 最大http错误
  -t req_tmout    - total request response timeout (20 s) 请求超时时间
  -w rw_tmout     - individual network I/O timeout (10 s) 
  -i idle_tmout   - timeout on idle HTTP connections (10 s)
  -s s_limit      - response size limit (400000 B) 限制大小
  -e              - do not keep binary responses for reporting 不报告二进制响应
 
Other settings:
 
  -l max_req      - max requests per second (0.000000)
  -k duration     - stop scanning after the given duration h:m:s
  --config file   - load the specified configuration file


© 著作权归作者所有

rasine的杂货铺
粉丝 5
博文 24
码字总数 14856
作品 0
武汉
程序员
私信 提问
加载中

评论(6)

rasine的杂货铺
rasine的杂货铺 博主

引用来自“萝卜Robert”的评论

OK
rasine的杂货铺
rasine的杂货铺 博主

引用来自“许雷神”的评论

不能安装在windows上。。。。。
可以再windows上使用,但是似乎要安装Cygwin,我之前都是在linux上使用的,windows上没有试过·····
rasine的杂货铺
rasine的杂货铺 博主

引用来自“init5”的评论

这几年前的啊
是的这是一个Google出的比较老的一款工具,似乎到12年就没怎么更新了,但是感觉还是比较实用的一款工具,做下简单的安全扫描还是可以的。
厦门萝卜
厦门萝卜
OK
许雷神
许雷神
不能安装在windows上。。。。。
init5
init5
这几年前的啊
Google发布免费网络安全扫描工具Skipfish

Google公司于周五发布了一款称为“Skipfish”的自动Web安全扫描程序,以降低用户的在线安全威胁。 Google工程师迈克尔‧扎勒维斯基(Michal Zalewski)称,尽管Skipfish与Nikto和Nessus等其他...

红薯
2010/03/20
1K
0
网络安全扫描工具--Skipfish

Google公司发布了一款称为“Skipfish”的自动Web安全扫描程序,以降低用户的在线安全威胁。 Google工程师迈克尔‧扎勒维斯基(Michal Zalewski)称,尽管Skipfish与Nikto和Nessus等其他开源扫...

匿名
2010/03/20
9.8K
0
Skipfish 2.03b 发布,Web安全检测工具

skipfish是Google推出的一款免费、开源、Web应用程序安全检测工具。skipfish主要特点:扫描速度快、易于使用、尖端的安全逻辑。 目前skipfish更新至2.03b版,新版本主要改变如下: Fixed a mi...

红薯
2011/08/08
548
0
Skipfish 2.01b 发布,Web 安全检测工具

skipfish是Google推出的一款免费、开源、Web应用程序安全检测工具。 skipfish主要特点: 扫描速度快 易于使用 尖端的安全逻辑 目前skipfish更新至2.01b版,新版本主要改变如下: Substantial ...

红薯
2011/07/05
606
1
Skipfish 1.76Beta 发布,网络安全扫描

该版本主要是修复了一些bug,在稳定性方面有所提升,增加了更多的安全扫描工具。 下载地址:skipfish-1.76b.tgz Skipfish 是 Google公司发布的一款自动Web安全扫描程序,用以降低用户的在线安...

红薯
2010/11/21
418
1

没有更多内容

加载失败,请刷新页面

加载更多

领域驱动中的“贫血症和失忆症” --实践领域驱动--原文

贫血症严重危害着人类健康,并且伴随有危险的副作用。当贫血领域对象被首次提出来时,它并不是一个博得赞美的词汇,它描述的是一个缺少内在行为领域对象。奇怪的是,人们对于贫血领域对象的态...

还仙
28分钟前
5
0
条码打印软件中标签预览正常打印无反应怎么解决

在使用条码打印软件制作标签时,有客户反馈,标签打印预览正常的,但是打印无反应,咨询是怎么回事?今天针对这个情况,可以参考以下方法进行解决。 一、预览正常情况下,打印没反应 (1)在条码...

中琅软件
37分钟前
5
0
判断字符串的时候

判断字符串的时候一定把常量房前边, //报警程度 String leve = vo.getDeviceAlertDeal().getWarnLevel(); if(("0").equals(leve)) { row.add("无报警"); }else if(("1").equals(leve)) { ro......

简小姐
38分钟前
7
0
Linux maven3.6.2 install

PS:安装 maven 之前请先安装 jdk 1.安装 wget 命令(安装过就不用了) yum -y install wget 2.寻找需要的 maven 版本 https://maven.apache.org/download.cgi 3.进入 /var/local 文件夹 cd...

东方神祇
40分钟前
5
0
Tomcat源码分析二:先看看Tomcat的整体架构

Tomcat源码分析二:先看看Tomcat的整体架构 Tomcat架构图 我们先来看一张比较经典的Tomcat架构图: 从这张图中,我们可以看出Tomcat中含有Server、Service、Connector、Container等组件,接下...

flygrk
43分钟前
6
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部