• Apache 配置文件详解


    0x01 禁止目录列表访问

    (1) 备份httpd.conf配置文件,修改内容:
    <Directory "/web"> 
        Options FollowSymLinks 
        AllowOverride None
        Order allow,deny
        Allow from all
    </Directory>
    将Options Indexes FollowSymLinks 中的Indexes 去掉,就可以禁止 Apache  显示该目录结构。 
    (2)设置 Apache 的默认页面:
    <IfModule dir_module> 
          DirectoryIndex index.html 
    </IfModule> 
    其中index.html即为默认页面,可根据情况改为其它文件,部分服务器需要在目录下新建空白的index.htm才能生效。
    (3)重新启动 Apache 服务

    0x02 禁止用户访问设置

    可以通过修改Apache配置文件httpd.conf来实现禁止列出目录/文件列表,方法如下 【apache配置禁止访问】 1. 禁止访问某些文件/目录 增加Files选项来控制,比如要不允许访问 .inc 扩展名的文件,保护php类库:
    <Files ~ ".inc$"> 
    Order allow,deny 
    Deny from all 
    </Files> 
    禁止访问某些指定的目录:(可以用 <DirectoryMatch>   来进行正则匹配) 
    <Directory ~ "^/var/www/(.+/)*[0-9]{3}"> 
    Order allow,deny 
    Deny from all 
    </Directory> 
    通过文件匹配来进行禁止,比如禁止所有针对图片的访问: 
    <FilesMatch .(?i:gif|jpe?g|png)$> 
    Order allow,deny 
    Deny from all 
    </FilesMatch> 
    针对URL相对路径的禁止访问: 
    <Location /dir/> 
    Order allow,deny 
    Deny from all 
    </Location> 
    针对代理方式禁止对某些目标的访问(<ProxyMatch> 可以用来正则匹配),比如拒绝通过代理访问cnn.com: 
    <Proxy http://cnn.com/*> 
    Order allow,deny 
    Deny from all 
    </Proxy> 
    2. 禁止某些IP访问/只允许某些IP访问 
    如果要控制禁止某些非法IP访问,在Directory选项控制: 
    <Directory "/var/www/web/"> 
    Order allow,deny 
    Allow from all 
    Deny from 10.0.0.1 #阻止一个IP 
    Deny from 192.168.0.0/24 #阻止一个IP段 
    </Directory> 
    只允许某些IP访问,适合比如就允许内部或者合作公司访问: 
    <Directory "/var/www/web/"> 
    Order deny,allow 
    Deny from all 
    All from example.com #允许某个域名 
    All from 10.0.0.1 #允许一个iP 
    All from 10.0.0.1 10.0.0.2 #允许多个iP 
    Allow from 10.1.0.0/255.255.0.0 #允许一个IP段,掩码对 
    All from 10.0.1 192.168 #允许一个IP段,后面不填写 
    All from 192.168.0.0/24 #允许一个IP段,网络号 
    </Directory> 
    Apache:解决办法; 
    <Directory "/home/domain/public_html"> 
    Options -Indexes FollowSymLinks 
    AllowOverride All 
    <Files ~ ".txt"> 
    Order allow,deny 
    Deny from all 
    </Files> 
    </Directory>
  • 相关阅读:
    selenium模拟浏览器进行百度搜索
    爬虫出现Forbidden by robots.txt
    Scrapy和Headless Chrome采集动态网站数据
    爬虫框架Scrapy的安装与基本使用
    Python Selenium库的使用
    拦截器HandlerInterceptorAdapter使用方法
    Python多进程并发(multiprocessing)
    Oracle自定义DES3加解密
    Springboot手动添加quartz-jobs
    python 发送邮件接口
  • 原文地址:https://www.cnblogs.com/xiaozi/p/7268705.html
Copyright © 2020-2023  润新知