• htaccess文件,强大的功能


    1. 運用.htaccess 樹立自定義的出錯頁面。對付Linux Apache來講這是一項極其簡單的事情。運用上面的.htaccess語法你可以輕松的實現這一服從。(把.htaccess放在你的web根目次下)

    ErrorDocument 401 /error/401.php
    ErrorDocument 403 /error/403.php
    ErrorDocument 404 /error/404.php
    ErrorDocument 500 /error/500.php

    2. 設置裝備擺設web的時區

    SetEnv TZ America/Houston

    3. 阻止IP列表
    有些時分,你必要以IP所在的法子阻止一些訪問。無論是關于一個IP所在還是一個網段,這都是一件尤其簡單的事宜,下列所示:

    allow from all
    deny from 145.186.14.122
    deny from 124.15

    Apache對付被回絕的IP會前去403差遲。

    4. 把一些老的鏈接轉到新的鏈接上——seoSEO

    Redirect 301 /d/file.html http://www.htaccesselite.com/r/file.html

    5. 爲辦事器企圖員設置電子郵件。

    ServerSignature EMail
    SetEnv SERVER_ADMIN default@domain.com

    6. 運用.htaccess 訪止盜鏈。假定你web上的一個圖片被别的N多的站點引用了,那麽,這頗有或許會招緻你效能器的性能降落,應用下面的代碼可以關愛某些熱點的鏈接不被過多的引用。

    Options +FollowSymlinks
    # Protect Hotlinking
    RewriteEngine On
    RewriteCond %{HTTP_REFERER} !^$
    RewriteCond %{HTTP_REFERER} !^http://(www.)?domainname.com/ [nc]
    RewriteRule .*.(gif|jpg|png)$ http://domainname.com/img/hotlink_f_o.png [nc]

    7. 制止 User Agent 的所有乞請

    ## .htaccess Code :: BEGIN
    ## Block Bad Bots by user-Agent
    SetEnvIfNoCase user-Agent ^FrontPage [NC,OR]
    SetEnvIfNoCase user-Agent ^Java.* [NC,OR]
    SetEnvIfNoCase user-Agent ^Microsoft.URL [NC,OR]
    SetEnvIfNoCase user-Agent ^MSFrontPage [NC,OR]
    SetEnvIfNoCase user-Agent ^Offline.Explorer [NC,OR]
    SetEnvIfNoCase user-Agent ^[Ww]eb[Bb]andit [NC,OR]
    SetEnvIfNoCase user-Agent ^Zeus [NC]

    Order Allow,Deny
    Allow from all
    Deny from env=bad_bot

    ## .htaccess Code :: END

    8. 把某些特殊的IP地址的乞求重定向到另外站點

    ErrorDocument 403 http://www.youdomain.com
    Order deny,allow
    Deny from all
    Allow from 124.34.48.165
    Allow from 102.54.68.123

    9. 直接找開文件而不是下載 – 通常,咱們翻開網上文件的時刻老是會泛起一個對話框問我們是下載仍是直接打開,應用下面的設置就不會出現這個題目了,直接打開。

    AddType application/octet-stream .pdf
    AddType application/octet-stream .zip
    AddType application/octet-stream .mov

  • 相关阅读:
    Android自动化测试探索(三)Android SDK tools安装、aapt配置以及使用aapt获取apk包名
    城市要素库时空分析项目启动
    在Python3.5下安装和测试Scrapy爬网站
    快速制作规则及获取规则提取器API
    为采集动态网页安装和测试Python Selenium库
    为编写网络爬虫程序安装Python3.5
    【04】基础:将采集结果转成Excel
    【03】基础:同种网页结构套用采集规则
    【02】基础:单页采集(以微博博主主页采集为例)
    【01】基础:集搜客爬虫软件安装
  • 原文地址:https://www.cnblogs.com/waimaole/p/3015076.html
Copyright © 2020-2023  润新知