大型动态应用系统又可分为几个子系统:
Web前端系统
负载均衡系统
数据库集群系统
缓存系统
分布式存储系统
分布式服务器管理系统
代码分发系统
1
解决方法:
1 解决第一个问题 服务器解析aspx时间过长
下面我们就来看看服务端一般可能出现的性能瓶颈:
内存不足
缺乏缓存
CPU压力
处理请求线程问题
2 部署优化
2.1 Release方式编译项目
如果我们的项目是用Project的方式建立的,也就是说:我们的站点包含在一个Solution解决方案中,那么在发布之前,编译项目的时候,采用release方式,这种方式会减少CPU的使用率。因为采用debug的方式发布,编译器会编译后的代码中加入很多的信息,如调试信息等。
同时要注意修改web.config中
<compilation debug="false">
3 声明站点的默认页面
当我们请求一个站点的时候,如http://domain/folder,IIS会自动进行一些重定向到http://domain/folder/。同时,http.sys也不会把没有声明默认页面的站点的默认首页加入到内核的缓存中(可能说的有点的绕),例如,如果在程序中,我们设置站点的默认页面时Default.aspx,但是我们在部署到IIS的时候,没有配置Default.aspx就是站点的默认页面,那么这个页面的内容不会被http.sys缓存到内核中。所以为了避免IIS重定向和允许http.sys缓存页面,我们在IIS中要配置站点的默认页面(或者每次在浏览器中输入http://domain/folder/default.aspx,但是我们不能控制用户的行为,所以这招这几乎不可能)
4 提高SEO
不需要被搜索引擎请求的文件一般如下:
1. 图片资源
2. Js脚本,css等
3. 一些需要身份验证或者授权才能看的页面(如果页面需要验证之后才能看,搜索引擎收录了也作用不大)
步骤如下:
1. 在站点的根目录下面,创建一个robots.txt的文件。
2. 写入文件。如果我们希望阻止所有的搜索引擎来爬我们的站点的页面,那么就可以在文件中写入下面的配置:
User-agent: *
Disallow: /
如果希望阻止搜索引擎爬某个文件夹,可以配置如下:
User-agent: *
Disallow: /images/
Disallow: /js/
Disallow: /css/
Disallow: /private/
更有趣的是:对于某些搜索引擎,我们还可以改变他们的蜘蛛程序爬我们站点的频率,设置如下:
User-agent: *
Crawl-delay: 10
5 使用验证码
以上摘自:
http://www.cnblogs.com/yanyangtian/archive/2011/02/09/1950299.html