Asp.net程序调优之一

大型动态应用系统又可分为几个子系统:

Web前端系统

负载均衡系统

数据库集群系统

缓存系统

分布式存储系统

分布式服务器管理系统

代码分发系统

1

解决方法:

1 解决第一个问题 服务器解析aspx时间过长

下面我们就来看看服务端一般可能出现的性能瓶颈:

         内存不足

         缺乏缓存

         CPU压力

         处理请求线程问题

2 部署优化

2.1 Release方式编译项目

   如果我们的项目是用Project的方式建立的,也就是说:我们的站点包含在一个Solution解决方案中,那么在发布之前,编译项目的时候,采用release方式,这种方式会减少CPU的使用率。因为采用debug的方式发布,编译器会编译后的代码中加入很多的信息,如调试信息等。

 同时要注意修改web.config中

    <compilation debug="false">

3  声明站点的默认页面

    当我们请求一个站点的时候,如http://domain/folder,IIS会自动进行一些重定向到http://domain/folder/。同时,http.sys也不会把没有声明默认页面的站点的默认首页加入到内核的缓存中(可能说的有点的绕),例如,如果在程序中,我们设置站点的默认页面时Default.aspx,但是我们在部署到IIS的时候,没有配置Default.aspx就是站点的默认页面,那么这个页面的内容不会被http.sys缓存到内核中。所以为了避免IIS重定向和允许http.sys缓存页面,我们在IIS中要配置站点的默认页面(或者每次在浏览器中输入http://domain/folder/default.aspx,但是我们不能控制用户的行为,所以这招这几乎不可能)

4 提高SEO

不需要被搜索引擎请求的文件一般如下:

1.       图片资源

2.       Js脚本,css等

3.       一些需要身份验证或者授权才能看的页面(如果页面需要验证之后才能看,搜索引擎收录了也作用不大)

步骤如下:

1.       在站点的根目录下面,创建一个robots.txt的文件。

2.       写入文件。如果我们希望阻止所有的搜索引擎来爬我们的站点的页面,那么就可以在文件中写入下面的配置:

User-agent: *

Disallow: /

如果希望阻止搜索引擎爬某个文件夹,可以配置如下:

User-agent: *

Disallow: /images/

Disallow: /js/

Disallow: /css/

Disallow: /private/

更有趣的是:对于某些搜索引擎,我们还可以改变他们的蜘蛛程序爬我们站点的频率,设置如下:

User-agent: *

Crawl-delay: 10

5 使用验证码

以上摘自:

http://www.cnblogs.com/yanyangtian/archive/2011/02/09/1950299.html


 

原文地址:https://www.cnblogs.com/zjwei55/p/2169253.html