1、首先登陆网站的FTP,然后找到以"log"结尾的文件,我的是虚拟主机,虚拟主机一般都是“wwwlog”,然后打开这个软件。。
2、在网站日志列表中,找到你想查看的日志日期,然后右击下载到本地。。
3、然后打开日志分析工具,在日志分析工具中点击“选择文件”打开刚刚下载的日志。。
4、打开日志文件之后,找到”点击分析“,然后就会显示日志分析后的结果,可以看到有哪些搜索引擎蜘蛛爬行了网站。。
5、点击蜘蛛分析中的”目录抓取“,查看搜索引擎蜘蛛都抓取了网站的哪些页面。。
6、找到状态码分析中的”蜘蛛状态码”,然后查看搜索引擎蜘蛛在抓取网页时返回的状态码是多少。。
二、爱站SEO工具包网站日志分析工具怎么使用1、此工具支持直接拖拽日志文件(一个或者多个)至窗口进行分析,可自动识别IIS、Apache、Nginx日志格式。
2、蜘蛛分析包括概要分析,即所有不同的蜘蛛的访问次数、停留时间、总抓取量的数据分析。
3、目录抓取,即站点目录被抓取的数据量分析。
4、页面抓取,单个页面被抓取的数据量分析。
5、IP排行,不同IP地址的访问次数、抓取量、停留时长的排行对比。
6、本工具每一项数据都分别以“数据显示”和“图形显示”两种不同方式展示数据结果方便用户从不同角度来查看分析。
7、搜索引擎分析之关键词分析可分析出各搜索引擎来路的关键词。
8、这里不仅是蜘蛛分析,同时兼顾到了用户分析。
9、状态码分析分为用户状态码和蜘蛛状态码分析。
10、通过查看网站正常状态码和问题状态码,第一时间发现网站的问题页面,及时修改,改良用户体验和蜘蛛体验。
11、按时间统计工具自动保存不同日期的日志文件数据,每一项统计功能都可以按照时间来分析,可有效查看时间段内的数据变化趋势。
三、如何查看服务器日志进行网站分析?1、工具/原料网站服务器、运行中网站网站日志分析工具、FTP工具网站日志查看流程登录虚拟主机的管理系统(本经验以万网为例),输入主机的账号以及密码,登陆。
2、操作如下所示、登录系统后台,找到"网站文件管理"中的"weblog日志下载",并点击。
3、操作如下图所示、点击"weblog日志下载",可以看到很多以"ex"+时间命名的压缩文件可以下载。
4、选择所需要下载的网站日志,点击下载。
5、操作如下所示、登录FTP工具,在根目录下找到"wwwlogs"文件,下载所需的压缩文件。
6、注意、不同程序,日志存放目录不一样。
7、操作如下图所示、网上有很多日志分析软件,本经验以"光年seo日志分析系统"这款软件为例子,点击"新建分析任务"。
8、操作如下图所示、在"任务导向"中,按照实际要求改任务名以及日志类别。
9、一般情况下可以不用修改。
10、点击系下一步,操作如下图所示、接着上一步,在"任务导向"中添加所需要分析的网站日志(也就是本经验第三步下载的文件),添加文件可以是一个或者多个。
11、点击系下一步,操作如下图所示、接着上一步,在"任务导向"中选择报告保存目录。
12、点击系下一步,操作如下图所示、完成之后,软件会生成一件文件夹,包含一个"报告"网页以及"files"文件,点击"报告"网页就可以查看网站日志数据了。
四、怎么对网站进行优化分析?网站优化怎么做?1、关键词分析。
2、确定核心关键词、我们应该考虑的是哪一个词或者两个词能够准确的描述网页的内容?哪一个词用户搜索次数多?核心关键词定义上的扩展、例如核心关键词的别名、仅次于核心关键词的组合等、核心关键词的辅助等。
3、模拟用户思维设计关键词、把自己假想为用户,那么我会去搜索什么关键词呢?研究竞争者的关键词、分析一下排名占有优势的竞争对手的网页,他们都使用了什么关键词?页面搜索引擎友好设计首先我们来看UI设计的搜索引擎友好、主要是做到导航清晰,以及flash和图片等的使用,一般来说,导航以及带有关键词的部分不适合使用flash及图片,因为大多数搜索引擎无法抓取flash及图片中的文字。
4、然后是前端代码的搜索引擎友好、包含以下几点a、代码的简洁性、搜索引擎喜欢简洁的html代码,这样更有利于分析。
5、b、重要信息靠前、指带关键词的及经常更新的信息尽量选择出现在html的靠前位置。
6、c、过滤干扰信息、大型网站的页面一般比较复杂,各种广告、合作、交换内容以及其他没有相关性的信息比较多,我们应该选择使用js、i等搜索引擎无法识别的代码过滤掉这一部分信息。
7、d、代码的基础SEO、这是基础的SEO工作,避免html错误以及语义化标签。
8、链接策略、分为两部分、内链策略和外链策略内链策略、大型网站海量的数据使内链的优势远远大于外链。
9、外链的数量可能几千几万几十万,但是大型网站拥有成百万上千万甚至上亿的海量网页内容,如果用这些海量的网页做内链的建设,优势是很明显的。
10、网站内的网页间导出链接是一件很容易的事情。
11、提高搜索引擎对网站的爬行索引效率,增强收录,也有利于PR的传递。
12、集中主题,使该主题的关键词在搜索引擎中具有排名优势。
13、外部链接策略、我们强调大型网站的内链建设,但是我们同时也不能太忽视了外链的建设。
14、外链的建设虽然没有中小网站那么重要,但是也具有很高的价值。
15、我们通常可以通过交换链接、制造链接诱饵、投放带链接的软文等方法来建设外链。
16、我们来看交换链接应该要遵循哪些原则、a、链接文字中包含关键词b、尽量与相关性高的站点、频道交换链接c、对方网站导出链接数量不能过多,过多的话没有太大的价值d、避免与未被收录以及被搜索引擎惩罚的网站交换链接制造链接诱饵、制造链接诱饵是一件省力的工作,这使得对方网站主动的为我们添加链接。
17、制造链接诱饵的技巧很多,但是可以用两个字来概括、创意。
18、带链接的软文投放。
19、指的是在商务推广或者为专门为了得到外链而进行的带链接的软文投放。
20、网站地图策略、有很多大型网站不重视网站地图的建设,不少大型网站的网站地图只是敷衍了事,做一个摆设。
21、其实网站对于大型网站是很重要的,大型网站海量的数据、复杂的网站导航结构、极快的更新频率使得搜索引擎并不能完全抓取所有的网页。
22、这就是为什么有的大型网站拥有百万千万甚至上亿级的数据量,但是却只被搜索引擎收录了网站数据量的一半、三分之一甚至更少的一个重要原因。
23、连收录都不了,怎么去做排名?Html地图、为搜索引擎建立一个良好的导航结构。
24、Html地图中可以分为横向和纵向导航,横向导航主要是频道、栏目、专题等链接,纵向导航主要是针对关键词。
25、每个页面都有指向网站地图的链接。
26、内容策略、对写作人员要进行反复SEO培训、写作人员不是SEO,没有经验,不可能一遍就领悟SEO的写作技巧。
27、所以要对写作人员进行反复的培训才能达到效果。
28、创造内容先思考用户会去搜索什么,针对用户的搜索需求而写作。
29、重视title、写作、例如虽然在搜索引擎的权重已经很低,但是不好的写作例如堆积关键词、关键词与内容不相关等行为反而会产生负作用。
30、而Title的权重较高,尽量在Title中融入关键词。
31、内容与关键词的融合、在内容中要适当的融入关键词,使关键词出现在适当的位置,并保持适当的关键词密度。
32、为关键词加入链接很重要、为相关关键词加入链接,或者为本网页出现的其他网页的关键词加入链接,可以很好的利用内链优势。
33、为关键词使用语义化标签、为关键词创作专题、为热点关键词制作专题关键词相关信息的聚合辅以文章内链导入链接日志分析与数据挖掘、网站日志分析、网站日志分析的的种类有很多,如访问来源、浏览器、客户端屏幕大小、入口、跳出率、PV等。
34、跟SEO工作相关的主要有以下三种、a、搜索引擎流量导入b、搜索引擎关键词分析c、用户搜索行为统计分析热点数据挖掘、我们可以通过自身的网站日志分析以及一些外在的工具和SEO自己对热点的把握能力来进行热点数据的挖掘。
35、热点数据的挖掘主要有以下手段、a、把握行业热点,可以由编辑与SEO共同完成b、预测潜在热点,对信息的敏感度要求较高,能够预测潜在的热门信息。
36、c、自己创造热点,如炒作等。
五、如何进行网站日志分析1、关键词分析。
六、如何去查看和分析IIS日志1、您好,很高兴为您解答。
2、进入服务器的管理之后,打开“Internet信息服务(IIS)管理器”如图进入管理以后打开服务器(本地计算机)双击服务器(本地计算机),在网站栏目那里右键单击选择属性。
3、在弹出的窗口里面,网站栏目点击属性上面的日志文件目录即是iis的文件存放位置了,在C、WINDOWSsystem32LogFilesW3SVC20110218打开文件夹。
4、这些文件就是网站的iis日志IIS日志后可以用IIS日志分析工具去大概的去查一查IIS日志。
5、一般工具都能查出有各种蜘蛛来到网站的总数,以及有没有失败,不会把各种的信息都给你。
6、并不是工具分析没有出现失败的我们就不用一条一条看了,工具分析只是简单的告诉你有没有失败,没有失败当然是皆大欢喜了,但是来是一条一条的去分析。
7、我们拿出这样子的一条信息来分析一下首先是时间、2010-10-220053机器编号为W3SVC151800P-0YMR9WW8YX4U92249是网站的IPGET是触发事件,80是端口号,1149是蜘蛛的IP,Baiduspider是百度的蜘蛛,20000访问成功,417861936968是蜘蛛与网站对话的时间与下载的数据以及花了多少时间。
8、连在一起就是2022的早上5点4分53秒的时候一个编号为W3SVC151800P-0YMR9WW8YX4U9的蜘蛛通过80端口进入网站成功访问并下载了47186B的数据,花费了193MS。
9、百度的蜘蛛名字、Baiduspider、google蜘蛛名字、googlebot、有道的蜘蛛名字、YoudaoBot、yahoo的蜘蛛的名字、slurp。
10、IIS日志基本上都是这样子的,区别在于上面那个是成功抓取、20000一下是FTTP状态码、404(未找到)服务器找不到请求的页面304(未修改)自从上次请求后,请求的页面未修改过,服务器返回此响应时,不会返回网页内容503(服务不可用)服务器目前无法使用(由于超时或停机维护)301永久重定向302临时重定向基本上我们要了解的就是这些FTTP状态码,如果你的网站出现了40那你就要立刻用robots进行屏蔽,404是死链接,如果出现了404的话搜索引擎会认为你欺骗用户,会对你作出处罚。
11、大面积出现304的话那就要注意了,网站没有更新,一二条关系不大,但是多了就会让搜索引擎认为你网站没有人管理,时间长了就会导致网站快照不更新,关键词的波动出现了503是你无法解决的,你就要找服务器供应商。
12、如果是连续同一时间出现503的时候我建议你去换一个服务器,因为他在那个时候判断服务器导致蜘蛛进不去,蜘蛛不能进你的网站,搜索就不会了解,就会降低信任度,降权也随之开始了。
13、301是永久重定向,是网站改换了使用的,可以从这里判断你的301做的怎么样,成功了没有。
14、302临时的重定向,当做策划什么活动的时候可以使用。
15、用excel表格分析网站的iis日志。
16、先新建一个excel表格,把刚才的ex1211log文件里的文件粘贴到新建的excel表格里面。
17、复制之后,选定A在上面的工具栏里选择数据→分列选择分隔符号,点击下一步选择空格,去掉Tab键前面的钩,点击完成。
18、网站的iis日志就这样被拆分出来了,之后自己再调整一下表格的列宽、升降序等即可。
19、如若满意,请点击右侧(采纳答案),如若还有问题,请点击(追问)希望我的回答对您有所帮助,望采纳!~O(∩_∩)O~。
七、如何做网站日志分析?1、什么是网站日志网站日志是记录web服务器接收处理请求以及运行时错误等各种原始信息的以·log结尾的文件。
2、通过网站日志可以清楚的得知用户在什么IP、什么时间、用什么操作系统、什么浏览器、什么分辨率设备下访问了网站的哪个页面,是否访问成功。
3、搜索引擎也属于网站中的一类用户,我们今天的分享课,主要是针对搜索引擎这种用户在服务器留下的记录展开分析。
4、为了方便读懂搜索引擎日志,我们需要了解不同搜索引擎蜘蛛的标识,以下为4种搜索引擎的标识——*百度蜘蛛、Baiduspider*搜狗、SogouNewsSpider*3360Spider*谷歌、Googlebot如何看懂网站日志(以下为一段日志记录)www.cafehome.com12134--(25/Mar/2033+0800)"GET/m532htmlHTTP/1"20012264"http、//www.cafehome.com/index-1s2i2p2""Mozilla/0(WindowsNT1)AppleWebKit/536(KHTML,likeGecko)Chrome/0.19153Safari/536SEXMetaSr0""-""-""-"以下为字段解读、通常日志文件较大的情况下,需要借助shell与python结合起来,做数据提取与分析。
5、所以读懂网站日志中的字段就有利于日常的分析。
6、这个在此不赘述,有兴趣的童鞋可以继续深入了解。
7、大型网站通常可以用以上的方法来进行做日志分析。
8、普通的个人站点,或者企业网站,则可以通过光年日志分析工具结合百度站长平台一起使用。
9、为什么要做网站日志分析先来了解SEO流量的获取流程、抓取-->索引--->排名--->点击--->流量因此,要获得SEO流量的前提务必是,有价值的页面被搜索引擎抓取到。
10、所以,对于SEO运营而言,分析搜索引擎网站日志就显得有必要、*分析抓取有无、解决一定的索引问题。
11、*发现异常、及时规避。
12、如存在大量异常页面,404等*抓取调控、让更多优质的内容被抓取,过滤无效抓取。
13、网站分析的终目标、让更多有价值的页面被抓取,将有机会获得索引,从而有机会获得SEO流量。
14、怎么做网站日志分析*定期监控搜索引擎抓取量变化,历史数据的横向纵向对比才能发现异常情况。
15、*借助第三方站长平台,如百度站长平台,了解搜索引擎抓取频次变化。
16、*借助光年日志分析工具,定期做数据记录,了解重要栏目、重要页面的抓取量变化。
17、举个栗子、老站点(建站1年且有人维护的网站)、Seo流量出现异常波动。
18、分2种情况、了解外界、了解外界的前提在于平时你得有一定的人脉基础,如果没有也没关系。
19、泡2个地方——去搜索引擎站长平台或者加入搜索引擎站长群。
20、比如,像百度搜索引擎,它拥有站长平台,也会相应建立站长QQ群。
21、有人脉基础上,可以直接了解外界的情况——是否也出现类似幅度的波动?这个的前提要结合你短期做过的SEO操作一并考虑,避免误判。
22、无人脉的情况,泡群、泡站长平台。
23、通常如果是搜索引擎算法升级,会在群里或者站长平台有相关的小道信息出现。
24、如果是搜索引擎自身算法升级导致的流量波动,那么就得根据新算法做相应的站内优化。
25、比如,百度冰桶0版本提出、将严厉打击在百度移动搜索中,打断用户完整搜索路径的调起行为。
26、如果站点有存在以上的情况就需要针对性的做优化、无论是通过对接的APPLINK调起,还是网页自主调起的应用,以及普通的网页,都应是可返回,可关闭的。
27、用户校验搜索结果的准确性,不需要额外下载APP或者权限。
28、分析内在、在分析内在之前,再次抛出这个公式、Seo流量=抓取量*收录率(准确来说应该是索引率)*首页率*点击率。
29、当抓取频次出现异常必然引起抓取量的减少。
30、因此,排除了外界的因素,就需要对网站的日志进行分析。
31、如果你的站点是中文站点,且是百度站长平台的VIP用户。
32、那么,你就可以先借助第三方站长平台的“抓取频次”工具(如,百度),先了解搜索引擎近期的抓取频次、抓取时间、异常页面。
33、通常借助这个工具,我们可以对搜索引擎近期抓取情况有初步了解,并且可以借助这个工具,相应的找到一些解决办法。
34、在此先解释这个概念,方便理解、抓取频次、抓取频次是搜索引擎在单位时间内(天级)对网站服务器抓取的总次数,如果搜索引擎对站点的抓取频次过高,很有可能造成服务器不稳定,蜘蛛会根据网站内容更新频率和服务器压力等因素自动调整抓取频次。
35、抓取时间、指的是搜索引擎每次抓取耗时。
36、而影响抓取频次的可能原因有、(1)抓取频次上限误调,调低了,则会直接影响到抓取量减少,抓取量减少则索引量少,流量相应减少。
37、(2)运营层面、存在大量重复页面(情况自身网站存在大量重复的内容。
38、情况自身网站内容采集了大量互联网已存在的内容)。
39、从搜索引擎的目标出发——搜索引擎希望抓取到更多更好的页面,而你的网站产出的却是网上泛滥的内容,何必浪费资源在你的网站上?另外,网站内容太久不更新。
40、建议,通过有规律定期产出优质内容来解决此问题。
41、抓取时间变长,也会导致网站抓取量减少。
42、通常存在的可能情况是,服务器速度变慢导致抓取时间变长。
43、还有一种可能是与网站自身结构有关系。
44、层级太深导致。
45、小结一下、老站如何做网站日志分析(针对中文站点)、外界排除、了解搜索引擎新算法是否发生变动、同行是否也有类似变化。
46、内在分析、(1)使用工具、百度站长平台(非VIP账户看后文介绍)(2)分析方法、主要使用抓取频次分析工具进行分析,网站抓取频次、抓取时间、异常页面情况等数据变化。
47、并与相关部门进行对接解决。
48、用光年日志分析工具非百度VIP、步骤、下载网站日志(如果是企业站点,可以直接让运维部门的童鞋帮忙下载,如果是个人站长,直接在你所购买的虚拟主机后台进行下载,文件以.log为结尾的便是)打开光年日志分析工具,上传网站日志。
49、查看分析结果。
50、主要维度有这几个、(1)概况分析、各种爬虫的总抓取量、总停留时间、总访问次数。
51、(2)目录分析、各种爬虫抓取各目录的情况分析。
52、通过这个可以了解到搜索引擎对一些重要栏目的抓取情况,又抓取了哪些无效的页面。
53、(3)页面分析、通过页面分析可以了解到经常被重复抓取的页面有哪些,可以相应的做优化调整。
54、比如,像网站的一些注册页面及登录页面,经常会发现多次被抓取,发现这种情况,我们通常会将登录/注册页面进行屏蔽处理。
55、(4)状态码分析主要分为2种,爬虫状态码以及用户状态码。
56、主要反应用户/爬虫访问页面时的页面状态。
57、通过页面状态码,我们可以了解到页面状态,做相应调整,如,当网站存在大量404页面。
58、那就需要进一步排查,比如,有些团购页面,团购过期后,页面就直接变成404了,但并未向百度站长平台提交死链清单,则容易造成无效抓取。
八、[SEO技术]IIS日志分析对SEO的重要性有哪些【seo基础入门吧】1、蜘蛛爬取了我们哪一些页面,哪些页面爬取的次数比较多,哪一些爬取的次数比较少,通过日志的分析,是可以反馈一些问题的蜘蛛爬取次数的分析搜索引擎对我们的页面爬取的次数,能够从侧面反映一些问题我们可以统计,每个月,每天,平均他来多少次,把每个月我们进行一些对比,然后我们根据我们上一个月的操作,根据两到四周的之前的一些操作,我们就可以知道,蜘蛛他为什么来的次数多,为什么他来的次数少,根据哪一些数据可以进行一些结合的判断呢。
2、(1)我们网站站内的更新,有多少页面在不断的进行更新,这个很重要。
3、另外的话,蜘蛛他爬取的也越勤快,比如我们做了很多质量性的外链,我们的外链做的很多,它就会经常通过一些这样的外链,而爬取进我们的网站(2)我们网站本身的更新情况,就是我们的数据更新的越多,更新的越频繁,那么蜘蛛来爬取也就越频繁(更新的内容要有质量)内容的变动包括,微调的频繁度,他也会来的越多,就是你越频繁,能够维持这个频率,他就来的越多。
4、那么我们结合这样的一些知识,我们就知道蜘蛛来的次数的多和少,是因为哪一些情况而引起的,从而我们以后就主要来看蜘蛛的爬取的次数的多少,就可以做出一些简单的分析。
5、哪一些东西对我们是有害的,哪一些东西是对我们有利的。
7、知道蜘蛛主要爬取的是哪一些页面?他到底爬取了哪一些页面,或者哪一些页面他爬取是比较反常的,比如说他老是爬我的某一个内页,那你就要打开这个内页看一下,你要找寻这个原因,他为什么老是爬取我的这个页面呢,是因为这个页面的更新频繁比较快,或者是这个列表页的更新次数比较快,还是因为这个内页我们进行了推广,还是有人进行了转载,等等这一些,他都可以向我们提供这个大量的数据来进行分析那么我们知道了这些,通过日志分析了以后,我们就知道怎么样来做好一个页面,或者说蜘蛛喜好的页面是哪一些。
8、我们根据这个喜好来进行优化,我们的网站就能够做得好。
9、(日志分析工具awstatsWebalizer)用日志分析工具进行分析,我们可以知道百度来了多少次,谷歌来了多少次,但是我们不知道,他到底爬取了我们哪一些页面。
10、比如说每天来了300次。
11、他到底爬取了我们哪些页面我们不知道,爬取了我们的首页多少次,爬取了我们的目录页多少次,还有哪一些重要的页面是没有爬取的?为什么没有爬取?建议大家在分析日志的时候,好是能够结合起来来分析,这个结合起来分析就是指,我哪一个目录的收录是比较快的,收录是比较多的,我哪一些目录是没有被收录的,或者收录是比较小的。
12、我们我们通过分析这两个目录的蜘蛛爬取情况相结合,你就会有新的发现。
13、建议你去看日志的时候,好能够结合你网站本身产生的情况来进行分析,而不能单独的去对你的这个内容进行分析。
14、要结合在一起分析,采用这种分析的思路我们不仅仅是看这个搜索引擎爬取的总次数,以及单个页面的爬取次数,我们还要来看一下这个网页,比如说有些页面比较反常,特别是一些比较反常的页面我们要看一看,他到底是出了什么样的情况,以及他为什么只爬取某一个目录,其他的目录不爬取。
15、我们就要去比较这个目录和其他目录之间他有什么不同,比如说外链更新、还是一些其他的一些因素。
16、这样的分析我们就可以看出,这个搜索引擎对于我们的内容更新,以及爬取他有哪一些要求我们还要经常的去查看他的变化,为什么呢,因为蜘蛛在不同的时间段,每一年他爬取的这个要求都会进行一定的更改,我们不能停留在以前的意识,所以我们要经常的进行一些数据分析和对比,这样我们就可以找出来一些规律原来是因为这个目录他经常爬取,原来是因为这个目录经常更新,他爬取的这个页面原来是做了大量的外链。
17、等等这样的,我们就可以分析出来这样的一些结论,就知道在哪里去发是有用的,我们根据日志就可以发现的一些规律做一些总结。
18、所以说日志很重要。
19、我们要经常分析和对比。
20、HTTP状态码的分析比如说我们要看我们的404页面,做的是否是复合要求的,看当蜘蛛爬取我们404页面的时候,或者出现错误页面的时候,他返回的状态码是200还是40即使我们是做了错误页面,如果说我们的页面返回的是200,那这个是正确的还是错误的呢,事实上我们即使是绑定了404错误页面,我们也不知道这个搜索引擎返回的状态码是多少,就是我们并不了解搜索引擎是否认可了我们做的这个页面,或者是我们做的这个页面是否符合了搜索引擎的要求。
21、返回的是200状态码是错误的,必须返回的是40为什么返回的是404呢,因为200状态码对搜索引擎来说,这个页面是可以访问的。
22、200状态码,如果搜索引擎来他访问你一个错误页面,因为你做了这个404错误页面,专业的绑定了这个404错误页面,那么你发现你的错误页面如果他进行访问的时候,返回的是200的话,那说明你这个是不正常的,那说明这个是不对的。
23、我们经常发现有的人绑定了404页面以后,返回的竟然是200,一个死链接他竟然返回的是200,这个是很恐怖的事情,所以我想告诉大家,我们要仔细一点,应该返回404是正确的。
24、因为这样搜索引擎才会知道这个页面是不可以访问的如果说我们的网站因为备案的问题,而导致我们的网站正在建设当中,或者是因为我们的网站要改版,要暂停,或者因为其他的原因,我们的网页要暂停,那这个时候我们应该给搜索引擎什么样的状态码呢。
25、是给500、503还是404还是400呢,这个服务器是可以设定的返回503(告诉搜索引擎暂时)500(很有可能会导致搜索引擎不来抓取了)503 由于临时的服务器维护或者过载,服务器当前无法处理请求。
26、这个状况是临时的,并且将在一段时间以后恢复。
27、如果能够预计延迟时间,那么响应中可以包含一个Retry-After头用以标明这个延迟时间。
28、如果没有给出这个Retry-After信息,那么客户端应当以处理500响应的方式处理它。
29、注意、503状态码的存在,并不意味着服务器在过载的时候必须使用它。
30、某些服务器只不过是希望拒绝客户端的连接。
31、500 服务器遇到了一个未曾预料的状况,导致了它无法完成对请求的处理。
32、一般来说,这个问题都会在服务器的程序码出错时出现。
九、怎么查看网站日志1、打开日志工具,选择新建日志项目。
2、弹出对话框,选择自己日志类型,可以默认不选,点击下一步。
3、选择自己要分析的日志文件。
4、点击下一步,选择日志分析存放路径,点击下一步。
5、再弹出是否分析日志对话框中选是。
6、打开自己分析后日志存放目录,日志是网页静态文件,用浏览器打开即可。