×

如何分析查看服务器日志文件?

分类:建站推广 编辑:IT观察 浏览量:278
2020-09-29 10:43:07

网站日志,准确来说是服务器日志。通过服务器日志,我们可以了解到用户在什么IP、在什么分辨率的设备、什么时间、什么地区访问了我们的网站,以及当时访问的页面是否正常。
对于我们网站而言,搜索引擎也是网站用户之一。本文提到的网站日志分析,更多是在分析搜索引擎这种用户。

下面是一条标准的log file记录:


202.71.113.38 – - [03/Jan/2014:01:56:12 +0800] "GET /http://www.mahaixiang.cn/SEO/index.html HTTP/1.0" 200 5122

从左到右,202.71.113.38就是远程主机的IP;而登录名和登录全名指的是发起这个请求的用户的名字,这个一般大家是不想要透露的了,所以远程主机会禁止给出这两个信息,log file当然就记录不下来了,用两个短中划线代替。

然后,03/Jan/2014是请求发生的日期,01:56:12则是具体时间,之后的+0800是指比格林威治时间要晚8个小时,就是我们北京时间了。

再之后的GET是请求的方法,另一种方法是POST,可以简单理解为GET就是索取,POST就是提交。

接着www.mahaixiang.cn/SEO/index.html是被请求文件的地址,可以是绝对地址也可以是相对地址。

HTTP/1.0是请求所遵守的协议,这里的协议是HTTP 1.0,整个记录的结尾是两个数字,其中200表示一种请求的状态,意思是请求一切正常(具体可查看马海祥博客《解读IIS日志中搜索引擎蜘蛛名称代码及爬寻返回代码》的相关介绍)。

有时候这个数字会显示为404(不明白怎么设置404的朋友,可查看马海祥博客《你真的懂404页面设置吗》的相关介绍),相信大家一看到这个数字就头痛,它表示请求的文件无法找到(file not found);又有时候,这个数字会显示为301,表示页面被重新定向到了别的地址。

最后的一个数字5593,表示所请求的文档的长度为5122 bytes。

通用格式其实很简单,但是里面的这11类记录往往不足够帮助我们进行更深入的分析,因此其他的一些记录被加入进来,其中最重要的一些是:

①、请求来源(Referrer):指连接到被请求资源的网站的URL,如果请求时通过点击一个链接时发生,那么这个项目就会被记录;

②、客户端(User Agent):记录用户的浏览器或者发出请求的程序的相关信息;

③、所需时间(Time Taken):从请求的发出到请求的资源全部传输完毕所需花费的时间;

④、Cookie:关于cookie的内容请大家看马海祥博客《基于Cookie信息的互联网精准广告定向技术研究》的这篇文章,在此,也就不多讲了。

看起来,网站服务器日志所记录的内容是很有限的,比起我们动辄上万行的编程实在是九牛一毛,但是,千万别认为网站服务器日志文件会很小,对于一些大网站,每分每秒都有很多访问者对网站服务器进行请求,所以日志文件会积少成多,成为巨型的数据文件。

有时候,一个小时的记录就能超过数G的容量,如果你网站的服务器日志一个月才1M,那你就要加油了,没有人气的网站可没有生命力。

利用网站服务器日志分析网站的优点

如果你问我什么情况下,选择用网站服务器日志来进行网站分析,我建议你如非必须,那么,还是寻找一些更容易的方法能够事半功倍,看看后面的内容,你就能知道我为什么这么说了。

尽管是个技术活,但是利用网站服务器日志进行网站分析还是有不少好处的。

(1)、网站服务器的日志是被你完全掌控的数据

所谓放在自己手心才是最放心的,这些日志在你的服务器中,如果不是h客入侵,数据不可能被你不希望的人获取(具体可查看马海祥博客《如何通过IIS日志分析网站的隐形信息》的相关介绍)。

而且,只要你不删除,它们永远都在那里,在任何时候你都可以回溯历史数据,无论这些数据有多么久远,有朝一日,你的网站大获成功,这些日志也是一份奋斗历史的见证。

(2)、能够记录机器人或自动程序对网站的访问

其次,前面讲过,网站服务器的日志是记录网站服务器行为的,因此任何服务器响应的请求都会被记录下来,这些响应可能是应答用户发出的请求,也完全可能是应答一些互联网上自动程序发出的请求。

最常见的一种互联网上的自动程序是搜索引擎的机器人,例如:百度的Baiduspider、Google的Googlebot,这意味着网站服务器日志能够用来分析搜索引擎的访问,并帮助我们优化搜索引擎对网站的访问。

讲到这里,马海祥请大家注意,并不是每一种网站分析方法都能做到这一点,我们最常用的为网站页面加入标签的方法是不能获取搜索引擎流量的。

(3)、各个终端访问的详细记录

网站服务器的日志能够记录网站服务器全部响应行为的特点还延伸出另外一个优点,那就是无论是何种终端访问服务器,都能把相关数据记录下来。

现在,能够访问网站的终端越来越多了,我无聊的时候也试着用Sony的PSP上网,用手机的GPRS也能轻松的浏览网页,这些形形色 色的终端的访问,服务器日志都会忠实的记录,但页面加入标签的方法就可能完全行不通。

(4)、能够探知文件是否完全下载

日志方法的另一个好处是能够记录文件下载的情况,如果你在网上下载一个MP3音乐,你在发出这个响应的时候,日志会记录一个状态;你在下载完全的时候,日志照样会记录一个状态;如果你没有下载完全,日志还是会记录下来,这个,我想对那些提供下载服务的网站很有用。

(5)、数据获取不依赖于第三方

通过日志获取数据本身不需要额外的第三方的帮助,只要你的服务器在运转,日志就会源源不断的被创建、保存。

不过,请注意,这里我所指的是数据的获取不需要额外的支持,但是数据的分析一般而言,还是需要第三方的帮助的,直接去用肉眼读日志文件中的数据进行分析是不可想象的。

(6)、不怕防火墙

最后,日志方法不惧怕防火墙或客户端安全软件的屏蔽,因为数据都是从服务器端获取的。

看起来似乎不错,不过凡事有利有弊,日志方法也肯定有它不能克服的不足

利用网站服务器日志分析网站的缺点

日志方法能够起到作用的前提是服务器要响应来自客户端的请求,如果客户端的请求不通过服务器就得到了响应(这其实是经常发生的),那么服务器日志法就无能为力了。

(1)、害怕网页缓存

为了提高网站页面的载入速度,人们发明了网页缓存(Cache),在台湾,Cache被翻译作“快取”,似乎兼备了音义。

网页缓存的原理很容易理解,但却是个了不起的发明,在缓存出现之前,人们访问网站每次都需要把网页从网站的服务器传输到客户端的浏览器中,这个速度当然会有点儿慢,尤其是网络条件不好的时候。

于是善动脑筋的人们发现,每次访问的网站其实有很多内容是没有更新的,如果能够把那些不经常更新的部分放在自己的电脑里面,每次打开网页的时候,首先搜索自己电脑里面已经有的内容,然后再去服务器去寻找那些被更新了的部分,这样服务器传输的数据量就会大大减少了,整个网页也会被更快地显示出来。

现在,我们大部分人的浏览器都设置了缓存,所以,有时候,你会发现,即使网络没有接通,你访问的网站似乎也能“正常”打开,只不过浏览器会显示“脱机”状态,告诉你,这些内容不是真正从服务器传输过来的。

除了客户端(浏览器)能够存放缓存的内容外,代理服务器(Proxy)也能够存放网页缓存,目的同样是为了提速。

你可以把代理服务器的缓存想象成CPU的“二级缓存”——当客户端没有存储某个网页的缓存的时候(“一级缓存”没有内容),浏览器就会寻找代理服务器缓存,看看有没有内容,如果还没有,那才会再去寻找真正存放网页内容的网站服务器。

有了缓存,当你点击浏览器的“回退按钮”的时候,回退的上一个页面就不需要再重新从服务器中下载一次,而是立即就呈现在你的面前,你常用的网站的打开速度也显著提升了(具体可查看马海祥博客《如何实现shtml页面的局部缓存》的相关介绍)。

可是,对于通过服务器日志来获取网站访问数据的方法而言,这可不是一个好事情,由于缓存的存在,本来应该请求服务器的结果不需要请求了,服务器的日志什么也不会记录下来,可是对页面的访问却又实实在在的发生了,所以,缓存的存在会使日志方法低估网站的实际访问量。

(2)、害怕Flash等“客户端交互”内容

现在,为了更具冲击力的视觉效果和更丰富的网页互动,很多网站都运用Flash、加入视频、设计很多互动程序在网页上已经稀疏平常。

而这些元素,它们太独立了,以至于当它们被载入到浏览器端了之后,完全可以在浏览器端运行而不再与服务器发生交互,或者只需要在必要的时候才与服务器发生交互。

比如,你玩普通网页版的Flash 小游戏,一旦游戏下载完毕,你在玩的过程中跟网站服务器就不会有什么联系了,或者你看网页上的视频,你在播放器上进行的暂停操作,一般也不会跟服务器进行互动。

还有,有一些脚本语言编写的网页程序,是在浏览器上被解释执行的,比如用JavaScript实现的网页Tab标签切换,在页面全部载完后,无论你怎么切换Tab,服务器都感觉不到了。

服务器感觉不到,也就不会存在什么服务器日志记录,也就不会有数据,因此用日志方法是无法准确获取“客户端交互”类型的网站访问行为的,这种情况下,必须选择其他的数据收集方法。

(3)、不精确的访问者记录

日志方法辨别独立访问者需要依靠客户端的IP地址,也只能依靠它,不过,IP地址显然不代表真正的访问者,上班族的整个办公室的IP地址都可能是一个(使用代理服务器),而这个办公室可能坐着十多个人。

同样,在家中,如果你购买了公共网络服务,那么你的IP地址存在动态分配的问题,你今天上网的IP地址和明天的可能就会不同,这个时候日志方法只能判断为两个不同的访问者。

此外,前面提到过日志是能够忠实记录机器(非人为)的访问活动的,但是机器不是人,它们的活动混在真实的人的访问之中,同样会使真实访问者的数量,或者访问数本身被高估。

在这正反两相反方向的共同作用下,结果只能一个,那就是对于访问者数量的估算是非常模糊的。

当然,我们必须要承认,无论用什么方法,网站访问者的精确数量都无法获得,但相对而言,日志方法要更不准确些。

(4)、较弱的实时性

网站服务器日志是记录服务器运行的实时数据的,但是这些数据想要被取出分析,实时性就没有那么好了。

常见的情况是,你必须首先把服务器日志文件(log file)从服务器中取出来,而这些文件肯定不会是服务器正在运行过程中的数据,一般都是隔天的(需要验证),然后再把这些日志文件导入到专门针对日志分析的工具中才能进行分析,这个过程的快慢依赖于你的熟练程度,但要追求实时,颇有难度。

有技术高超的站长或者工程师通过架设内部网络、组建专门的日志分析服务器,并且编写特定的程序来解决日志分析的实时性问题,但是,对于普通的中小网站,这种方法难度颇大,花费不菲,所以可行性不强。

因此,实时性是绝大部分通过日志方法来分析网站数据时要面对的问题。

(5)、海量的数据存储

服务器日志是忠实的,所以它会如实记录下来每一分每一秒发生的每一条服务器响应。

对于一些流量稍大的网站,一天的网站日志记录超过数个G(Gigabytes)是非常正常的,而那些最大的网站,一个小时就可能产生数G的记录。

我们没有詹姆斯·卡梅隆的超级团队(他的《阿凡达》特效需要处理超过500,000G的数据),所以如果要回溯网站一个月的流量就可能变成一个相当棘手的问题,需要投入相当的时间和耐心,如果你没有相当的技术和经验,效率就会很低。

(6)、日志文件获取繁琐

我们不能把日志文件的获取想象的太简单,毕竟这不是在自己电脑中点开一个MP3文件那么容易,有些网站有镜像服务器,有些服务器在境外,有些服务器是由处在多个不同地理位置的物理服务器逻辑组合而成。

这些情况下,在进行日志分析之前需要集中所有的日志文件,这是一个很有些麻烦的事情,尤其是当日志文件的体积极为庞大的时候。

另外,如果是租用的ISP服务器空间,如果没有权限获取日志数据,那么实际上连进行分析的可能性 都没有了。



声明:免责声明:本文内容由互联网用户自发贡献自行上传,本网站不拥有所有权,也不承认相关法律责任。如果您发现本社区中有涉嫌抄袭的内容,请发

送邮件至:operations@xinnet.com进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。本站原创内容未经允许不得转载,或转载时

需注明出处:新网idc知识百科

免费咨询获取折扣

Loading