18143453325 在线咨询 在线咨询
18143453325 在线咨询
所在位置: 首页 > 营销资讯 > 电子商务 > 站长分享:六个方面浅析蜘蛛爬行与抓取(一)

站长分享:六个方面浅析蜘蛛爬行与抓取(一)

时间:2023-03-07 03:30:01 | 来源:电子商务

时间:2023-03-07 03:30:01 来源:电子商务

大家都知道搜索引擎想要提供给用户高质量的搜索结果,首先就要去收录网页,而收录网页就需要搜索引擎的蜘蛛去不断爬取,然后根据爬行的情况有选择性的抓取与收录。本文从六个方面和大家浅析蜘蛛的爬行与抓取,希望能让新手站长更多了解搜索引擎的原理,知道了这些,对我们网站优化会有指导性的意义。好了,开始今天的正文。

第一、常见蜘蛛:蜘蛛其实就是搜索引擎用来访问页面的程序,英文叫spider,也称为机器人,英文为bot。有时候查看IIS日志就能看到各种蜘蛛访问网页的情况,对网站的优化起到一定的指导作用。当蜘蛛访问一个网站时,会发出页面访问请求并返回HTTP状态码,然后蜘蛛会把这些状态码存入自己的数据库,为以后的各种计算做铺垫。常见的蜘蛛有百度蜘蛛(Baiduspider)、雅虎蜘蛛(Mozilla)、微软Bing蜘蛛(msnbot)、搜狗蜘蛛(Sogou+web+bot)、Google蜘蛛(Googlebot)等。一般情况下,IIS日志都会有显示,站长们应该多花点时间仔细看下蜘蛛对自己网站的访问情况,然后对自己网站做出调整。

第二、跟踪链接:跟踪链接指的是蜘蛛会顺着页面上的链接从一个页面爬到下一个页面。因为整个互联网都是有不同的链接构成,所以理论上蜘蛛能爬行所有的页面。但由于现实中网站间的链接结构非常复杂,蜘蛛就会采取一定的策略才能爬行所有页面。常见的策略一般有两种,一是深度优先,二是广度优先。深度优先指的是顺着链接一直爬行,直到没有链接为止,然后返回第一个页面。而广度优先是顺着第一层的链接爬行,直到把第一层的链接爬行完然后再爬行第二层的链接。如果从理论上讲,只要有充足的时间,蜘蛛就能爬行完所有的网页,但实际上搜索引擎只是收录了互联网上很小的一部分网页。因此对我们来讲,争取做足够多的外部链接,让蜘蛛有机会来爬行与抓取。

第三、文件存储:文件存储是搜索引擎的一个技术关键所在,同时也是面临的一个挑战。当搜索引擎爬行和抓取完成后,会把这些数据存入原始页面数据库。在这个数据库存放的数据和用户在浏览器中看到的页面是完全一样的。每个URL都会有一个独特的编号。除此之外,还要存储各种计算权重所需要的数据,比如各种链接的关系,PR的迭代计算等。这些数据量是巨大的。很多网站不存在时,我们可以访问搜索引擎的快照页面,这些页面就是存在搜索引擎自己的数据库中,与站长网站本身的数据没有关系,是独立存在的。平时的快照更新、排名波动都和搜索引擎的文件存储有着直接的关系。

到这里,给大家分享了基本的三个方面:常见蜘蛛,跟踪链接,文件存储。这些内容大家作为一种了解性的常识,对我们还是能起到一定作用的。搜索引擎本身是个巨大的系统,里边涉及到的巨量运算是我们无法想象到的。有时候优化网站明显感觉到波动,站长们也很着急、很费解为什么网站无缘无故出现问题,其实很多时候并不是我们自身的原因,而我们面对的是一个巨型的计算系统,它本身也正在逐步的成熟和完善,所以有时候出现不正常的现象也都在正常的范围内。网站出现波动大家都不想看到,我们也不应该把重心都放在这上边,还是多腾出点时间来完善自己的内容才是重点。

好了,本文就到这里,大家有什么好的想法也欢迎和我联系,本文来自:扎金花游戏下载,网址:,也欢迎转载,转载请保留链接,谢谢!

关键词:爬行,蜘蛛,方面

74
73
25
news

版权所有© 亿企邦 1997-2025 保留一切法律许可权利。

为了最佳展示效果,本站不支持IE9及以下版本的浏览器,建议您使用谷歌Chrome浏览器。 点击下载Chrome浏览器
关闭