页面为什么不收录?

搜索对互联网内容的收录与展示是需要一定识别周期的, 一般会在7-30天内收录, 页面长时间不收录可能有如下问题:

一、Spider未抓取

目前百度spider抓取新链接的途径有两个,一是主动出击发现抓取,二就是从百度站长平台的链接提交工具中获取数据,其中通过主动推送功能“收”上来的数据最受百度spider的欢迎。对于站长来说,如果链接很长时间不被收录,建议尝试使用主动推送功能,尤其是新网站,主动推送首页数据,有利于内页数据的抓取。

那么同学们要问了,为什么我提交了数据还是迟迟在线上看不到展现呢?那涉及的因素可就多了,在spider抓取这个环节,影响线上展现的因素有:

1、网站封禁。你别笑,真的有同学一边封禁着百度蜘蛛,一边向百度狂交数据,结果当然是无法收录。

2、质量筛选。百度spider进入3.0后,对低质内容的识别上了一个新台阶,尤其是时效性内容,从抓取这个环节就开始进行质量评估筛选,过滤掉大量过度优化等页面,从内部定期数据评估看,低质网页比之前下降62%。

3、抓取失败。抓取失败的原因很多,有时你在办公室访问完全没有问题,百度spider却遇到麻烦,站点要随时注意在不同时间地点保证网站的稳定性。

4、配额限制。虽然我们正在逐步放开主动推送的抓取配额,但如果站点页面数量突然爆发式增长,还是会影响到优质链接的抓取收录,所以站点在保证访问稳定外,也要关注网站安全,防止被黑注入。

二、页面长度过长

建议:

1、不建议站点使用js生成主体内容,如js渲染出错,很可能导致页面内容读取错误,页面无法抓取

2、 如站点针对爬虫爬取做优化,建议页面长度在128k之内,不要过长

3、针对爬虫爬取做优化,请将主体内容放于前方,避免抓取截断造成的内容抓取不全

三、内容质量有待提升

网页质量是一个网页满足用户需求能力的衡量,是搜索引擎确定结果排序的重要依据。在网页资源内容与用户需求有相关性的基础上,内容是否完整、页面是否美观、对用户是否友好、来源是否权威专业等因素,共同决定着网页质量的高低。

对于搜索引擎来说,给用户呈现的网页质量直接影响了最终的搜索效果和用户的需求满足;而对于广大的站长来说,整体网页质量的提高有助于在搜索引擎中获得良好的排序和展现,从而吸引更多用户,获得更多流量。

百度搜索综合用户对不同网页的实际感受,制定了一套评判网页质量的标准,基于这个标准,在百度搜索的收录、排序、展现环境进行调整,给高质量的网页更多的收录、展现机会,同时对一些影响用户体验、欺骗搜索引擎的恶劣低质网页进行打压。

目前互联网上的网页,仅有7%可以达到高质量标准,百度作为最大的中文搜索引擎,希望从互联网生态角度出发,跟站长们一起努力建立良好的互联网生态圈,更好地为网民服务,也让内容优质的网站得到更好的发展。

此外,搜索引擎之前相对封闭,一直以来,站长需要通过不断的摸索发现搜索引擎对网页的判断标准,指导站点内容的建设。此次推出《网页质量白皮书》,目的是开放百度在网页质量方面的判断标准,给站长提供参考,希望有更多、更优质的内容产生,满足搜索引擎用户的需求,同时为站长带来流量,实现共赢。