无论是我们个人做的博客还是企业做的官方网站都在一直做SEO优化,通过优化的来增加我们的网站权重,提高知名度、点击量还是我们的展示量来获取更多的流量转化,但是有很多时候我们一直坚持更新网站内容为什么百度还不收录我们的内容页,那么如何来解决网站内容页不收录的原因呢?以下就是新起点博客所总结的几点内容希望能够帮助到大家。
1、百度快照投诉
很多时候百度快照投诉应该是效果较快的方法之一,在正常情况下只要投诉了百度快照一天内即可完成百度快照更新,但在百度快照投诉前,网站必须要有所变化,比如文章内容更新,或者是网站结构微调这些都属于百度快照更新的首要条件
2、如果网站在中途出现无法访问,或服务器关闭,或因为其他原因导致蜘蛛抓取异常等现象,会导致快照更新出现异常。
有时候会看到,网站在更新,或者网站可以正常访问,但是快照时间依然停留在很久以前。是因为搜索引擎展示给用户的时间,并不一定是最新更新的时间,而是会选择一个它认为比较合适的收录时间。
3、网站内容质量
一个好的网站内容质量基本上能够达标网站每日更新的首要条件,还有一种情况就是高权重的的网站,比如新浪,阿里巴巴,搜狐等众多大平台,都能每天快照更新。
如何发现网站死链接
1、百度站长工具中的抓取异常工具可以查看最近一个月产生的各种死链,并支持导出功能。
2、使用相关爬虫软件,比如Xenu,此类工具可以爬取全站所有链接并分析页面状态,分析完成后,支持导出功能,提取死链接即可。
3、在网站运营中,特别是论坛,经常需要删除某些页面,在删除页面时一定要记录对应的Url以便后期提交死链。
4、site:域名。虽然笨,但是也是一种查询方式。
处理网站中的死链接的方法
给网站设置404页面
404页面就是告诉访客,当前所浏览的页面出错或不存在了,请继续浏览网站其它内容。404页面可以设置成单独的一个页面,这个404页面处理好了,当用户遇到死链接的时候会有眼前一亮的感觉,最最重要的是可以减少网站的跳出率。一旦网站设置好404页面,只要出现死链接就会显示说设置的404页面内容了,就是起到了一个引导的作用。
用robots.txt屏蔽死链接
robots.txt是网站与蜘蛛的协议,蜘蛛进入网站后会先检测网站是否有这个协议,有的话就知道哪里可以访问、哪里又不要抓取。总之就是给蜘蛛一个权限。有死链接的话就把这个链接写入robots.txt,告诉蜘蛛不要抓取这个链接。如果网站有很多死链接的话不建议写入,因为蜘蛛查看robot.txt内容范围有限,超出这个范围它就看不到了。
给死链接做301重定向
就是把失效的死链接地址重定向到新的页面,这样做的好处有权重可以转移到那个新的页面。适合一些网页比较重要,有一定权重的页面。如果死链接多的话重定向太多也不好的,那就是网站的问题了。
向百度站长平台提交死链接
就是把死链接集中起来按照百度的规格整理成一个死链接文件放于网站根目录下,然后再到百度站长平台提交。有点麻烦新手能看懂的估计不多,还有个不好的地方就是这方法只对百度搜索引擎有效,对其它的搜索引擎无用。