Board logo

标题:   网站不被收录原因 [打印本页]

作者: year希望2015    时间: 2015-4-27 08:24     标题:   网站不被收录原因

1、 服务器或空间故障当机我们知道网站收录比较好的方式是做好网站之后发外链来吸引搜索引擎的蜘蛛程序。如果你发布外链之后,搜索引擎蜘蛛程序顺着外链进入你网站,刚好你的空间出现问题无法访问。

  2、链接未被搜索引擎蜘蛛抓取有的时候你发布出去想吸引蜘蛛程序的链接未必会被抓取到,原因是你发布外链的地方蜘蛛程序极少或甚至不去光顾。解决方案:其实吸引搜索引擎收录的外链并不用很多,你只要选好几个点,同一时间引爆就能达到效果。比如百度知道、新浪博客、Admin5 投稿,三管齐下一般问题就能够迎刃而解。

  4、镜像网站或镜像网页

  有的人做站为了方便,经常拷贝别人的网页,比较突出的是一些做网赚的人,拷贝别人做得好的网页,然后直接挂广告。对于镜像网站或网页其实很多人新手都有误解,比如有两个完全一模一样的网站,只是域名不同,这种镜像网站会不会受到处罚?其实你如果只有几个一模一样的网站,一般是没有问题的,只有当你把这个数值量化或增大的时候,搜索引擎才会去处理这些网站。我有一个学员之前就是明知故犯做了镜像站点加域名跳转,结果其中一个站点被搜索引擎K 掉。很简单的思路是,比如我转载别人网站上的一篇文章,这篇文章并没有其他人转而只有我,有的人就会认为,哎呀惨了,搜索引擎会不会认为是复制网页。我想说的是:上海浦东机场不止可以停两架飞机。

  解决方案:即使你复制别人的网页或拷贝别人的网站,为了保险起见最好要有适当的修改,而不要完全一样。修改的地方可以聚焦在头部的标签,正文的文章和尾部的版权信息三个部位。

  5、Robots.txt文件屏蔽蜘蛛抓取

  部分人都会犯这个错误,就是使用Robots.txt 文件去屏蔽某些文件不让搜索引擎收录,结果写错写成禁止搜索引擎收录整站,导致一直没收录。还有一种情况可能是程序自带的Robots.txt 文件,规则也是写着禁止搜索引擎收录。Robots.txt 文件一般使用较多的可能是屏蔽VIP 论坛的贴子、404 页面或同个网站

  中重复度较高的网页,至于屏蔽模板目录、后台这些全部都是扯淡。

  6、使用群发工具使外链猛增

  为了节省做外链的时间部分人使用了外链群发工具,一般使用群发工具的人多数由于量化工作没有做好,或者太贪心、锚点外链的比例没有把握好,导致网站一下子外链数量太多,轻的搜索引擎觉得可疑不收录或延长收录周期,严重的会导致关键词排名被永久性降权。
    本文由上海seo为大家介绍,如果对我们感兴趣可以联系我们   021-51093095
   原文来源:http://www.seoteacher.com.cn




欢迎光临 110互动论坛 (http://bbs.110.com/) Powered by Discuz! 6.1.0