标题:
找到根本原因让收录问题“不攻自破”
[打印本页]
作者:
jsgoogle
时间:
2014-10-13 11:09
标题:
找到根本原因让收录问题“不攻自破”
很多google人员都有一个疑问存在心里面,为何我的站点自创内容更新,都好长一段时间了,可仍是没被搜索引擎录入呢?并且自以为自己站点更新的文章内容写的也挺好的,可为何搜索引擎即是不给录入,每天都辛苦的自创更新文章,诚心感到不值。若这样持续写下去,仍是不录入,该怎办才好?还要不要持续写下去吗?
笔者觉得,若是新站的话,那么就不要太着急,新站正本查核期就会比较长点;若是老站仍是这样的话,那么这里我建议你剖析下你的文章内容是不是真的有用,不要自以为自个写的文章极好,你觉得极好,搜索引擎并不必定那么以为。
这里笔者给大家总结下,为何更新文章没有被录入:
1、 本身把你更新内容页的文件夹给屏蔽了(robots.txt设置)
2、 剖析IS日志,查看搜索引擎蜘蛛是不是有匍匐文章URL,如果有的话而文章却没有被录入,那么还得要归纳剖析整个文章情况。
3、 网站信息是不是丰厚,页面文字是不是清晰、精确地表述要传达的内容。是不是网站能满足必定用户的需要。
4、 是不是有做高质量外链引蜘蛛,是不是做好站内网状外链的布置,网站地图是不是提交了?
当站点更新文章后,没有被录入后,笔者一般经过上面四个过程进行查看,查看完毕后,有问题及时处理,没问题便会持续坚持更新下去。
这里笔者特别强调两点:
第一、 请不要为搜索引擎发明内容。
请从用户的视点动身考虑,不要为了文章量,很多的糊弄瞎凑文章。
第二、 请不要创建重复内容的页面、子域或域。
第三,进行google的效果检测,能够分几步完成。
百度喜爱新鲜的东西,若你的网站包含了很多重复的内容,那么搜索引擎肯定会减少一样内容的录入,这样同时会下降对你站点的友好度。(当然了,一些为了方便用户,能够直接展现,但能够经过robots.txt禁止蜘蛛抓取内容)
文章更新量与收录量不一定成正比,得坚持原创高质量内容建设,做好站内网状链接部署,这样才会更好的被搜索引擎收录,站长们都知道搜索引擎喜欢质量好的东西。
更多精彩推荐:
http://www.021google.cn/
欢迎光临 110互动论坛 (http://bbs.110.com/)
Powered by Discuz! 6.1.0