* 新闻详情- */>
免费预约专业提供网站解决方案
为什么网站有很多个快照?百度快照是对某个时间网站数据的一个缓存,不同的页面缓存的时间都是不一样的,搜索引擎具有一个缓存机制,在搜索网站不同的关键词时对应的快照时间也会是不一样的,因为搜索引擎根据不同的关键词索引建立了不同的缓存,所以有多个快照是很正常的。
网站主体内容都是js生成,针对用户访问,没有做优化;但是网站特针对爬虫抓取做了优化,且将图片也直接做了base64转化;然而优化后发现内容却不被百度收录。页面质量很好,还特意针对爬虫做了优化,为什么内容反而不收录了呢?工程师分析:
1、网站针对爬虫爬取做的优化,直接将图片二进制内容放到了html中导致页面长度过长,网站页面长度达164k;
2、 站点优化后将主体内容放于最后,图片却放于前面;
3、爬虫抓取内容后,页面内容过长被截断,已抓取部分无法识别到主体内容,最终导致页面被认定为空短而不收录。
解决办法,工程师建议:
1、不建议站点使用js生成主体内容,如js渲染出错,很可能导致页面内容读取错误,页面无法抓取
2、 如站点针对爬虫爬取做优化,建议页面长度在128k之内,不要过长
3、针对爬虫爬取做优化,请将主题内容放于前方,避免抓取截断造成的内容抓取不全
上一篇:宁夏搜索引擎服务
下一篇:白银网站搜索引擎排名
申请获取免费网站建设解决方案