ytjlt 发表于 2012 年 5 月 30 日 15:55:01

SEO实践一定要科学的分析

   SEO真的可以做的很科学吗?我们经常遇到一些SEOer,遇到一些问题他的答案是:我觉得是、应该是、好像是………。这是很不科学的表现,不管遇到什么问题,他的答案都必须是很科学的。数据——数据是最有理论依据的辨证人,通过数据我们可以把一切问题看的一目了然。我们可以通过技术,讲所有影响SEO 的因素数据化,结合用户心里和习惯,将从搜索引擎处获取的整理利益最大化,所以说SEO也是一个技术活儿,如果一个不懂技术的SEOer是绝对做不好SEO的,这是一个用数据说话的时代,不是一个猜想的时代。
     A、每个搜索引擎的总体抓取量(以及趋势)  在日志文件中,明确的记实了每个搜索引擎的抓取量,例如百度、谷歌、搜狗等搜索引擎的抓取记实,我们都可以进行记实,使用DOS命令或者Linux命令都可以去实现的,搜索引擎的收录大棚建设是由抓取量以及文章质量来决定的,当文章质量不变的情况下,蜘蛛抓取量越大,那么收录的就会越多,我们在进行日志分析 时候,一定要清晰的知道蜘蛛天天的抓取量到底是一个什么情况,而且天天都要记实,也许绝对值说明不了什么,我们可以去看它的趋势,当某一天抓取量的趋势在下降时,我们就要去找原因了。
  B、弄清楚了搜索引擎的工作原理,还需要弄清楚网站的工作原理。刚开始接触SEO的时候的朋友可能会被告知不需要懂太多程序代码的知识,后面我发现不懂网站的工作原理,步步受限。例如前面提到的影响网站收录的有抓取这个步骤,而影响网站页面抓取的和这个页面的代码以及服务器的性能有关,如果我们不懂这些,就不知道该在哪里去优化,对于代码我们可以精简冗余代码,提高信噪比,对于服务器当然是挑选能留范围内的更高性能服务器,这样就可以在抓取的时候给网站收录带来优势。还有例如nofollow,robots的运用,这些都需要一定的程序能力。搞清楚网站是在什么运作,他的内在运转是否符合搜索引擎的要求,这样才能和搜索引擎形成对接。
   C、记录搜索引擎蜘蛛的不重复抓取量 
   上一步我们把蜘蛛的抓取量数据给分析出来了,然后我们要进行去重,也就是搜索引擎的唯一不重复抓取量,其实对于收录来说,许多页面只要抓取一次就可以了,可是在实际操作的过程当中,许多页面都是被重复抓取的,谷歌的技术比较先进一些,重复抓取率也许会低一些,可是百度等搜索引擎,重复抓取率却非常高,你通过日志分析就可以看出来了,一天如果抓取量上百万,可能好几万次都是抓取首页的,所以许多数据你一定要去分析的,当你分析了后,你才会知道问题的严重性。
      D、SEO一定要是可控的 
 弄清楚SEO目的,分析了SEO精髓,这是做SEO必须懂得的,但是我从国平身上学到的最让我感慨的不是这些,而是他提出的:SEO一定要是可控的。任何一个关系到SEO的小问题都会通过网站和搜索引擎的互动,在网站上反应出来,我们需要做到的就是通过技术上的调整让网站朝着更好的方向发展,带来更多的SEO流量,这才是真正的SEO。健康养生
页: [1]
查看完整版本: SEO实践一定要科学的分析