找回密码
 注册
广告投放 虚位以待【阿里云】2核2G云新老同享 99元/年,续费同价做网站就用糖果主机-sugarhosts.comJtti.com-新加坡服务器,美国服务器,香港服务器
查看: 309|回复: 0

最近我研究 全文搜索引擎的心得

[复制链接]
发表于 2006 年 5 月 24 日 16:41:23 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册

×
最近我研究 全文搜索引擎的心得
研究心得:
1、看到网上那么多人在研究: Google的Page Rank我很心痛 ,我就看了两天Page Rank的资料,就明白它哪个算法基本上没有任何实用价值。其实只是一个思路而已,如果完全照搬它的算法,那将一事无成。
2、还有很多人研究什么Java中的Luncece那就更可笑了,我就举一个很简单的问题:一亿网页的容量有多大,谁能告诉我?
     接近 1万G呀,所以用普通编程的思路做全文搜索引擎是行不通的 。
3、还有很多人研究中文分词,写了很长的文章,却只字不提中文分词在搜索引擎中的作用和用途。其实应该是两不分: A、用来计算关键字在文本中出现的次数 B、用来查询的。
4、还有很多人问那些信息是如何保存的,其实很简单:文件 数据库
最后我要说一下总体思路:
  抓取----然后---预处理----然后索引---然后----保密
预处理: 包括计算 rank 将htm文件中的htm表示提取纯文本信息 ,然后保存对应的文本信息
数据库中只保存 文件编号 url Rank  Title 纯文本信息等基本信息
然后索引  索引很重要么?  答案是:索引不是非常重要  
主要是 "保密" 这部分的运算
运算之后就可以直接将结果返回给客户端了  
用我的新研究的方法进行运算取得结果用时在 1秒以内   

以上是我研究的一些心得,希望对大家有所帮助。

也许有人会问,那你用什么语言开发?
当然用 C、C   最好,其次是用Delphi开发 ,这样不但效率高,还可以保证程序在Linux下照样可以执行。

最后也许还有人回问,蜘蛛的效率如何,你写过没有?
答案是:我正在写,下面是一个网友对我的小蜘蛛进行的评测:
=========================================
▄【┻┳═一(99923309) 12:05:57
思鱼给他们讲讲我的 蜘蛛  
思鱼(20275543) 12:02:50
我在家里测试了一下
  
思鱼(20275543) 12:03:00
很不错
  
思鱼(20275543) 12:03:10
和摆渡前几年的一样   
============================
根据我自己的测试,我电脑的配置(P4 512MB内存 40G硬盘 512K的带宽)一天可以抓取 10万个网页,而且每个网页的大小限制在 100K以内,Baidu目前每个网页的大小限制在 130K以内。

最后,我已经收集了100万个国内的一级域名.

有兴趣的可以一起聊聊啊!

mailto:erp2@163.com'>erp2@163.com
   
http://www.519so.com
www.519so.com
  是我花了两周时间做的一个小测试服务器的内存是 512MB

QQ:99923309
Jgwy.Com - Free Web Hosting Guide & Directory In China since 2001! Jgwy.Net-Jglt.Net
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|金光论坛

GMT+8, 2025 年 2 月 3 日 00:08 , Processed in 0.017854 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表