本文实例讲述了php+mysql+sphinx+scws实现全文检索功能。分享给大家供大家参考,具体如下:
我的个人环境是php7.1+mariadb10.1.23
下载安装资源包
sphinx地址php的sphinx扩展下载scws 下载地址scws 词库下载地址安装过程
安装因为我的是php 7 版本,安装sphinx的时候遇到点问题
sphinx
[root@mevhost sphinxb]# mkdir -p /usr/local/src/sphinx[root@mevhost sphinxb]# cd /usr/local/src/sphinx [root@mevhost sphinxb]# tar -xf sphinx-2.2.11-relea.tar.gz [root@mevhost sphinxb]# cd sphinx-2.2.11-relea// 这里是指定安装的目录,还有引用mysql,(我这里是mariadb的安装目录)[root@mevhost sphinxb]# ./configure --prefix=/usr/local/sphinx2 --with-mysql=/usr/local/mariadb/[root@mevhost sphinxb]# make && make install安装
sphinx
客户端这个要安装上,不然安装php安装sphinx扩展时会出现报错
[root@mevhost sphinxb]# cd /usr/local/src/sphinx/sphinx-2.2.11-relea/api/libsphinxclient //sphinx-2.2.11-relea目录下 [root@mevhost sphinxb]# ./configure --prefix=/usr/local/sphinx2/libsphinxclient [root@mevhost sphinxb]# make && make install为php安装
sphinx
扩展[root@mevhost sphinxb]# cd /usr/local/src/sphinx[root@mevhost sphinxb]# tar zxvf sphinx-1.3.1.tgz [root@mevhost sphinxb]# cd sphinx-1.3.1 [root@mevhost sphinxb]# phpize [root@mevhost sphinxb]# ./configure --with-sphinx=/usr/local/sphinx2/libsphinxclient --with-php-config=/usr/local/php/bin/php-config [root@mevhost sphinxb]# make && make install
成功后再 php.ini 添加:
extension=sphinx.so
php7版本sphinx扩展下载
下载地址
安装scws[root@mevhost sphinxb]# tar -jxvf scws-1.2.3.tar.bz2[root@mevhost sphinxb]# mkdir /usr/local/scws [root@mevhost sphinxb]# cd scws-1.2.3 [root@mevhost sphinxb]# ./configure --prefix=/usr/local/scws/ [root@mevhost sphinxb]# make && make install为php安装scws扩展
[root@mevhost sphinxb]# cd /usr/local/src/sphinx/scws-1.2.3/phpext [root@mevhost sphinxb]# phpize [root@mevhost sphinxb]# ./configure --with-php-config=/usr/local/php/bin/php-config[root@mevhost sphinxb]# make && make install
在php.ini 加入
extension = scws.soscws.default.chart=utf-8scws.default.fpath = /usr/local/scws/etc安装scws词库
[root@mevhost sphinxb]# tar jxvf scws-dict-chs-utf8.tar.bz2 -c /usr/local/scws/etc/#www为php-fpm运行用户[root@mevhost sphinxb]# chown www:www /usr/local/scws/etc/dict.utf8.xdb
创建mysql数据源
mtest.sql
/*navicat mysql data transfersource databa : mtesttarget rver type : mysqltarget rver version : 50505file encoding : 65001date: 2017-12-10 17:47:58*/t foreign_key_checks=0;-- ------------------------------ table structure for urinfo-- ----------------------------drop table if exists `urinfo`;create table `urinfo` ( `id` int(11) unsigned not null auto_increment, `urid` int(11) unsigned not null default '0', `addtime` datetime not null, `post` varchar(20) not null default '', `summary` text not null, primary key (`id`)) engine=innodb auto_increment=21 default chart=utf8;-- ------------------------------ records of urinfo-- ----------------------------inrt into `urinfo` values ('17', '1', '2017-12-10 00:24:54', '在centos7中使用ndmail通', 'ndmail');inrt into `urinfo` values ('18', '2', '2017-12-10 10:24:54', '彻底理解php的ssion机制', 'ssion');inrt into `urinfo` values ('19', '3', '2017-12-10 12:24:54', '手把手编写自己的phpmvc框架实例教程', 'mvc');inrt into `urinfo` values ('20', '4', '2017-12-10 00:24:54', 'php获取今日、昨日、上周、本月的起始时', '时间');-- ------------------------------ table structure for urs-- ----------------------------drop table if exists `urs`;create table `urs` ( `id` int(11) unsigned not null auto_increment, `urname` varchar(20) not null default '', primary key (`id`)) engine=innodb auto_increment=5 default chart=utf8;-- ------------------------------ records of urs-- ----------------------------inrt into `urs` values ('1', 'lionee');inrt into `urs` values ('2', 'libber');inrt into `urs` values ('3', 'sysmob');inrt into `urs` values ('4', '学习');
配置sphinx
配置文件在/usr/local/sphinx2/etc
cp sphinx-min.conf.dist sphinx.conf
source urs{ type = mysql sql_host = 127.0.0.1 sql_ur = root sql_pass = 123456 sql_db = mtest sql_port = 3306 # optional, default is 3306 sql_query_pre = t names utf8 sql_query_pre = t ssion query_cache_type=off sql_query = lect a.id, a.urid,b.urname, unix_timestamp(a.addtime) as addtime, a.post, a.summary from urinfo a left join urs b on a.urid = b.id sql_attr_uint = urid sql_field_string = urname sql_field_string = post sql_attr_timestamp = addtime sql_ranged_throttle = 0 #sql_attr_uint = group_id #sql_attr_timestamp = date_added #sql_ranged_throttle = 0}source src1throttled : urs { sql_ranged_throttle = 100}index urs { source = urs path = /usr/local/sphinx2/var/data/urs docinfo = extern mlock = 0 morphology = none min_word_len = 1 html_strip = 1 chart_table = u+ff10..u+ff19->0..9, 0..9, u+ff41..u+ff5a->a..z, u+ff21..u+ff3a->a..z,a..z->a..z, a..z, u+0149, u+017f, u+0138, u+00df, u+00ff, u+00c0..u+00d6->u+00e0..u+00f6,u+00e0..u+00f6, u+00d8..u+00de->u+00f8..u+00fe, u+00f8..u+00fe, u+0100->u+0101, u+0101,u+0102->u+0103, u+0103, u+0104->u+0105, u+0105, u+0106->u+0107, u+0107, u+0108->u+0109,u+0109, u+010a->u+010b, u+010b, u+010c->u+010d, u+010d, u+010e->u+010f, u+010f,u+0110->u+0111, u+0111, u+0112->u+0113, u+0113, u+0114->u+0115, u+0115, u+0116->u+0117,u+0117, u+0118->u+0119, u+0119, u+011a->u+011b, u+011b, u+011c->u+011d, u+011d,u+011e->u+011f, u+011f, u+0130->u+0131, u+0131, u+0132->u+0133, u+0133, u+0134->u+0135,u+0135, u+0136->u+0137, u+0137, u+0139->u+013a, u+013a, u+013b->u+013c, u+013c,u+013d->u+013e, u+013e, u+013f->u+0140, u+0140, u+0141->u+0142, u+0142, u+0143->u+0144,u+0144, u+0145->u+0146, u+0146, u+0147->u+0148, u+0148, u+014a->u+014b, u+014b,u+014c->u+014d, u+014d, u+014e->u+014f, u+014f, u+0150->u+0151, u+0151, u+0152->u+0153,u+0153, u+0154->u+0155, u+0155, u+0156->u+0157, u+0157, u+0158->u+0159, u+0159,u+015a->u+015b, u+015b, u+015c->u+015d, u+015d, u+015e->u+015f, u+015f, u+0160->u+0161,u+0161, u+0162->u+0163, u+0163, u+0164->u+0165, u+0165, u+0166->u+0167, u+0167,u+0168->u+0169, u+0169, u+016a->u+016b, u+016b, u+016c->u+016d, u+016d, u+016e->u+016f,u+016f, u+0170->u+0171, u+0171, u+0172->u+0173, u+0173, u+0174->u+0175, u+0175,u+0176->u+0177, u+0177, u+0178->u+00ff, u+00ff, u+0179->u+017a, u+017a, u+017b->u+017c,u+017c, u+017d->u+017e, u+017e, u+0410..u+042f->u+0430..u+044f, u+0430..u+044f,u+05d0..u+05ea, u+0531..u+0556->u+0561..u+0586, u+0561..u+0587, u+0621..u+063a, u+01b9,u+01bf, u+0640..u+064a, u+0660..u+0669, u+066e, u+066f, u+0671..u+06d3, u+06f0..u+06ff,u+0904..u+0939, u+0958..u+095f, u+0960..u+0963, u+0966..u+096f, u+097b..u+097f,u+0985..u+09b9, u+09ce, u+09dc..u+09e3, u+09e6..u+09ef, u+0a05..u+0a39, u+0a59..u+0a5e,u+0a66..u+0a6f, u+0a85..u+0ab9, u+0ae0..u+0ae3, u+0ae6..u+0aef, u+0b05..u+0b39,u+0b5c..u+0b61, u+0b66..u+0b6f, u+0b71, u+0b85..u+0bb9, u+0be6..u+0bf2, u+0c05..u+0c39,u+0c66..u+0c6f, u+0c85..u+0cb9, u+0cde..u+0ce3, u+0ce6..u+0cef, u+0d05..u+0d39, u+0d60,u+0d61, u+0d66..u+0d6f, u+0d85..u+0dc6, u+1900..u+1938, u+1946..u+194f, u+a800..u+a805,u+a807..u+a822, u+0386->u+03b1, u+03ac->u+03b1, u+0388->u+03b5, u+03ad->u+03b5,u+0389->u+03b7, u+03ae->u+03b7, u+038a->u+03b9, u+0390->u+03b9, u+03aa->u+03b9,u+03af->u+03b9, u+03ca->u+03b9, u+038c->u+03bf, u+03cc->u+03bf, u+038e->u+03c5,u+03ab->u+03c5, u+03b0->u+03c5, u+03cb->u+03c5, u+03cd->u+03c5, u+038f->u+03c9,u+03ce->u+03c9, u+03c2->u+03c3, u+0391..u+03a1->u+03b1..u+03c1,u+03a3..u+03a9->u+03c3..u+03c9, u+03b1..u+03c1, u+03c3..u+03c9, u+0e01..u+0e2e,u+0e30..u+0e3a, u+0e40..u+0e45, u+0e47, u+0e50..u+0e59, u+a000..u+a48f, u+4e00..u+9fbf,u+3400..u+4dbf, u+20000..u+2a6df, u+f900..u+faff, u+2f800..u+2fa1f, u+2e80..u+2eff,u+2f00..u+2fdf, u+3100..u+312f, u+31a0..u+31bf, u+3040..u+309f, u+30a0..u+30ff,u+31f0..u+31ff, u+ac00..u+d7af, u+1100..u+11ff, u+3130..u+318f, u+a000..u+a48f,u+a490..u+a4cf ngram_len = 1 ngram_chars = u+4e00..u+9fbf, u+3400..u+4dbf, u+20000..u+2a6df, u+f900..u+faff,u+2f800..u+2fa1f, u+2e80..u+2eff, u+2f00..u+2fdf, u+3100..u+312f, u+31a0..u+31bf,u+3040..u+309f, u+30a0..u+30ff,u+31f0..u+31ff, u+ac00..u+d7af, u+1100..u+11ff,u+3130..u+318f, u+a000..u+a48f, u+a490..u+a4cf }common{}indexer{ mem_limit = 128m}archd{ #php listen = 9312 #mysql listen = 9306:mysql41 log = /usr/local/sphinx2/var/log/archd.log query_log = /usr/local/sphinx2/var/log/query.log query_log_format = sphinxql read_timeout = 5 client_timeout = 300 max_children = 30 persistent_connections_limit = 30 pid_file = /usr/local/sphinx2/var/log/archd.pid amless_rotate = 1 preopen_indexes = 1 unlink_old = 1 mva_updates_pool = 1m max_packet_size = 8m max_filters = 256 max_filter_values = 4096 max_batch_queries = 32 workers = threads # for rt to work}
启动sphinx
[root@mevhost ~]# pkill archd[root@mevhost ~]# /usr/local/sphinx2/bin/indexer --config /usr/local/sphinx2/etc/sphinx.conf --all [root@mevhost ~]# /usr/local/sphinx2/bin/archd --config /usr/local/sphinx2/etc/sphinx.conf
如果出现下面的报错
“oops! it ems that sphinx was built with wrong endianess (cross-compiling?)
either reconfigure and rebuild, defining ac_cv_c_bigendian=no in the environment of
./configure script,
either ensure that ‘#define u_little_endian = 1’ in config/config.h”
我是直接把sphinx下面的config/config.h 改成了他提示的这个 #define u_little_endian = 1,之后make的,
接下来的这段是我们的php代码了
<!doctype html><html lang="en"><head> <meta chart="utf-8"> <title>document</title></head><body> <form method="post" action='test.php'> <p>输入:</p> <input type="text" name="q" autocomplete="fal"> </form></body></html><?php// phpinfo();die;ini_t('display_errors','1');error_reporting(e_all);header("content-type: text/html; chart=utf-8");if($_post){$b_time = microtime(true);$key = $_post['q'];$index = "urs";//========================================分词$so = scws_new();$so->t_chart('utf-8');//默认词库$so->add_dict(ini_get('scws.default.fpath') . '/dict.utf8.xdb');//自定义词库// $so->add_dict('./dd.txt',scws_xdict_txt);//默认规则$so->t_rule(ini_get('scws.default.fpath') . '/rules.utf8.ini');//设定分词返回结果时是否去除一些特殊的标点符号$so->t_ignore(true);//设定分词返回结果时是否复式分割,如“中国人”返回“中国+人+中国人”三个词。// 按位异或的 1 | 2 | 4 | 8 分别表示: 短词 | 二元 | 主要单字 | 所有单字//1,2,4,8 分别对应常量 scws_multi_short scws_multi_duality scws_multi_zmain scws_multi_zall$so->t_multi(fal);//设定是否将闲散文字自动以二字分词法聚合$so->t_duality(fal);//设定搜索词$so->nd_text($key);$wo西游记故事rds_array = $so->get_result();$words = "";foreach($words_array as $v){ $words = $words.'|('.$v['word'].')';}//加入全词#$words = '('.$key.')'.$words;$words = trim($words,'|');$so->clo();echo '<p>输入:'.$key.'</p>'."\r\n";echo '<p>分词:'.$words.'</p>'."\r\n";//========================================搜索$sc = new sphinxclient();$sc->trver('127.0.0.1',9312);#$s安徽二本院校c->tmatchmode(sph_match_all);$sc->tmatchmode(sph_match_any);$sc->tarrayresult(true);$res = $sc->query($words,$index);echo "<hr>";echo "<pre>";print_r($res);$e_time = microtime(true);$time = $e_time - $b_time;echo $time;}exit;?>
sphinx 配置文件解析
source:数据源,数据是从什么地方来的。index:索引,当有数据源之后,从数据源处构建索引。索引实际上就是相当于一个字典检索。有了整本字典内容以后,才会有字典检索。archd:提供搜索查询服务。它一般是以deamon的形式运行在后台的。indexer:构建索引的服务。当要重新构建索引的时候,就是调用indexer这个命令。attr:属性,属性是存在索引中的,它不进行全文索引,但是可以用于过滤和排序。sphinx.conf
## 数据源src1source src1{## 说明数据源的类型。数据源的类型可以是:mysql,pgsql,mssql,xmlpipe,odbc,python## 有人会奇怪,python是一种语言怎么可以成为数据源呢?## python作为一种语言,可以操作任意其他的数据来源来获取数据,更多数据请看:(http://www.coreek.cn/products-install/python/)type = mysql## 下面是sql数据库特有的端口,用户名,密码,数据库名等。sql_host = localhostsql_ur = testsql_pass =sql_db = testsql_port = 3306## 如果是使用unix sock连接可以使用这个。# sql_sock = /tmp/mysql.sock## indexer和mysql之间的交互,需要考虑到效率和安全性。## 比如考虑到效率,他们两者之间的交互需要使用压缩协议;考虑到安全,他们两者之间的传输需要使用ssl## 那么这个参数就代表这个意思,0/32/2048/32768 无/使用压缩协议/握手后切换到ssl/mysql 4.1版本身份认证。# mysql_connect_flags = 32## 当mysql_connect_flags设置为2048(ssl)的时候,下面几个就代表ssl连接所需要使用的几个参数。# mysql_ssl_cert = /etc/ssl/client-cert.pem# mysql_ssl_key = /etc/ssl/client-key.pem# mysql_ssl_ca = /etc/ssl/cacert.pem## mssql特有,是否使用windows登陆# mssql_winauth = 1## mssql特有,是使用unicode还是单字节数据。# mssql_unicode = 1 # request unicode data from rver## odbc的dsn串# odbc_dsn = dbq=c:\data;defaultdir=c:\data;driver={microsoft text driver (*.txt; *.csv)};## sql某一列的缓冲大小,一般是针对字符串来说的。## 为什么要有这么一种缓冲呢?## 有的字符串,虽然长度很长,但是实际上并没有使用那么长的字符,所以在sphinx并不会收录所有的字符,而是给每个属性一个缓存作为长度限制。## 默认情况下非字符类型的属性是1kb,字符类型的属性是1mb。## 而如果想要配置这个buffer的话,就可以在这里进行配置了。# sql_column_buffers = content=12m, comments=1m## indexer的sql执行前需要执行的操作。# sq月亮绕着地球转l_query_pre = t names utf8# sql_query_pre = t ssion query_cache_type=off## indexer的sql执行语句sql_query = \lect id, group_id, unix_timestamp(date_added) as date_added, title, content \from documents## 有的时候有多个表,我们想要查询的字段在其他表中。这个时候就需要对sql_query进行join操作。## 而这个join操作可能非常慢,导致建立索引的时候特别慢,那么这个时候,就可以考虑在sphinx端进行join操作了。## sql_joined_field是增加一个字段,这个字段是从其他表查询中查询出来的。## 这里封号后面的查询语句是有要求的,如果是query,则返回id和查询字段,如果是payload-query,则返回id,查询字段和权重。## 并且这里的后一个查询需要按照id进行升序排列。# sql_joined_field = tags from query; lect docid, concat('tag',tagid) from tags order by docid asc# sql_joined_field = wtags from payload-query; lect docid, tag, tagweight from tags order by docid asc## 外部文件字段,意思就是一个表中,有一个字段存的是外部文件地址,但是实际的字段内容在文件中。比如这个字段叫做content_file_path。## 当indexer建立索引的时候,查到这个字段,就读取这个文件地址,然后加载,并进行分词和索引建立等操作。# sql_file_field = content_file_path## 当数据源数据太大的时候,一个sql语句查询下来往往很有可能锁表等操作。## 那么我么就可以使用多次查询,那么这个多次查询就需要有个范围和步长,sql_query_range和sql_range_step就是做这个使用的。## 获取最大和最小的id,然后根据步长来获取数据。比如下面的例子,如果有4500条数据,这个表建立索引的时候就会进行5次sql查询。 ## 而5次sql查询每次的间隔时间是使用sql_ranged_rhrottle来进行设置的。单位是毫秒。# sql_query_range = lect min(id),max(id) from documents# sql_range_step = 1000# sql_ranged_throttle = 0## 下面都是些不同属性的数据了## 先要了解属性的概念:属性是存在索引中的,它不进行全文索引,但是可以用于过滤和排序。## uint无符号整型属性sql_attr_uint = group_id## bool属性# sql_attr_bool = is_deleted## 长整型属性# sql_attr_bigint = my_bigint_id## 时间戳属性,经常被用于做排序sql_attr_timestamp = date_added## 字符串排序属性。一般我们按照字符串排序的话,我们会将这个字符串存下来进入到索引中,然后在查询的时候比较索引中得字符大小进行排序。## 但是这个时候索引就会很大,于是我们就想到了一个方法,我们在建立索引的时候,先将字符串值从数据库中取出,暂存,排序。## 然后给排序后的数组分配一个序号,然后在建立索引的时候,就将这个序号存入到索引中去。这样在查询的时候也就能完成字符串排序的操作。## 这,就是这个字段的意义。# sql_attr_str2ordinal = author_name## 浮点数属性,经常在查询地理经纬度的时候会用到。# sql_attr_float = lat_radians# sql_attr_float = long_radians## 多值属性(mva)## 试想一下,有一个文章系统,每篇文章都有多个标签,这个文章就叫做多值属性。## 我要对某个标签进行查询过滤,那么在建立查询的时候就应该把这个标签的值放入到索引中。## 这个字段,sql_attr_multi就是用来做这个事情的。# sql_attr_multi = uint tag from query; lect docid, tagid from tags# sql_attr_multi = uint tag from ranged-query; \# lect docid, tagid from tags where id>=$start and id<=$end; \# lect min(docid), max(docid) from tags## 字符串属性。# sql_attr_string = stitle## 文档词汇数记录属性。比如下面就是在索引建立的时候增加一个词汇数的字段# sql_attr_str2wordcount = stitle## 字符串字段,可全文搜索,可返回原始文本信息。# sql_field_string = author## 文档词汇数记录字段,可全文搜索,可返回原始信息# sql_field_str2wordcount = title## 取后查询,在sql_query执行后立即操作。## 它和sql_query_post_index的区别就是执行时间不同## sql_query_post是在sql_query执行后执行,而sql_query_post_index是在索引建立完成后才执行。## 所以如果要记录最后索引执行时间,那么应该在sql_query_post_index中执行。# sql_query_post =## 参考sql_query_post的说明。# sql_query_post_index = replace into counters ( id, val ) \# values ( 'max_indexed_id', $maxid )## 命令行获取信息查询。## 什么意思呢?## 我们进行索引一般只会返回主键id,而不会返回表中的所有字段。## 但是在调试的时候,我们一般需要返回表中的字段,那这个时候,就需要使用sql_query_info。## 同时这个字段只在控制台有效,在api中是无效的。sql_quefamiliarry_info = lect * from documents where id=$id## 比如有两个索引,一个索引比较旧,一个索引比较新,那么旧索引中就会有数据是旧的。## 当我要对两个索引进行搜索的时候,哪些数据要按照新的索引来进行查询呢。## 这个时候就使用到了这个字段了。## 这里的例子(http://www.coreek.cn/docs/coreek_4.1-sphinx_2.0.1-beta.html#conf-sql-query-killlist)给的非常清晰了。# sql_query_killlist = lect id from documents where edited>=@last_reindex## 下面几个压缩解压的配置都是为了一个目的:让索引重建的时候不要影响数据库的性能表现。## sql数据源解压字段设置# unpack_zlib = zlib_column## mysql数据源解压字段设置# unpack_mysqlcompress = compresd_column# unpack_mysqlcompress = compresd_column_2## mysql数据源解压缓冲区设置# unpack_mysqlcompress_max英语议论文范文size = 16m## xmlpipe的数据源就是一个xml文档# type = xmlpipe## 读取数据源的命令# xmlpipe_command = cat /home/yejianfeng/instance/coreek/var/test.xml## 字段# xmlpipe_field = subject# xmlpipe_field = content## 属性# xmlpipe_attr_timestamp = published# xmlpipe_attr_uint = author_id## utf-8修复设置## 只适用xmlpipe2数据源,数据源中有可能有非utf-8的字符,这个时候解析就有可能出现问题## 如果设置了这个字段,非utf-8序列就会全部被替换为空格。# xmlpipe_fixup_utf8 = 1}## sphinx的source是有继承这么一种属性的,意思就是除了父source之外,这个source还有这个特性source src1throttled : src1{sql_ranged_throttle = 100}## 索引test1index test1{## 索引类型,包括有plain,distributed和rt。分别是普通索引/分布式索引/增量索引。默认是plain。# type = plain## 索引数据源source = src1## 索引文件存放路径path = /home/yejianfeng/instance/coreek/var/data/test1## 文档信息的存储模式,包括有none,extern,inline。默认是extern。## docinfo指的就是数据的所有属性(field)构成的一个集合。## 首先文档id是存储在一个文件中的(spa)## 当使用inline的时候,文档的属性和文件的id都是存放在spa中的,所以进行查询过滤的时候,不需要进行额外操作。## 当使用extern的时候,文档的属性是存放在另外一个文件(spd)中的,但是当启动archd的时候,会把这个文件加载到内存中。## extern就意味着每次做查询过滤的时候,除了查找文档id之外,还需要去内存中根据属性进行过滤。## 但是即使这样,extern由于文件大小小,效率也不低。所以不是有特殊要求,一般都是使用externdocinfo = extern## 缓冲内存锁定。## archd会讲spa和spi预读取到内存中。但是如果这部分内存数据长时间没有访问,则它会被交换到磁盘上。## 设置了mlock就不会出现这个问题,这部分数据会一直存放在内存中的。mlock = 0## 词形处理器## 词形处理是什么意思呢?比如在英语中,dogs是dog的复数,所以dog是dogs的词干,这两个实际上是同一个词。## 所以英语的词形处理器会讲dogs当做dog来进行处理。morphology = none## 词形处理有的时候会有问题,比如将gps处理成gp,这个设置可以允许根据词的长度来决定是否要使用词形处理器。# min_stemming_len = 1## 词形处理后是否还要检索原词?# index_exact_words = 1## 停止词,停止词是不被索引的词。# stopwords = /home/yejianfeng/instance/coreek/var/data/stopwords.txt## 自定义词形字典# wordforms = /home/yejianfeng/instance/coreek/var/data/wordforms.txt## 词汇特殊处理。## 有的一些特殊词我们希望把它当成另外一个词来处理。比如,c++ => cplusplus来处理。# exceptions = /home/yejianfeng/instance/coreek/var/data/exceptions.txt## 最小索引词长度,小于这个长度的词不会被索引。min_word_len = 1## 字符集编码类型,可以为sbcs,utf-8。对于coreek,还可以有zh_cn.utf-8,zh_ch.gbk,zh_ch.big5chart_type = sbcs## 字符表和大小写转换规则。对于coreek,这个字段无效。# 'sbcs' default value is# chart_table = 0..9, a..z->a..z, _, a..z, u+a8->u+b8, u+b8, u+c0..u+df->u+e0..u+ff, u+e0..u+ff## 'utf-8' default value is# chart_table = 0..9, a..z->a..z, _, a..z, u+410..u+42f->u+430..u+44f, u+430..u+44f## 忽略字符表。在忽略字符表中的前后词会被连起来当做一个单独关键词处理。# ignore_chars = u+00ad## 是否启用通配符,默认为0,不启用# enable_star = 1## min_prefix_len,min_infix_len,prefix_fields,infix_fields都是在enable_star开启的时候才有效果。## 最小前缀索引长度## 为什么要有这个配置项呢?## 首先这个是当启用通配符配置启用的前提下说的,前缀索引使得一个关键词产生了多个索引项,导致索引文件体积和搜索时间增加巨大。## 那么我们就有必要限制下前缀索引的前缀长度,比如example,当前缀索引长度设置为5的时候,它只会分解为exampl,example了。# min_prefix_len = 0## 最小索引中缀长度。理解同上。# min_infix_len = 0## 前缀索引和中缀索引字段列表。并不是所有的字段都需要进行前缀和中缀索引。# prefix_fields = filename# infix_fields = url, domain## 词汇展开## 是否尽可能展开关键字的精确格式或者型号形式# expand_keywords = 1## n-gram索引的分词技术## n-gram是指不按照词典,而是按照字长来分词,这个主要是针对非英文体系的一些语言来做的(中文、韩文、日文)## 对coreek来说,这两个配置项可以忽略。# ngram_len = 1# ngram_chars = u+3000..u+2fa1f## 词组边界符列表和步长## 哪些字符被看做分隔不同词组的边界。# phra_boundary = ., ?, !, u+2026 # horizontal ellipsis# phra_boundary_step = 100## 混合字符列表# blend_chars = +, &, u+23# blend_mode = trim_tail, skip_pure## html标记清理,是否从输出全文数据中去除html标记。html_strip = 0## html标记属性索引设置。# html_index_attrs = img=alt,title; a=title;## 需要清理的html元素# html_remove_elements = style, script## archd是预先打开全部索引还是每次查询再打开索引。# preopen = 1## 字典文件是保持在磁盘上还是将他预先缓冲在内存中。# ondisk_dict = 1## 由于在索引建立的时候,需要建立临时文件和和副本,还有旧的索引## 这个时候磁盘使用量会暴增,于是有个方法是临时文件重复利用## 这个配置会极大减少建立索引时候的磁盘压力,代价是索引建立速度变慢。# inplace_enable = 1# inplace_hit_gap = 0 # preallocated hitlist gap size# inplace_docinfo_gap = 0 # preallocated docinfo gap size# inplace_reloc_factor = 0.1 # relocation buffer size within arena# inplace_write_factor = 0.1 # write buffer size within arena## 在经过过短的位置后增加位置值# overshort_step = 1## 在经过 停用词 处后增加位置值# stopword_step = 1## 位置忽略词汇列表# hitless_words = all# hitless_words = hitless.txt## 是否检测并索引句子和段落边界# index_sp = 1## 字段内需要索引的html/xml区域的标签列表# index_zones = title, h*, th}index test1stemmed : test1{path = /home/yejianfeng/instance/coreek/var/data/test1stemmedmorphology = stem_en}index dist1{type = distributedlocal = test1local = test1stemmed## 分布式索引(distributed index)中的远程代理和索引声明agent = localhost:9313:remote1agent = localhost:9314:remote2,remote3# agent = /var/run/archd.sock:remote4## 分布式索引( distributed index)中声明远程黑洞代理# agent_blackhole = testbox:9312:testindex1,testindex2## 远程代理的连接超时时间agent_connect_timeout = 1000## 远程查询超时时间agent_query_timeout = 3000}index rt{type = rtpath = /home/yejianfeng/instance/coreek/var/data/rt## rt索引内存限制# rt_mem_limit = 512m## 全文字段定义rt_field = titlert_field = content## 无符号整数属性定义rt_attr_uint = gid## 各种属性定义# rt_attr_bigint = guid# rt_attr_float = gpa# rt_attr_timestamp = ts_added# rt_attr_string = author}indexer{## 建立索引的时候,索引内存限制mem_limit = 32m## 每秒最大i/o操作次数,用于限制i/o操作# max_iops = 40## 最大允许的i/o操作大小,以字节为单位,用于i/o节流# max_iosize = 1048576## 对于xmllpipe2数据源允许的最大的字段大小,以字节为单位# max_xmlpipe2_field = 4m## 写缓冲区的大小,单位是字节# write_buffer = 1m## 文件字段可用的最大缓冲区大小,字节为单位# max_file_field_buffer = 32m}## 搜索服务配置archd{# listen = 127.0.0.1# listen = 192.168.0.1:9312# listen = 9312# listen = /var/run/archd.sock## 监听端口listen = 9312listen = 9306:mysql41## 监听日志log = /home/yejianfeng/instance/coreek/var/log/archd.log## 查询日志query_log = /home/yejianfeng/instance/coreek/var/log/query.log## 客户端读超时时间 read_timeout = 5## 客户端持久连接超时时间,即客户端读一次以后,持久连接,然后再读一次。中间这个持久连接的时间。client_timeout = 300## 并行执行搜索的数目max_children = 30## 进程id文件pid_file = /home/yejianfeng/instance/coreek/var/log/archd.pid## 守护进程在内存中为每个索引所保持并返回给客户端的匹配数目的最大值max_matches = 1000## 无缝轮转。防止 archd 轮换在需要预取大量数据的索引时停止响应## 当进行索引轮换的时候,可能需要消耗大量的时间在轮换索引上。## 但是启动了无缝轮转,就以消耗内存为代价减少轮转的时间amless_rotate = 1## 索引预开启,是否强制重新打开所有索引文件preopen_indexes = 1## 索引轮换成功之后,是否删除以.old为扩展名的索引拷贝unlink_old = 1## 属性刷新周期## 就是使用updateattributes()更新的文档属性每隔多少时间写回到磁盘中。# attr_flush_period = 900## 索引字典存储方式# ondisk_dict_default = 1## 用于多值属性mva更新的存储空间的内存共享池大小mva_updates_pool = 1m## 网络通讯时允许的最大的包的大小max_packet_size = 8m## 崩溃日志文件# crash_log_path = /home/yejianfeng/instance/coreek/var/log/crash## 每次查询允许设置的过滤器的最大个数max_filters = 256## 单个过滤器允许的值的最大个数max_filter_values = 4096## tcp监听待处理队列长度# listen_backlog = 5## 每个关键字的读缓冲区的大小# read_buffer = 256k## 无匹配时读操作的大小# read_unhinted = 32k## 每次批量查询的查询数限制max_batch_queries = 32## 每个查询的公共子树文档缓存大小# subtree_docs_cache = 4m## 每个查询的公共子树命中缓存大小# subtree_hits_cache = 8m## 多处理模式(mpm)。 可选项;可用值为none、fork、prefork,以及threads。 默认在unix类系统为form,windows系统为threads。workers = threads # for rt to work## 并发查询线程数# dist_threads = 4## 二进制日志路径# binlog_path = # disable logging# binlog_path = /home/yejianfeng/instance/coreek/var/data # binlog.001 etc will be created there## 二进制日志刷新# binlog_flush = 2## 二进制日志大小限制# binlog_max_log_size = 256m## 线程堆栈# thread_stack = 128k## 关键字展开限制# expansion_limit = 1000## rt索引刷新周期 # rt_flush_period = 900## 查询日志格式## 可选项,可用值为plain、sphinxql,默认为plain。 # query_log_format = sphinxql## mysql版本设置# mysql_version_string = 5.0.37## 插件目录# plugin_dir = /usr/local/sphinx/lib## 服务端默认字符集# collation_rver = utf8_general_ci## 服务端libc字符集# collation_libc_locale = ru_ru.utf-8## 线程服务看守# watchdog = 1## 兼容模式# compat_sphinxql_magics = 1}
本文发布于:2023-04-07 14:01:45,感谢您对本站的认可!
本文链接:https://www.wtabcd.cn/fanwen/zuowen/0685796273156d8ab35cc6dad4356405.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文word下载地址:PHP+MySQL+sphinx+scws实现全文检索功能详解.doc
本文 PDF 下载地址:PHP+MySQL+sphinx+scws实现全文检索功能详解.pdf
留言与评论(共有 0 条评论) |