时间:2021-07-01 10:21:17 帮助过:30人阅读
拆成数组为何不好,英文入数组很方便啊,起码比中文简单多了
其实不太明白你的需求,纯粹统计 array_count_values 足够方便了
就是说你已经有了一个词库,现在需要在文章里检查词库词的出现次数
如果是的,那么可以使用 trie 算法(我发过的)
只需扫描文章一遍就可以了,当然要先构造词库
就是说你已经有了一个词库,现在需要在文章里检查词库词的出现次数
如果是的,那么可以使用 trie 算法(我发过的)
只需扫描文章一遍就可以了,当然要先构造词库
词库保存为什么格式比较好?mysql,json,xml,纯数组?
如果一篇文章有5kb,词库有1000个单词,那么把这1000个单词逐个foreach,匹配这篇文章,
mysql_query,
json_decode()
simplexml_load_file()
数组
哪个效率更高,更节省资源(CPU,RAM)?
5kb不太可能有1000个单词,全部都是冠词?
即使1000个,量也不算很大,去除重复应该就少很多了,一次数组交集就够了
我的思路是文章拆分为单词数组,array_count_values 就起到统计和去除重复两个功能
然后提取次数一定的部分(次数太少没匹配意义吧?),那剩下就很少了,再与现存词库求交集就足够了
虽然楼主是专指英文词汇,但是你的算法若只限于英文词汇的话,那就没有什么意义了
5kb不太可能有1000个单词,全部都是冠词?
即使1000个,量也不算很大,去除重复应该就少很多了,一次数组交集就够了
我的思路是文章拆分为单词数组,array_count_values 就起到统计和去除重复两个功能
然后提取次数一定的部分(次数太少没匹配意义吧?),那剩下就很少了,再与现存词库求交集就足够了
你说的也有道理
只是我觉得简单问题简单处理,他既然说英文,就按这样去想,没必要太花时间考虑算法
如果他说混杂多语种,估计我也只是旁观不会回这贴了,呵呵
虽然楼主是专指英文词汇,但是你的算法若只限于英文词汇的话,那就没有什么意义了
引用 4 楼 snmr_com 的回复:5kb不太可能有1000个单词,全部都是冠词?
即使1000个,量也不算很大,去除重复应该就少很多了,一次数组交集就够了
我的思路是文章拆分为单词数组,array_count_values 就起到统计和去除重复两个功能
然后提取次数……
版本给的前缀树怎么也没看懂,暂时先选择了多次扫描文章来实现
一个简单的例子
include 'TTrie.php';class wordkey extends TTrie { function b() { $t = array_pop($this->buffer); $this->buffer[] = "$t"; }}$p = new wordkey;$p->set('秦始皇', 'b');$p->set('洛阳', 'b');$t = $p->match('秦始皇东巡洛阳');echo join('', $t);秦始皇东巡洛阳