时间:2021-07-01 10:21:17 帮助过:3人阅读
首先放代码
function NB(data) { this.fc = {}; //记录特征的数量 feature conut 例如 {a:{yes:5,no:2},b:{yes:1,no:6}} this.cc = {}; //记录分类的数量 category conut 例如 {yes:6,no:8} } NB.prototype = { infc(w, cls) { //插入新特征值 if (!this.fc[w]) this.fc[w] = {}; if (!this.fc[w][cls]) this.fc[w][cls] = 0; this.fc[w][cls] += 1; }, incc(cls) { //插入新分类 if (!this.cc[cls]) this.cc[cls] = 0; this.cc[cls] += 1; }, allco() { //计算分类总数 all count var t = 0; for (var k in this.cc) t += this.cc[k]; return t; }, fprob(w, ct) { //特征标识概率 if (Object.keys(this.fc).indexOf(w) >= 0) { if (Object.keys(this.fc[w]).indexOf(ct) < 0) { this.fc[w][ct] = 0 } var c = parseFloat(this.fc[w][ct]); return c / this.cc[ct]; } else { return 0.0; } }, cprob(c) { //分类概率 return parseFloat(this.cc[c] / this.allco()); }, train(data, cls) { //参数:学习的Array,标识类型(Yes|No) for (var w of data) this.infc(String(w), cls); this.incc(cls); }, test(data) { var ccp = {}; //P(类别) var fccp = {}; //P(特征|类别) for (var k in this.cc) ccp[k] = this.cprob(k); for (var i of data) { i = String(i); if (!i) continue; if (Object.keys(this.fc).indexOf(i)) { for (var k in ccp) { if (!fccp[k]) fccp[k] = 1; fccp[k] *= this.fprob(i, k); //P(特征1|类别1)*P(特征2|类别1)*P(特征3|类别1)... } } } var tmpk = ""; for (var k in ccp) { ccp[k] = ccp[k] * fccp[k]; if (!tmpk) tmpk = k; if (ccp[k] > ccp[tmpk]) tmpk = k; } return tmpk; } };
预测功能就要用到朴素贝叶斯算法
首先来看,贝叶斯公式:
可能你看不懂公式或看懂公式不知道公式怎么用
那我来简单的翻译一下:
P( Category |Feature) = P ( Feature | Category ) * P( Category)/ P(Feature)
其实也是就是:
P(类别|特征)=P(特征|类别)*P(类别)/p(特征)
所以我们只要计算以下数据即可:
P(特征|类别)
P(类别)
p(特征)
假设两个类别,分别是类别1,与类别2
那么类别总次数就是两个类别出现次数总和
加上可能我们输入的特征有多个假设就3个把那么也简单:
P((特征1、特征2、特征3)|类别1)= P(特征1|类别1)*P(特征2|类别1)*P(特征3|类别1)
P(类别1)=类别1的次数/(类别总数)
P(特征1、特征2、特征3)=P(特征1)*P(特征2)*P(特征3)
因为根据公式我们知道:
P(类别1|特征)=P(特征|类别1)*P(类别1)/p(特征)
P(类别2|特征)=P(特征|类别2)*P(类别2)/p(特征)
刚好p(特征)为分母所以如果比较P(类别1|特征)与P(类别2|特征)的概率
只要比较P(特征|类别1)*P(类别1)与 P(特征|类别2)*P(类别2)的大小就行了
相信看了本文案例你已经掌握了方法,更多精彩请关注Gxl网其它相关文章!
相关阅读:
如何使用canvas来制作好用的涂鸦画板
如何使用s-xlsx之合并单元格
以上就是JS实现贝叶斯分类器的详细内容,更多请关注Gxl网其它相关文章!