不确定性推理概述

4.1.1 不确定推理的概念

所谓推理就是从已知事实出发,运用相关知识(或规则)逐步推出结论或证明某个假设成立或不成立的思维过程。其中已知事实和知识(规则)是构成推理的两个基本要素。已知事实是推理过程的出发点,把它称为证据

4.1.2 不确定性推理方法的分类

可信度方法、主观Bayes方法、证据理论 都是在概率论的基础上发展起来的不确定性推理方法。

4.1.3 不确定性推理

知识库是人工智能的核心,而知识库中的知识既有规律性的一般原理,又有大量的不完全的专家知识,即知识带有模糊性、随机性、不可靠或不知道不确定因素。世界上几乎没有什么事情是完全确定的。不确定性推理即是通过某种推理得到问题的精确判断。

(1)不确定性问题的代数模型

一个问题的代数模型由论域、运算和公理组成。建立不确定性问题模型必须说明不确定知识的表示计算、与语义解释

  • 不确定性的表示问题:指用什么方法描述不确定性,通常有数值和非数值的语义表示方法。数值表示便于计算,比较,再考虑到定性的非数值描述才能较好的解决不确定性问题。例如对规则A->B(即A真能推导B真)和命题(或称证据、事实)A,分别用f(B,A)来表示不确定性度量。
  • 推理计算问题:指不确定性的传播和更新,也即获得新的信息的过程。包括:

    ①已知C(A),A->B,f(B,A),如何计算C(B)

    ②证据A的原度量值为C1(A),又得C2(A),如何确定C(A)

    ③如何由C(A1)和C(A2)来计算C(A1∧A2),C(A1∨A2)等。

    一般初始命题/规则的不确定性度量常常由有关领域的专家主观确定。

  • 语义问题:是指上述表示和计算的含义是什么?即对它们进行解释,概率方法可以较好地回答这个问题,例如f(B,A)可理解为前提A为真时对结论B为真的一种影响程度,C(A)可理解为A为真的程度。特别关心的是f(B,A)的值是:

    ①A真则B真,这时f(B,A)=?
    ②A真则B假,这时f(B,A)=?
    ③A对B没有影响时,这时f(B,A)=?

    对C(A)关心的值是

    ①A真时,C(A)=?
    ②A假时,C(A)=?
    ③对A一无所知时,C(A)=?

(2)不确定推理方法的分类

不确定推理方法在人工智能系统中通常是不够严谨的,但尚能解决某些实际问题,符合人类专家的直觉,在概率上也可给出某种解释。

不确定性推理模型没有一个统一的模型,种类不计其数,其中比较著名的有:

  • Shortliffe在1975年结合医疗专家系统MYCIN建立的确定性理论
  • Duda在1976年结合探矿专家系统PROSPECTOR建立的主观Bayes推理
  • Dempster Shafer在1976年提出的证据理论
  • Zadeh在1978年提出的可能性理论,1983年提出的模糊逻辑和逻辑推理
  • Nilsson在1986年提出的概率逻辑
  • Pearl在1986年提出的信任网络

4.2 可信度方法

在以产生式作为知识表示的MYCIN系统中,第一次使用了不确定推理方法,给出了可信度作为不确定性的度量。

1.规则的不确定性度量

规则以A->B表示,其中前提A可以是一些命题的合取,引入可信度CF(B,A)作为规则A->B的不确定性度量。其中引入P(B)表示结论B为真的概率,P(B|A)表示在规则A->B,证据A为真的作用下结论B为真的概率。则可信度

CF(B,A)表示证据A为真时,相对于P(~B)=1-P(B)来说A对B为真的支持程度(当CF(B,A)≥0),或相对于P(B)来说A对B为真的不支持程度(当CF(B,A)<0)。以上定义保证了-1≤CF(B,A)≤1。
当P(B,A)-P(B)相同时,P(B)小的CF小,P(B)大的CF大。

可以看出规则的可信度CF(B,A)的几个特殊值:

  • 前提A为真,结论B必真时,由于P(B|A)=1,故由上式知CF(B,A)=1;
  • 前提A与结论B无关时,由于P(B|A)=P(B),故由上式知CF(B,A)=0;
  • 前提A真结论B必假的情形,由于P(B,A)=0,故由上式知CF(B,A)=-1;

显然CF(B,A)≥0表示前提A真支持B真。CF(B,A)<0表示前提A真不支持B真。

CF(B,A)的定义借用了概率,但它本身并不是概率,因为CF(B,A)可取负值(概率>=0),另外CF(B,A)+CF(B,~A)不必为1(而P(A)+P(~A)=1),甚至可能为0。

值得注意的是,在实际的应用中CF(B,A)的值是由专家根据经验知识主观确定的,并不是由P(B)和P(B,A)计算出来的。

2.证据的不确定性度量

证据A的不确定性也可以用CF(A)表示,同样规定-1≤CF(A)≤1,几个特殊值规定为:

  • A肯定为真时,CF(A)=1;
  • A肯定为假时,CF(A)=-1;
  • 对证据A一无所知时,CF(A)=0;

CF(A)>0,则CF(A)表示证据A为真的程度;

CF(A)<0, 则CF(A)表示证据A为假的程度;

同样要注意的是:初始证据的CF值由专家主观提供,其它证据的CF值由规则的CF值和初始证据的CF值经过推理求得。

3.推理计算

(1)已知CF(A),规则A->B,CF(B,A)求CF(B)。

推理计算:CF(B)=CF(B,A)·max{0,CF(A)} --------------------公式①

(2)规定:

CF(~A)=-CF(A) ----------------------------------公式②

CF(A1∧A2)=min{CF(A1),CF(A2)} ------------------公式③

CF(A1∨A2)=max{CF(A1),CF(A2)} ------------------公式④

(3)由规则A1->B求得CF(B),又使用规则A2->B,如何更新CF(B)。或者说已知CF(A1),CF(A2)以及CF(B,A1)和CF(B,A2)来寻求合成的CF(B)。

计算方法:

由规则A1->B,CF(B,A1),CF(A1),根据(1)求得CF1(B)=CF(B,A1)·max{0,CF(A1)}

由规则A2->B,CF(B,A2),CF(A2),根据(1)求得CF2(B)=CF(B,A2)·max{0,CF(A2)}

则最后更新的CF(B)可由下式求得:

---------------------公式⑤

CF(B)的更新计算,也可以这样理解:已知CF(A),A->B,CF(B,A),而B原来的可信度为CF(B),来求B的可信度更新值CF(B|A)。这时上面的计算公式可写成:

当CF(A)=1(证据A肯定为真),根据公式①,CF'(B)=CF(B,A)·max{0,CF(A)}=CF(B,A)·max{0,1}=CF(B,A),B原来的可信度为CF(B),根据公式⑤得到最后的B的可信度:

---------------公式⑥

CF(A)<1(证据A也是不确定的),这时CF(B|A)必然比CF(A)=1时的CF(B|A)来的小。若CF(A)>0,可以CF(B,A)·CF(A)作为对规则A→B的可信度,而CF(B|A)的计算仍可用CF=1时的公式⑥。

CF(A)<0时,规则A→B可不使用,像医疗专家系统MYCIN规定证据A的可信度CF(A)<=0.2,就认为规则A→B不可使用。

举例:已知一组规则和证据(事实):

R1:A1->B1,CF(B1,A1)=0.8

R2:A2->B1,CF(B1,A2)=0.5

R3:B1∧A3->B2,CF(B2,B1∧A3)=0.8

初始证据A1,A2,A3,并且CF(A1)=CF(A2)=CF(A3)=1, 并且初始时对B1,B2一无所知。规则R1,R2,R3作用下求证据B1,B2的可信度更新值CF(B1),CF(B2)。

解:根据规则R1,由公式⑥得:CF(B1|A1)=0+0.8*(1-0)=0.8;

根据规则R2,由公式⑥得:CF(B1|A1|A2)=0.8+0.5*(1-0.8)=0.9

所以CF(B1)的最后更新值为0.9

下面求B2的最后更新值:

根据规则R3。CF(B1∧A3)= min{CF(B1),CF(A3)}=min{0.9,1}=0.9

而规则B1∧A3->B2的前提CF(B1∧A3)≠1,根据公式6的说明求CF(B2,B1∧A3)·CF(B1∧A3)=0.8*0.9=0.72

再根据公式6求得CF(B2|B1∧A3)=0+0.72(1-0)=0.72

所以CF(B2)的最后更新值为0.72

举例:设有一组知识:

R1:IF E1 THEN H CF(H,E1)=0.8

R2:IF E2 THEN H CF(H,E2)=0.6

R3:IF E3 THEN H CF(H,E3)=-0.5

R4:IF E4∧(E5∨E6) THEN E1 CF(E1,E4∧(E5∨E6))=0.7

R5:IF E7∧E8 THEN E3 CF(E3,E7∧E8)=0.9

已知:CF(E2)=0.8,CF(E4)=0.5,CF(E5)=0.6,CF(E6)=0.7,CF(E7)=0.6,CF(E8)=0.9,求CF(H)=?

解:由已知知识建立的规则树:

根据规则R4以及公式(1):

CF(E1)=0.7*max{0,CF((E4)∧(E5∨E6))}=0.7*max{0,min{0.5,max{CF(E5),CF(E6)}}}=0.7*max{0,min{0.5,max{0.6,0.7}}}=0.35

根据规则R5以及公式(1):

CF(E3)=0.9*MAX{0,CF(E7∧E8)}=0.9*MAX{0,MIN{CF(E7),CF(E8)}}=0.54

根据规则R1以及公式(1):

CF1(H)=CF(H,E1)*MAX{0,CF(E1)}=0.8*0.35=0.28

同样根据规则R2,R3以及公式(1)

CF2(H)=0.6*0.8=0.48

CF3(H)=-0.5*0.54=-0.27

根据公式(5):

CF1,2(H)=0.28+0.48-0.28*0.48=0.6256

由于CF1,2(H)与CF3(H)异号,所以使用公式(5)的第三部分:

CF1,2,3(H)=(0.6256+(-0.27))/(1-0.27)=0.49

4.3 主观Bayes方法

在PROSPECTOR探矿专家系统中,采用了主观Bayes方法来度量不确定性。引入两个数值(LS,LN)来作度量,LS表现规则A->B成立的充分性,LN表现规则A->B成立的必要性。也就是说LS表现规则A->B,A为真时对B为真的支持程度,LN表现了A不为真(~A)对B为真的支持程度。

1.对规则的不确定性度量

对规则A->B的不确定性CF(B,A)以(LS,LN)来描述。

……(公式3.3.1)

分析LS、LN的意义。建立几率函数

,……(公式3.3.2)表示事实X为真的概率与X为假的概率之比,显然P(X)的越大O(X)也加大,而且:

P(X)=0,O(X)=0

P(X)=1,O(X)=∞

根据公式3.3.1和公式3.3.2可以推导出:

O(B|A)=LS·O(B)…………………………(公式3.3.3)也即:

O(B|~A)=LN·O(B)…………………………(公式3.3.4)也即:

由这两个公式,对于规则A->B,LS表现A为真时对B为真的支持程度,LN表现了A为假(~A)时对B为真的支持程度。

几个特殊值:

根据LS、LN的定义可知,LS≥0,LN≥0,而且LS和LN不是独立取值,只能出现:

LS>1,LN<1 LS<1,LN>1 LS=LN=1

但不能两者同时>1或同时<1

在实际系统中,LS、LN的值是由专家凭经验给出的,而不依照LS、LN的定义来计算。

例如有规则A->B,并且给出

LS=20,LN=1则表示A真支持B真。

LS=1,LN=300则表示~A支持B真。

2.证据的不确定性度量

在主观Bayes推理中就以O(A)或P(A)表示证据A的不确定性,转换公式是:

3.推理计算

(1)当证据A必出现时即P(A)=1,可直接使用

O(B|A)=LS·O(B)

O(B|~A)=LN·O(B)

求得使用规则A->B后,O(B)的更新值O(B|A)和O(B|~A),若需要以概率表示,再由

计算出P(B|A)和P(B|~A)。

(2)当A是不确定的即P(A)≠1,需作如下考虑

设证据A'是与A有关的所有观察(可以认为A'->A),对规则A->B来说Duda在1976给出公式:

P(B|A')=P(B|A)·P(A|A')+P(B|~A)·P(~A|A')

现在是当P(A|A')、A->B(LS,LN)以及P(B)已知时,如何更新P(B)或说如何求P(B|A')

当P(A|A')=1时,证据A必然为真,可推导处:

当P(A|A')=0时,证据A必然为假,同样的方法可推导出:

当P(A|A')=P(A)时,表示A'与A没有关系,根据公式P(B|A')=P(B|A)·P(A|A')+P(B|~A)·P(~A|A')得

P(B|A')=P(B|A)·P(A)+P(B|~A)·P(~A)=P(BA)+P(B·~A)=P(B)………………概率公式

这样可确定P(A|A')为1,0,P(A)时,相应的P(B|A')值。其它情况的P(B|A')的值可从线型插值图求得:

4.举例计算

(1)当证据A1,A2,A3,A4必然发生后,看B的概率变化,已知B的先验概率为0.03,而规则

R1:A1->B LS=20 LN=1

R2: A2->B LS =300 LN=1

R3: A3->B LS=75 LN=1

R4: A4->B LS=4 LN=1

解:由规则R1,P(B)=0.03,便得:

即执行规则R1后,证据B为真的概率由初始0.03变为0.382。

由规则R2,P(B|A1)=0.382,计算得:

即执行规则R2后,证据B为真的概率由执行规则R1之后的0.382变为0.99464。

执行规则R3,R4之后证据B的概率的变化可按同样方法计算,读者可自行完成。

2)证据A必然发生(即为真),并且已知B1的先验概率为0.03,B2的先验概率为0.01。使用下列规则R1,R2之后,计算P(B2|A)。

R1:A->B1 LS=20 LN=1

R2: B1->B2 LS=300 LN=0.0001

解:在本题中,关键是使用规则R2时,证据B1不是必然为真,即是不确定的,这时需用插值法:

①由于A必然发生,所以根据规则R1有:

②设P(B1|A)=1(B1为真),此时

③设P(B1|A)=P(B1)=0.03,此时

P(B2|A)=P(B2)=0.01

于是可作线形插值图:

解毕。

4.4 证据理论

Dempster和Shafer提出的证据理论,可用来处理由不知道所引起的不确定性,能区分“不确定”与“不知道”的差异,具有较大的灵活性,因而受到人们的重视。

4.4.1 D-S理论的数学基础

在可信度方法和主观Bayes方法中,知识是用产生式的形式表示的。在可信度方法中,证据、结论以及知识的不确定性是以“可信度”进行度量的。在主观Bayes方法中,证据及结论的不确定性是以概率的形式进行度量,而知识的不确定性则是以数值对(LS,LN)来进行度量的。在用产生式表示知识时,证据可以是单个命题,也可以是用AND和OR连接起来的复合命题。

而在D-S理论中,知识也是用产生式的形式表示的,但证据和结论都要以集合进行表示。例如针对医疗诊断问题,U表示所有可能疾病的集合,医生为进行诊断而进行的各种检查就是获得所需的证据的过程,检查得到的结果就是获得的证据,这些证据就构成了证据集合A。根据证据集合A中的这些证据,就可以判断病人的疾病。通常有的证据所支持的不只是一种疾病而是多种疾病,这些疾病当然都是集合U中的元素,可以构成U的一个子集HH就是结论集合。例如医疗诊断中的证据“流鼻涕”,有可能是“感冒”,有可能是“过敏性鼻炎”引起的,则有结论集合H={“感冒”,“过敏性鼻炎”},证据集合A={“流鼻涕”},而U是所有疾病的集合。

在D-S理论中,知识的不确定性通过一个集合形式的可信度因子来表示,而证据和结论的不确定性度量则采用信任函数和似然函数来表示。为此引入概率分配函数信任函数以及似然函数的概念。

还要指出的是,证据理论是用集合来表示命题的,设U是变量y的样本空间,其中具有n个元素,变量y的所有取值都在D中,D中元素所构成的子集个数为2n个,在任何时刻变量y的取值都会落入某个子集。也就是说每一个子集A都对应着一个关于y的命题“y的值在A中。”,所以就用集合A来表示该命题。

1.首先在U的幂集2U上定义一个基本概率分配函数(Function of Basic Probability Assignment)

m:2U→[0,1]

满足m(φ)=0

注:关于集合U幂集的定义:给定集合U,考虑U的所有子集,以它们为元素构成一个集合,这个集合称为U的幂集,记为2U

例:U={a,b,c},则2U={φ,{a},{b},{c},{a,b},{a,c},{b,c},{a,b,c}},可以看出当集合U中有n个元素时,2U中有2n个元素。

例1:设U={a,b,c},其基本概率分配函数为

m(φ)=0

m({a})=0.4

m({a,b})=0

m({a,c})=0.4

m({a,b,c})=0.2

m({b})=0

m({b,c})=0

m({c})=0

可见m({a})+m({b})+m({c})=0.4≠1,表示基本概率分配函数并非概率。

另外:=m(φ)+m({a})+m({b})+m({c})+m({a,b})+m({a,c})+m({b,c})+m({a,b,c})=1

m(A)表示了证据对U的子集A成立的一种信任的度量,取值于[0,1],而且2U中各元素信任的总和为1。不同于Bayes方法,因为Bayes方法仅对U中单个元素赋予一种信任——概率。

基本概率分配函数值一般由主观给出,一般是某种可信度,所以概率分配函数也被称为可信度分配函数。

2.信任函数(Function of Belief)

Bel: 2U→[0,1]

,其中A∈2U

即子集A的信任函数的值是A的所有子集的基本概率分配函数值的和,用来表示对A的总信任。信任函数表示对A为真的信任程度。信任函数又称下限函数。

信任函数具有如下性质:

(1)Bel(φ)=0,Bel(U)=1,且对于2U中的任意元素A,有0≤Bel(A)≤1

(2)单元素集上m与Bel是相等的即若A是单元素集,则m(A)=Bel(A)

(3)信任函数为递增函数,即若,则Bel(A1)≤Bel(A2)

例2:根据例1

Bel({a,b})=m({a})+m({b})+m({a,b})=0.4+0+0=0.4

Bel({a})=m({a})=0.4

3.似然函数(Plausible function)

Bel(A)表示对命题A为真的信任程度,所以Bel(~A)表示对~A为真的信任程度即表示A为假的信任程度,Pl(A)=1-Bel(~A)即表示对A为非假的信任程度,也就是所有与A相交的子集的基本概率分配函数的和。似然函数又称为上限函数。

例3:在例1中Pl({a,b})=1-Bel({c})=1-0=1

似然函数有下列性质:

(1)

(2)0≤Bel(A)≤Pl(A)≤1

(3)Pl(A)+Pl(A')≥1

(4)Pl(A)-Bel(A)表示了既不信任A也不信任~A的一种度量,可表示对不知道的度量

(5)用信任区间[Bel(A),Pl(A)]来描述A的不确定性。Bel(A)表示度量的下限,Pl(A)表示度量的上限。实际上m,Bel,Pl只要知其一,必可求得另两个,但三个函数有不同的含义。几个特殊信任区间:

[1,1]:Bel(A)=Pl(A=1,表示A为真

[0,0]:Bel(A)=Pl(A)=0,表示A为假

[0,1]:表示对A完全无知。因为Bel(A)=0,说明对A不信任;而Bel(A')=1-Pl(A)=1-1=0,说明对A'也不信任。

[1/2,/2]表示A是否为真是完全不确定的

[0.25,0.85]表示对A为真信任的程度为0.25;由Bel(A')=1-Pl(A)=1-0.85=0.15表示对A'也有一定程度的信任。

例4:设U={a,b,c,d},A={a,b},B={a,b,c},m(A)=0.6,m(U)=0.4,U的其它子集的m值均为0。则:

Bel(B)=m({a,b,c})+m({a,b})+m({a,c})+m({b,c})+m({a})+m({b})+m({c})+m(φ)=0.6

Pl(A)=1-Bel({a,b}')=1-Bel({c,d})=1-(m({c,d})+m({c})+m({d})+m(φ))=1

Bel(A)=m({a,b})+m({a})+m({b})+m(φ)=0.6

4.除用区间[Bel(A),Pl(A)]来作为证据A的不确定性度量外,还可以

其中|A|,|U|分别表示A和U所含元素的个数。f1(A)具有性质:

f1(φ)=0,f1(U)=1,0≤f1(A)≤1(A是U的子集)

5.Dempster组合规则

(1)基本的组合规则

设m1(A)和m2(A)(A∈2U)是U基于不同证据的两个基本概率分配函数,则将二者可按下面的Dempster组合规则合并

该表达式一般称为m1与m2的正交和,并记为

组合后的m(A)满足:

例5:设U={a,b,c},若基于两组不同证据而导出的基本概率分配函数分别为:(不同症状而导出同样的结论的基本概率)

m1({a})=0.4

m1({a,c})=0.4

m1({a,b,c})=0.2

m2({a})=0.6

m2({a,b,c})=0.4

将m1,m2合并

=m1({a})m2({a})+m1({a})m2({a,b,c}))+m1({a,c})m2({a})+m1({a,b,c})m2({a})

=0.4*0.6+0.4*0.4+0.4*0.6+0.2*0.6=0.76

m({a,c})=m1({a,c})*m2({a,b,c})=0.4*0.4=0.16

m({a,b,c})=m1({a,b,c})*m2({a,b,c})=0.2*0.4=0.08

(2)含冲突修正的组合规则

在上面的基本组合规则中,若B和C的交集为空集,这时将Dempster组合规则进行如下修正:

其中K为规范数,并且

规范数K的引入,实际上是把空集所丢弃的正交和按比例地补到非空集上,使所有的m(A)仍然满足:

6. 基于证据理论的不确定性推理

基于证据理论的不确定性推理,大体可分为以下步骤:

  • 建立问题的识别集合U
  • 给幂集2U定义基本概率分配函数
  • 计算所关心的子集A∈2U(即U的子集)的信任函数值Bel(A)、似然函数值Pl(A)
  • 由Bel(A)和Pl(A)得出结论

例6:设有规则:

(1)如果 流鼻涕 则 感冒但非过敏性鼻炎(0.9)或过敏性鼻炎但非感冒(0.1)

R1:流鼻涕→感冒但非过敏性鼻炎(0.9)

R2:流鼻涕→过敏性鼻炎但非感冒(0.1)

(2)如果 眼发炎 则 感冒但非过敏性鼻炎(0.8)或过敏性鼻炎但非感冒(0.05)

R1':眼发炎→感冒但非过敏性鼻炎(0.8)

R2':眼发炎→过敏性鼻炎但非感冒(0.05)

括号中的数字表示规则前提对结论的支持程度。

又有前提证据:

(1)小王流鼻涕(0.9)

(2)小王眼发炎(0.4)括号中的数字表示事实的可信程度。

问小王患的什么病?

证据理论求解这一医疗诊断问题。

首先取集合U={h1,h2,h3},其中h1表示感冒但非过敏性鼻炎,h2表示过敏性鼻炎但非感冒,h3表示同时得了两种病

基本概率分配函数的取值为:提证据的可信度*规则的可信度

再取下面的基本概率分配函数:

m1({h1})=0.9*0.9=0.81

m1({h2})=0.9*0.1=0.09

m1({h1,h2,h3})=1-m1({h1})-m1({h2})=1-0.81-0.09=0.1

m1(A)=0 (A为U的其它子集)

m2({h1})=0.4*0.8=0.32

m2({h2})=0.4*0.05=0.02

m2({h1,h2,h3})=1-0.32-0.02=0.66

m2(A)=0 (A为U的其它子集)

将两个概率分配函数合并

=1/[1-m1({h1}*m2({h2})-m1({h2})*m2({h1})]=1/(1-0.81*0.02-0.09*0.32)=1/0.955=1.05

=1.05*[m1({h1})*m2({h1})+m1({h1})*m2({h1,h2,h3})+m1({h1,h2,h3})*m2({h1})]

=1.05*0.8258=0.87

=1.05*[m1({h2})*m2({h2})+m1({h2})*m2({h1,h2,h3})+m1({h1,h2,h3})*m2({h2})]

=1.05*0.0632=0.066

m({h1,h2,h3})=1-m({h1})-m({h2})=1-0.87-0.066=0.064

m(A)=0,A为U的其它子集

由信任函数求信任度

Bel({h1})=m({h1})=0.87

Bel({h2})=m({h2})=0.066

由似然函数求似然度

Pl({h1})=1-Bel({h1}')=1-Bel({h2,h3})=1-[m({h2}+m({h3})+m({h2,h3}))]=1-0.066=0.934

Pl({h2})=1-Bel({h2}')=1-Bel({h1,h3})=1-[m({h1}+m({h3})+m({h1,h3}))]=1-0.87=0.13

于是得到:

“感冒但非过敏性鼻炎”为真的信任度为0.87,非假的信任度为0.934

“过敏性鼻炎但非感冒”为真的信任度为0.066,非假的信任度为0.13

所以,看来该患者是感冒了

原文地址:https://www.cnblogs.com/qiangge666/p/4752031.html