1000字范文,内容丰富有趣,学习的好帮手!
1000字范文 > 认知科学__认知物理学__粗糙集理论(Rough理论)

认知科学__认知物理学__粗糙集理论(Rough理论)

时间:2023-01-21 03:53:59

相关推荐

认知科学__认知物理学__粗糙集理论(Rough理论)

1.粗糙集的来源(定义)

面对日益增长的数据库,人们将如何从这些浩瀚的数据中找出有用的知识?我们如何将所学到的知识去粗取精?什么是对事物的粗线条描述?什么是细线条描述?糙集合论回答了上面的这些问题

2.基本概念

2.1 知识

一种对集合A的划分就对应着关于A中元素的一个知识

假设有8个积木构成了一个集合A,我们记:A={x1,x2,x3,x4,x5,x6,x7,x8},每个积木块都有颜色属性,按照颜色的不同,我们能够把这堆积木分成R1={红,黄,蓝}三个大类,那么所有

红颜色的积木构成集合X1={x1,x2,x6},

黄颜色的积木构成集合X2={x3,x4},

蓝颜色的积木构成集合X3={x5,x7,x8}。

按照颜色这个属性我们就把积木集合A进行了一个划分,那么我们就说颜色属性就是一种知识。在这个例子中我们不难看到,一种对集合A的划分就对应着关于A中元素的一个知识,假如还有其他的属性,比如还有形状R2={三角,方块,圆形},大小R3={大,中,小},这样加上R1属性对A构成的划分分别为:

A/R1={X1,X2,X3}={{x1,x2,x6}(红), {x3,x4}(黄), {x5,x7,x8}(蓝)}(颜色分类)

A/R2={Y1,Y2,Y3}={{x1,x2}(△), {x5,x8}(□), {x3,x4,x6,x7}(○)}(形状分类)

A/R3={Z1,Z2,Z3}={{x1,x2,x5}(大), {x6,x8}(中), {x3,x4,x7}(小)}(大小分类)

上面这些所有的分类合在一起就形成了一个基本的知识库。那么这个基本知识库能表示什么概念呢?除了红的{x1,x2,x6}、大的{x1,x2,x5}、三角形的{x1,x2}这样的概念以外还可以表达例如:

大and三角:{x1,x2,x5}∩{x1,x2}={x1,x2}

蓝色 / 小 / 圆形:({x5,x7,x8}∩{x3,x4,x7}∩{x3,x4,x6,x7}={x7}

蓝色 / 中:{x5,x7,x8}∪{x6,x8}={x5,x6,x7,x8}

而类似这样的概念可以通过求交运算(∩)得到,比如X1(红色)与Y1(三角形)的交就表示红色的三角形。所有的这些能够用交、并表示的概念以及加上上面的三个基本知识(A/R1,A/R2.A/R3)一起就构成了一个知识系统记为R=R1∩R2∩R3,它所决定的所有知识是A/R={{x1,x2},{x3},{x4},{x5},{x6},{x7},{x8}}以及A/R中集合的并

完整知识库:ALL_K = {{x1,x2}, {x3}, {x4}, {x5}, {x6}, {x7}, {x8}, {x1,x2,x3}, {x1,x2,x4}, {x1,x2,x5}, {x1,x2,x6}, {x1,x2,x7}, {x1,x2,x8}, {x3,x4}, {x3,x5}, {x3,x6}, {x3,x7}, {x3,x8}, {x4,x5}, {x4,x6}, {x4,x7}, {x4,x8}, {x5,x6}, {x5,x7}, {x5,x8}, {x6,x7}, {x6,x8}, {x7,x8}, {x1,x2,x3,x4}, {x1,x2,x3,x5}, {x1,x2,x3,x6}, {x1,x2,x3,x7}, {x1,x2,x3,x8}, {x1,x2,x4,x5}, {x1,x2,x4,x6}, {x1,x2,x4,x7}, {x1,x2,x4,x8}, {x1,x2,x5,x6}, {x1,x2,x5,x7}, {x1,x2,x5,x8}, {x1,x2,x6,x7}, {x1,x2,x6,x8}, {x1,x2,x7,x8}, {x3,x4,x5}, {x3,x4,x6}, {x3,x4,x7}, {x3,x4,x8}, {x3,x5,x6}, {x3,x5,x7}, {x3,x5,x8}, {x3,x6,x7},{x3,x6,x8},{x3,x7,x8},{x1,x2,x3,x4,x5},{x1,x2,x3,x4,x6},{x1,x2,x3,x4,x7},{x1,x2,x3,x4,x8},{...},{x3,x4,x6,x7,x8},{...}{x1,x2,x3,x4,x5,x6,x7,x8}

2.2 近似

假设给定了一个A上的子集合X={x2,x5,x7},那么用我们的知识库中的知识,无论是单属性知识还是由几个知识进行交、并运算合成的知识,都不能得到这个新的集合X,于是我们只好用我们已有的知识去近似它。也就是在所有的现有知识里面找出跟他最像的两个一个作为下近似,一个作为上近似。于是我们选择了“蓝色 / 大方块”or “蓝色 / 小圆形”这个概念({x5,x7})作为X的下近似。选择“△ or 蓝色”({x1,x2,x5,x7,x8})作为它的上近似。

下近似集:完整知识库中集合q(q包含于X)求并得所得,即包含在X内的最大可定义集合

上近似集:包含X的最小可定义集合

下图中各个小方块可以被看成是论域上的知识系统所构成的所有划分。

3.粗糙集在数据库中数据挖掘的应用

上表是上例中数据库二维表的体现,而最后一列是我们的决策属性(目标属性),也就是说评价什么样的积木稳定。这个表中的每一行表示了类似这样的信息:红色的大三角积木稳定,****的小圆形不稳定等等。我们可以把所有的记录看成是论域A={x1,x2,x3,x4,x5,x6,x7,x8},任意一个列表示一个属性构成了对论域的元素上的一个划分,在划分的每一个类中都具有相同的属性。而属性可以分成两大类,一类叫做条件属性:颜色、形状、大小都是,另一类叫做决策属性:最后一列的是否稳定?

决策属性描述情况

下面我们考虑,对于决策属性来说是否所有的条件属性都是有用的呢?考虑所有决策属性是“稳定”的集合{x1,x2,x5},它在知识系统A/R中的上、下近似都是{x1,x2,x5}本身,“不稳定”的集合{x3,x4,x6,x7,x8},在知识系统A/R中的上、下近似也都是{x3,x4,x6,x7,x8}它本身。说明该知识库能够对这个概念进行很好的描述。

条件属性描述情况

下面考虑是否所有的基本知识:颜色、形状、大小都是必要的?如果我们把这个集合在知识系统中去掉颜色这个基本知识,那么知识系统变成A/(R-R1)={{x1,x2},{x3,x4,x7},{x5},{x6},{x8}}以及这些子集的并集。如果用这个新的知识系统表达“稳定”概念得到上下近似仍旧都是:{x1,x2,x5},“不稳定”概念的上下近似也还是{x3,x4,x6,x7,x8},由此看出去掉颜色属性我们表达稳定性的知识不会有变化,所以说颜色属性是多余的可以删除。如果再考虑是否能去掉大小属性呢?这个时候知识系统就变为:A/(R-R1-R3)=A/R2={{x1,x2},{x5,x8},{x3,x4,x6,x7}}。同样考虑“稳定”在知识系统A/R2中的上下近似分别为:{x1,x2}和{x1,x2,x5,x8},已经和原来知识系统中的上下近似不一样了,同样考虑“不稳定”的近似表示也变化了,所以删除属性“大小”是对知识表示有影响的故而不能去掉。同样的讨论对于“形状”属性也一样,它是不能去掉的。最后我们得到化简后的知识库R2,R3,从而能得到下面的决策规则:大三角->稳定,大方块->稳定,小圆->不稳定,中圆->不稳定,中方块->不稳定,利用粗集的理论还可以对这些规则进一步化简得到:大->稳定,圆->不稳定,中方块->不稳定。这就是上面这个数据表所包含的真正有用的知识,而这些知识都是从数据库有粗糙集方法自动学习得到的。因此,粗糙集是数据库中数据挖掘的有效方法

从上面这个例子中我们不难看出,实际上我们只要把这个数据库输入进粗糙集运算系统,而不用提供任何先验的知识,粗糙集算法就能自动学习出知识来,这正是它能够广泛应用的根源所在。而在模糊集、可拓集等集合论中我们还要事先给定隶属函数。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。