1000字范文,内容丰富有趣,学习的好帮手!
1000字范文 > 什么是模糊神经网络结构 模糊神经网络应用实例

什么是模糊神经网络结构 模糊神经网络应用实例

时间:2019-11-27 02:53:20

相关推荐

什么是模糊神经网络结构 模糊神经网络应用实例

模糊神经网络的基本形式

模糊神经网络有如下三种形式:1.逻辑模糊神经网络2.算术模糊神经网络3.混合模糊神经网络模糊神经网络就是具有模糊权系数或者输入信号是模糊量的神经网络。上面三种形式的模糊神经网络中所执行的运算方法不同。

模糊神经网络无论作为逼近器,还是模式存储器,都是需要学习和优化权系数的。学习算法是模糊神经网络优化权系数的关键。对于逻辑模糊神经网络,可采用基于误差的学习算法,也即是监视学习算法。

对于算术模糊神经网络,则有模糊BP算法,遗传算法等。对于混合模糊神经网络,目前尚未有合理的算法;不过,混合模糊神经网络一般是用于计算而不是用于学习的,它不必一定学习。

谷歌人工智能写作项目:神经网络伪原创

什么是模糊神经网络的分类器研究,它是否就是目标识别研究 30

分类和目标识别,还是有一些区别的写作猫。分类强调的将一组相似的样本划为一类,各类之间有明显的不同特征。

而目标识别可能是针对个体的,每个个体都有自己的特征,可以将每个样本分别识别出来,例如字符识别、车牌识别等,这些就是目标识别的例子。

模糊神经网络就是模糊理论同神经网络相结合的产物,它汇集了神经网络与模糊理论的优点,集学习、联想、识别、信息处理于一体。其比较适用于分类和识别,因为其模糊规则可以保证不受噪声干扰。

简单介绍人工神经网络和模糊神经网络

其实百科介绍的很详细,如“人工神经网络是模拟人脑结构的思维功能,具有较强的自学习和联想功能,人工干预少,精度较高,对专家知识的利用也较少。

但缺点是它不能处理和描述模糊信息,不能很好利用已有的经验知识,特别是学习及问题的求解具有黑箱特性,其工作不具有可解释性,同时它对样本的要求较高;模糊系统相对于神经网络而言,具有推理过程容易理解、专家知识利用较好、对样本的要求较低等优点,但它同时又存在人工干预多、推理速度慢、精度较低等缺点,很难实现自适应学习的功能,而且如何自动生成和调整隶属度函数和模糊规则,也是一个棘手的问题。

”即保证人工神经网络自身的学习能力下,采用模糊理论解决模糊信号,使神经网络权系数为模糊权,或者输入为模糊量。

比如原本神经网络处理的是连续数据(double)不适合求解模糊数据,此时就需要引入模糊理论,来构造适合于求解这类模糊数据的神经网络。

bp神经网络就是模糊神经网络吗

数据挖掘中的神经网络和模糊逻辑的概念是啥?

【神经网络】人工神经网络(Artificial Neural Networks,简写为ANNs)也简称为神经网络(NNs)或称作连接模型(Connection Model),它是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。

这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。最常用的就是BP神经网络了,你做数据挖掘SVM也很常用。

【模糊】模糊逻辑指模仿人脑的不确定性概念判断、推理思维方式,对于模型未知或不能确定的描述系统,以及强非线性、大滞后的控制对象,应用模糊集合和模糊规则进行推理,表达过渡性界限或定性知识经验,模拟人脑方式,实行模糊综合判断,推理解决常规方法难于对付的规则型模糊信息问题。

模糊逻辑善于表达界限不清晰的定性知识与经验,它借助于隶属度函数概念,区分模糊集合,处理模糊关系,模拟人脑实施规则型推理,解决因“排中律”的逻辑破缺产生的种种不确定问题 。

粗糙集(Roughset,也称粗集)理论是波兰学者2.Pawlak于1982年提出的,它为处理不确切的!不完整的信息提供了一种新的数学工具。

粗糙集理论建立在分类机制的基础之上,将分类理解为特定空间上的等价关系,而等价关系构成了对该空间的划分。该理论将知识理解为对数据的划分,每一划分的集合称为概念。

粗糙集理论的主要思想是在保持信息系统分类能力不变的前提下,利用己知的知识库,将不精确或不确定的知识用知识库中己有的知识来近似刻画,通过知识的补充!约简,导出问题的决策或分类规则。

粗糙集理论与其它处理不确定和不精确问题理论最显著的区别是粗糙集理论无须提供问题所需处理的数据集合之外的任何先验信息,对问题的不确定性的描述或处理比较客观,又由于这个理论未包含处理不精确或不确定原始数据的机制,所以该理论与概率论!模糊数学!证据理论等其它处理不精确或不确定问题的理论有很强的互补性。

粗糙集理论不仅为信息科学和认知科学提供了新的研究方法,而且为智能信息处理提供了有效的处理技术。

目前粗糙集理论己经是人工智能领域方面的一个研究热点,成为数据挖掘应用的主要技术之一,受到各国学者的高度重视。

用matlab做模糊神经网络,步骤是什么? 我知道模糊控制包括:模糊化,模糊推理,清晰化等步骤 20

模糊神经网络matlab

您好,是这样的:经过训练后的参数比较差,用原数据输入训练好的网络,得出结果和要的结果误差很大,不明白是怎么回事?还有要是多输入多输出这段程序该怎么改?模糊神经网络可以用matlab工具箱实现吗?

还有输入数据差别比较大(就是大小差异大)是不是要进行归一化再学习训练呢?求解,求解答!对于你的帮助不胜感激!

clear allclcclose alltic,%[x,y]=data;x=[1 2 3 4 5 6 7 8;-1 -2 -3 -4 -5 -6 -7 -8];y=[2 3 4 5 6 7 8 9]; %%%%%--数据显示,输入为-两输入,输出为-单输出。

--------样本为p2组[p1,p2]=size(x); % 隶属度函数个数k=7;% 初始化四个隶属度函数的参数A,B及输出层初始权值Wfor i=1:p1; for j=1:k;m(i,j)=1+0.6*rand(1);b(i,j)=1+0.6*rand(1);endendfor j=1:k*k;w(j)=1+rand(1);end%%%---推理计算输出值for q=1:p2;%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%-----用同一隶属度参数对 输入样本 X 累计计算% 选用高斯函数作为隶属度,求隶属度,共 size(x,2)+k 个。

x(1) K个,x(2) K个for i=1:p1;for j=1:k;u(i,j)=gaussmf(x(i,q),[m(i,j),b(i,j)]);endend% 模糊推理计算:a21,a22.几个隶属度函数,得出几个值,此处已知输入为2%%%%----由以前的取小做法改为相乘—prod(x,1) or prod(x,2)———v=[];for i=1:kfor j=1:k v=[v,u(1,i)*u(2,j)];endend% 归一化计算模糊推理的值;相当于已经除去了经典去模糊输出的分母值for i=1:length(v);v1(i)=v(i)/sum(v);end% 系统输出% out1(q)=w*v';% e(q)=(y(q)-out1(q));% end% out=out1out1(q)=w*v1';e(q)=y(q)-out1(q);endout=out1;%- 三。

参数修正过程。

增加方式,非批处理方式迭代%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%-----------------------------误差反向传播过程--------------------------------------------% 取误差函数:E=(1/2)*sumsqr(t-y)E=(1/2)*sumsqr(y-out);EE=E;% e=sum(y-out)lr=0.3; % c2=zeros(2,2);%%%%----------------------------------------误差反传后的参数修正过程-------------------r=1; %p=1;s=1000; %% e(r)=y(r)-out(r);while p0.05%%%%%%%%%%%%%_____隶属度参数 M. B 输出层权值参数 W 的修正过程_____%%%%%%%%%%%%%%1.--Wwc=zeros(1,k*k);for i=1:k*k;wc(i)=-lr*e(r)*v1(i);end%%2.--Mmc=zeros(p1,k);for i=1:p1;for j=1:k;mc(i,j)=2*lr*e(r) * w(j) * (v(j)/u(i,j)) * exp(-((x(i,r)-m(i,j)).^2)/(b(i,j).^2))* (x(i,r)-m(i,j))/(b(i,j).^2);endend%%3.--Bbc=zeros(p1,k);for i=1:p1;for j=1:k;bc(i,j)=2*lr*e(r)* w(j) * (v(j)/u(i,j)) * exp(-((x(i,r)-m(i,j)).^2)/(b(i,j).^2)) * ((x(i,r)-m(i,j)).^2)/(b(i,j).^3);endend% 4.参数修正 m b wm=m-mc;b=b-bc;w=w-wc;%%%%%%%%%%%_______利用修正后的参数重新计算_____________%%%%%%%%%%%%%%%%%%%%%% 5.利用修正过的参数重新计算输出for q=1:p2; for i=1:p1;for j=1:k;u(i,j)=gaussmf(x(i,q),[m(i,j),b(i,j)]);endendv=[];for i=1:7for j=1:7 v=[v,u(1,i)*u(2,j)];endend% 归一化计算模糊推理的值;相当于已经除去了经典去模糊输出的分母值for i=1:length(v)v1(i)=v(i)/sum(v);endout1(q)=w*v1';endout=out1;p=p+1;EE=(1/2)*sumsqr(y-out);E(p)=EE;r=r+1;if r>p2r=1;ende(r)=(y(r)-out(r));end%%%%%%%%%%%%%%%%%%%________________当误差或迭代步数满足要求后得到结果_________________%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%m,b,w,E_out=EE,eepoch=1:size(E,2);figureplot(epoch,E,'-r');% plot(epoch,out(1),'b');% axis([0 1.5*s min(E) max(E)]);% set(gca,'fontsize',8);% set(gca,'xtick',0:s/10:1.5*s);%set(gca,'ytick',1e-30:1e5:1e5);%set(gcf,'color','b')title('误差变化曲线');xlabel('步数');ylabel('误差');toc%% %% 泛化过程。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。