关于模式识别的一些认识
模式识别的概念和认识
什么是模式呢?广义地说,存在于时间和空间中可观察的事物,如果可以区别它们是否相同或是否相似,都可以称之为模式。但模式所指的不是事物本身,而是我们从事物获取的信息。因此模式往往表现为具有时间或空间分布的信息。
人们在观察各种事物的时候,一般是从一些具体的个别事物或者很小一部分开始的,然后经过长期的积累。随着对观察到的事物或者现象的数量不断增加,就开始在人的大脑中形成一些概念,而这些概念是反映事物或者现象之间的不同或者相似之处,这些特征或者属性使人们对事物自然而然的进行分类。从而窥豹一斑,对于一些事物或者现象,不需要了解全过程,只需要根据事物或者现象的一些特征就能对事物进行认识。人脑的这种思维能力视为“模式”的概念。
模式识别(Pattern Recognition)是指对表征事物或现象的各种形式的信息进行处理和分析,以对事物或现象进行描述、辨认、分类和解释的过程。它是信息科学和人工智能的重
要组成部分,主要应用领域是图像分析与处理、语音识别、声音分类、通信、计算机辅助诊断、数据挖掘等学科。
在计算机领域里是指通过借助计算机,对人类外部世界某一特定环境中的客体、过程和现象进行自动识别的技术。这个技术在我们身边最典型的应用应该是现在各种相机里的人脸识别技术。那么计算机是如何识别出我们的脸部呢?是通过识别人脸的各种特征值以及特征值的组合形式。我们每个人的脸孔都是两只眼睛一个鼻子一张嘴,毋庸置疑,这就是“脸”的模式,而且通过识别脸部肤质,眼窝的阴影还可以测算人的年龄,而嘴角是否上扬则成了判断情绪的特征等。
而其实“模式识别”作为一种人工智能,是模仿人类而来的,我们人才是“模式识别”最厉害的角。除非是患有“脸盲症”这种疾病,不然我们是非常容易识别出一张人脸以及各种相关属性。喜欢评价小孩像爸爸还是像妈妈就是这种本能的体现,我们从脸上看到了些什么,提取脸部特征值做比对。而且对人脸这个“模式识别”的极度熟练,让我们一遇到有类似特征值的物体就进行调用,这就是人经常能把很多东西看成人脸的原因。
在小学的自然科学课本里有一个著名的条件反射实验,巴普洛夫的狗。巴普洛夫先生这样
做实验,摇铃然后给狗食物,狗得到食物会分泌唾液,如此反复。经过30次重复后,单独的声音刺激就可以使狗产生很多唾液。而斯金纳也有一个著名的盒子,用来做动物心理实验。斯金纳把鸽子放进一个装有按钮的盒子里,鸽子要是按中其中一个钮,就给它一点奖赏。而鸽子总会出一种模式,无论它们在拿到奖赏前做了什么动作,它们都会不停地重复那动作。有时候是逆时针倒转两次,正转一次,然后啄按钮。有时候是其它动作,但鸽子们都相信就是这个动作让它有食可吃。同理,同为生物的人类的我们也是跟实验中的这些动物一样:喜欢赋予意义,相信某种模式。星座也是这么流行起来的,当然各种条件要更为复杂一点。
模式识别的方法
1. 统计模式识别: 
  统计模式识别是对模式的统计分类方法。即结合统计概率论的贝叶斯决策系统进行模式识别的技术,又称为决策理论识别方法。识别是从模式中提取一组特性的度量,构成特征向量来表示。然后通过划分特征空间的方式进行分类。利用模式与子模式分层结构的树状信息所完成的模式识别工作,就是结构模式识别或句法模式识别。 
  统计模式识别主要是利用贝叶斯决策规则解决最优分类器问题。统计决策理论的基本思想就是在不同的模式类中建立一个决策边界,利用决策函数把一个给定的模式归入相应的模式类中。在统计模式识别中,贝叶斯决策规则从理论上解决了分类器的设计问题。但贝叶斯方法计算条件概率函数是非常困难的,因为在实际中条件概率一般是未知的,必须从数据样本中估计出来,然而在估算条件概率的时候,受制于样本的数量。样本太少,不能够表征要研究的某类问题。样本太多,给数据采集会造成一定的麻烦,而且计算量也增大了。为此人们提出了各种解决方法。 
1.1最大似然估计和贝叶斯估计: 
  这两种方法的前提条件是各类别的条件概率密度的形式已知,而参数类未知。在此情况下,对现有的样本进行参数估计。参数估计在统计学中是很经典的算法,而最大似然估计和贝叶斯估计也是参数估计中常用的方法。最大似然估计是把待估参数看作确定性的量,只是其取值未知,最大似然估计方法所寻的是能最好解释训练样本的那个参数值,贝叶斯估计把待估参数看作是符合某种先验概率分布的随机变量,而训练样本的作用就是把先验概率转化为后验概率。实际生活中,用的更多的还是最大似然估计,因为此方法更容易实现,而且样本数据充足的情况下,得到的分类器效果比较好。   
1.2监督参数统计法: 
1.2.1、KNN法及其衍生法 
  KNN法也成为K最近领域法,是模式识别的标准算法之一。其基本原理是先将已经分好类别的训练样本点记入到多维空间,然后将待分类的未知样本也记入空间。考察未知样本的K个近邻,弱近邻中某一个类样本最多,则可以将未知样本也判为该类。   
1.2.2、Fisher判别分析法 
  Fisher判别分析法的基本原理是将多维空间样本点分布的图像投影到二维或者一维,投影方向选择的原则是使两类样本点尽可能分开。求投影方向得到两类点分开的最佳方向也次方向,由这两个方向张成二维平面,可使投影形成二维分类图。垂直于分界线的法线代表使样本向一类或者二类转化的方向。此外统计模式识别还有判别函数法包括线性判别函数法和非线性判别函数法、特征分析法、主因子分析法等。 
 统计模式识别的优点:由于其基本方法是基于对模式的统计,统计的方法及处理等由于发展的早、比较成熟、在处理中能考虑干扰、噪声等影响,识别模式基元的能力强。 
  统计模式识别的缺点:由于统计的模式其数量要求大,对结构复杂的模式抽取特征困难。若数据量小则不能反映模式的结构特征,难以归纳模式的性质,难以从整体角度考虑识别问题。 
2. 结构模式识别 
  对于较复杂的模式,对其描述需要很多数值特征,从而增加了复杂度。结构模式识别通过采用一些比较简单的子模式组成多级结构来描述一个复杂的模式。基本思路是先将模式分为若干个子模式,子模式再分解成简单的子模式,然后子模式再分解,直到根据研究的需要不再需要细分的程度。最后一级最简单的子模式称为模式基元。结构模式识别的优点由于采用模式分为若干子模式,子模式再分解到基元,这样其识别方便。可以从简单的基元开始,逐步推理、由简至繁。它能反映模式的结构特性,对模式的性质能很好的描述出来,对图像畸变的抗干扰能力较强。结构模式识别的缺点。当存在干扰及噪声时,对基元的影响很大,抽取基元困难,且容易将噪声一块儿抽取造成失误。 
3. 模糊模式识别 
未识别的网络  模糊模式识别是以模糊理论和模糊集合数学为支撑的一种识别方法。模糊集合是指没有明确的边界的集合。例如“水很烫”、“枇杷很大”、“某学生考试成绩一般”、“这件衣服很贵”等。这些都是模糊集合。但是虽然模糊,缺可以通过一些方法表征出来,因此也可以说这个是清晰的。模糊集合理论是通过隶属度来描述元素的集合程度,主要用于解决不确定性问题。在平常的事物中,由于噪声、扰动、测量误差等因素影响。使得不同模式类的边界不明确,然而这些不明确有模糊集合的性质,因此在模式识别中可以把模式类当做模糊集合,利用模糊理论的方法对模式进行分类,从而解决问题。模糊模式识别的优点:由于采用了模糊推理的方法,用隶属函数作为样本和模板的度量,故能反映模式的整体特征,针对样品中的干扰和畸变,有很强的剔除能力。模糊模式识别的缺点:模糊规则往往是根据经验的来的,准确合理的隶属函数往往难以建立,从而也限制了它的应用。 
4. 神经网络模式识别 
  人工神经网络是由大量简单的处理单元广泛互连而成的复杂网络,起源于对生物神经系统的研究。它将若干处理单元(即神经元)通过一定的互连模型连结成一个网络,这个网络通过一定的机制(如BP网络)可以模仿人的神经系统的动作过程,以达到识别分类的目的。人工
神经网络区别于其他识别方法的最大特点是它对待识别的对象不要求有太多的分析与了解,具有一定的智能化处理的特点。神经网络侧重于模拟和实现人认知过程中的感知觉过程、形象思维、分布式记忆、自学习和自组织过程,与符号处理是一种互补的关系。但神经网络具有大规模并行、分布式存储和处理、自组织、自适应和自学习的能力,特别适用于处理需要同时考虑许多因素和条件的、不精确和模糊的信息处理问题。神经网络模式识别的优点:由于其是由模式的基元互连而成,能够反映局部信息,可以处理一些环境信息十分复杂,背景知识不清楚,推理规则不明确的问题。针对样品有较大的缺损或畸变,它能很好的纠正。神经网络模式识别的缺点:模型在不断丰富与完善,目前能识别的程式类还不够多。 
5. 多分类器融合 
  多分类器融合,也称为多分类器集成,就是融合多个分类器提供的信息,得到更加精确的分类结果。多分类器融合常见的结构有三种:并行结构、串行结构、串并行结构。
模式识别的发展前景
模式识别是人工智能的一部分,在未来是信息化、智能化、网络化的时代。模式识别将得到更大的发展,具有广阔的应用前景。类人机器人作为今后研究的主流,要让其具有人类的听觉、视觉、感知等能力。这些都能用模式识别来实现。第六代计算机,也称生物计算机,借助于生物工程研发,具有自学习自组织能力,相关问题也能用到模式识别的知识。如今智能监控系统如安防、智能交通、智能小区、智能家居等,的需求也越来越强烈。图像检索、视频检索等,也是互联网开发中的重点研究方向。智能终端,智能手机、智能电视等产品的应用开发。这些都离不开模式识别,而且目前的模式识别技术还不够成熟,有待于更进一步 的研究,一些高校针对研究生也开设了与模式识别相关的专业,所以在今后的社会需求和科学研究中,模式识别将会有更加广阔的舞台。
有一句很夸张的话:模式识别让机器越来越智能,倘若计算机也会灵活使用概率论,就完全可以取代人类了。话虽然很夸张,但是可以代表模式识别的发展方向。
部分文献原文
Bayesian Decision Theory
Tossing a coin is a random process because we cannot predict at any toss whether the outcome will be heads or tails—that is why we toss coins, or buy lottery tickets, or get insurance. We can only talk about the probability that the outcome of the next toss will be heads or tails. It may be argued that if we have access to extra knowledge such as the exact composition of the coin, its initial position, the force and its direction that is applied to the coin when tossing it, where and how it is caught, and so forth, the exact outcome of the toss can be predicted.