最小互信息和最大熵原理在神经编码分析中的应用
自从1948年香农在<通信的数学原理>一文中提出信息论,信息论成为揭示复杂信息处理系统基本原理的一个强有力的工具。本文中根据信息论的基本原理和方法,提出运用最小互信息和最大熵原理来对神经编码进行研究和分析。在文中,我们首先介绍了几种常见研究神经编码的方法和理论,对它们的基本原理进行综述。接着,我们将重点展示最小互信息和最大熵原理是如何用于衡量神经元反应中的信息,并用Matlab数学软件工具对其做了数值模拟和仿真,得出了其他方法没能发现的一些性质。最后,我们还比较这两种方法的异同点,指出它们各自的特点,以及它们在大规模集群中神经编码分析上的一些应用,进而揭示神经元活动的内在规律和神经编码的相关机制。
神经系统 编码方式 信息论 最小互信息 最大熵 数值模拟
郑锦超 王如彬 张志康
华东理工大学理学院数学系,上海200237华东理工大学认知神经动力学研究所,上海200237 华东理工大学认知神经动力学研究所,上海200237
国内会议
哈尔滨
中文
1-9
2011-08-22(万方平台首次上网日期,不代表论文的发表时间)