1.消息x发生的概率p(x)越大,信息量越小;反之,发生的概率越小,信息量就越大。可见,信息量(我们用i来表示)和消息发生的概率是相反的关系。
2.当概率为1时,百分百发生的事,地球人都知道,所以信息量为0。
3.当一个消息是由多个独立的小消息组成时,那么这个消息所含信息量应等于各小消息所含信息量的和。
根据这几个特点,如果用数学上对数函数来表示,就正好可以表示信息量和消息发生的概率之间的关系式:i=-loga(p(x))。这样,信息不就可以被量化了吗?既然信息可以被量化,那么总得给它一个单位吧?人的体重是以公斤来计量的,人的身高是以米来计量的,那么信息量该以什么单位来计量呢?通常是以比特(bit)为单位来计量信息量的,这样比较方便,因为一个二进制波形的信息量恰好等于1bit。
信息与比特
有同学又有问题了:这么说我家2bit的信息量啦?
这里的比特严格来说不是指信息量,而是指信号。本来是不可以说是几比特的信号的,但由于一个二进制波形(码元)的信息量正好等于1比特,所以在工程应用中,往往就把一个二进制码元称作1比特,信息量单位变成信号单位了。这虽然不严谨,但也不矛盾。我们注意在概念上区分就行了。
有同学还有疑问:假设有一个消息“狼来了”,通过信源编码转成了一,那么信息量就有100bit。然后把这100bit通过通信网络发送给了很多人,很多人都收到了100bit的信息量。可是有些人觉得“狼来了”这个消息很重要,信息量很大;但有些人又觉得无所谓,信息量很少。可是我们知道,这条消息的信息量都是100bit的呀,怎么又不一样了呢?
首先,我们刚刚说过,比特是信息量的单位,但工程上也习惯把它作为信号的单位。这里所说的100bit就是指信号的啦。其次,通信中的基本问题,就是在一点再生另一点的信息,指的是点对点的情况。但即使在点对多点的情况下,由于在实际的通信系统中,消息往往是指发送的某些符号。这些符号到底能携带多少信息量,与这些符号发生的概率有关,而对于任何接收端来说,这些符号发生的概率是一定的,不会说对这个接收机是这个概率,对那个接收机是那个概率。比如有一串符号221234,这串符号由1,2,3,4四个符号组成,假设四个符号出现的概率都是1/4,那么在这串符号中,2出现了3次,所以2所携带的信息量是-3xlog2(1/4)=6bit。我们需要明白,通信系统中传送的符号,就相当于我们现在谈论的消息?“信息”一中均是“inforion”,日文中为“情报”,我国台湾称之为“资讯”,我国古代用的是“消息”。作为科学术语最早出现在哈特莱(r.v.ley)于1928年撰写的《信息传输》一文中。20世纪40年代,信息的奠基人香农(c.e.shannon)给出了信息的明确定义,此后许多研究者从各自的研究领域出发,给出了不同的定义。具有代表意义的表述如下:
信息奠基人香农(shannon)认为“信息是用来消除随机不确定性的东西”,这一定义被人们看作是经典性定义并加以引用。
控制论创始人维纳(norbert wiener)认为“信息是人们在适应外部世界,并使这种适应反作用于外部世界的过程中,同外部世界进行互相交换的内容和名称”,它也被作为经典性定义加以引用。
经济管理学家认为“信息是提供决策的有效数据”。
科学术语
美国著名物理化学家吉布斯(joibbs)创立了向量分析并将其引入数学物理中,使事件的不确定性和偶然性研究找到了一个全新的角度,从而使人类在科
信息
信息(5张)
学把握信息的意义上迈出了第一步。他认为“熵”是一个关于物理系统信息不足的量度。
电子学家、计算机科学家认为“信息是电子线路中传输的信号”。
我国著名的信息学专家钟义信教授认为“信息是事物存在方式或运动状态,以这种方式或状态直接或间接的表述”。
美国信息管理专家霍顿(f.on)给信息下的定义是:“信息是为了满足用户决策的需要而经过加工处理的数据。”简单地说,信息是经过加工的数据,或者说,信息是数据处理的结果。
根据对信息的研究成果。科学的信息概念可以概括如下:
信息是对客观世界中各种事物的运动状态和变化的反映,是客观事物之间相互联系和相互作用的表征,表现的是客观事物运动状态和变化的实质内容。
传递
远古
口耳相传或借助器物
信息传递速度慢、不精确古代
靠驿差长途跋涉
信息传递速度慢、信息形式单一。
近代
依靠交通工具的邮政系统
信息传递速度相对快一些、距离远相对就慢、且费用高。
现代
电报、电话
速度快、信息单一文字。
当代
计算机网络
传递的信息量大、信息多样化,传递速度极快、不受地域阻碍。
功能
反应事物内部属性、状态、结构、相互联系以及与外部环境的互动关系,