信息指的是什么

信息指的是什么 信息是什么?

什么信息?

信息是什么?

信息的传递伴随着能量的交换,但信息本身和能量是相互独立的。物理学中有质量-能量关系,但没有信息-能量关系。物理学中对信息有严格的定义,定义推广到各种情况。信息的传播速度到底是多少,一个简单的猜测就是:不能超过光速!要证明这一点并不容易。因为信息定义中有一个非常重要的物理量:概率。有很多概率来源,但概率是否服从相对论协变是一个问题。服从相对论协变的概率必然会给出信息传亚光速的信息传输速度,但不服从相对论协变的概率会给出相反的结论。归根结底,信息是一个关于概率的函数,如果从量子力学的角度来看信息,就会发现很多问题。例如量子纠缠的信息问题。量子纠缠是一种非局域性的东西,这使得我们无法孤立地看到某个位置的信息,从而导致量子纠缠根本不传递信息。信息必须从一个局域位置传输到另一个位置。而量子纠缠则导致局域性丧失。一旦局域性丧失,超光速或不超光速,这些说法都是毫无意义的!原因很简单,速度的定义取决于局域性,但是现在局域性没有了,速度也就失去了意义。

作为一种基本的物理量,信息是物质所具有的属性,物质在携带能量的同时也携带信息。物理学对信息的定义是用负熵来定义的。但是需要注意的是,这里的熵已经在热力学以外的物理学领域普及。例如黑洞信息熵、量子信息熵等。根据相应的动力学计算信息的动力学进化,给出信息的定义。在研究量子信息时,我们可以证明一个定理:量子信息守恒定律等同于量子力学的正义。由于大量的实验已经严格证明了量子力学的正义,我们相信信息守恒定律也是严格的——请注意,有一个概念性的飞跃:从量子信息到所有信息。

首先介绍这些常识,如果受试者有疑问,可以阅读量子信息或信息原理等书籍。

什么信息?

香农,美国数学家(Claude Elwood Shannon)出版了其划时代的《通信数学原理》「信息熵」的概念(1948 年),本文为现代信息论奠定了基础。信息越多,不确定性越小,状态越少。比如侦探对案件一无所知的时候,这个案件的嫌疑人很多。换句话说,这是可能的「状态数」很多;侦探收集的越来越多「信息」,他对案件的了解越来越多,最终可以确定「凶手就是你」——这时,侦探指出的凶手是唯一的,这与「状态数」最低情况。「状态数」也叫物理学「熵」,侦探对凶手的不确定性越大,熵就越大,侦探破案真相所需的信息就越多。一棵树,一棵草,它们也是「信息」,随着你对它们的描述越来越深入,信息也越来越多。

所有的信息,无论它们的来源是什么,如何分类,只要它们最终可以编码(例如,它们的本质总是一样的)。如果可以使用系统的状态 0 和 1 为了描述,可以存储系统的状态 1 比特中;如果系统能够拥有它; 3 不同的状态,那么 1 显然,使用比特是不够的。 2 每个比特都可以存储;而对于 1024 不同状态的系统需要 10 只有比特才能存储信息(2)^10),因此,香农信息熵的单位是「比特」(bit)。建立了香农的定义「信息」与「熵」联系,并将「信息」这样一个看似抽象而主观的概念进行了精确的定量描述。