Tag: 信息理论

如何计算位串的近似熵?

有没有一个标准的方法来做到这一点? 谷歌search – “近似熵”位 – 揭示了多篇学术论文,但我只想find一个伪代码块定义任意长度的给定位串的近似熵。 (如果这说起来容易做起来并且取决于应用程序,我的应用程序涉及16,320位encryption数据(密文),但作为一个谜题encryption,并不意味着不可能破解,我想我会先检查熵,但是很难find这样的好的定义,所以这似乎是一个应该在StackOverflow上的问题!从开始去除混合16k随机表示位的想法也是受欢迎的…) 另请参阅以下相关问题: 什么是熵的计算机科学定义?

什么是熵的计算机科学定义?

我最近在我的大学开始了一个关于数据压缩的课程。 然而,我发现“熵”这个术语在计算机科学中应用的含义很模糊。 据我所知,它大致转化为系统或结构的“随机性”。 计算机科学“熵”的正确定义是什么?

两幅图像的互信息和联合熵 – MATLAB

我有两个黑白图像,我需要计算互信息。 Image 1 = X Image 2 = Y 我知道互信息可以定义为: MI = entropy(X) + entropy(Y) – JointEntropy(X,Y) MATLAB已经具有内置函数来计算熵,但不计算联合熵。 我想真正的问题是:我如何计算两幅图像的联合熵? 这里是我想要find联合熵的图像的一个例子: X = 0 0 0 0 0 0 0 0 1 1 0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Y = 0 […]