无损压缩经典算法

标签: 无损压缩 经典 算法 | 发表时间:2016-10-26 06:54 | 作者:cordova
出处:http://blog.csdn.net

@前言

总结经典的文件压缩算法原理,主要包括:哈夫曼压缩算法及其延伸,LZ77算法及其演变算法,LZ78算法及其演变算法,几何编码算法Arithmetic Coding。

内容部分摘录翻译自港大‘多媒体技术’硕士课程


1.进行文件压缩的必要性

像图片、声音、视频这些类型的多媒体数据要比文本数据占用多得多的内存空间,尤其是视频文件,文件传输时占用带宽大,存储又占用大量的硬盘空间。

举个例子: 一个1080p分辨率格式下90分钟的无压缩视频要多大?

1帧大小 = 1920 x 1080 x 3 = 6220800 bytes (1920x1080是每一帧的像素数,3指的是每个像素红绿蓝三个通道各占一个字节0~256)

每秒大小 = 6220800 x 25 = 155.52MB!(假设帧率为每秒25帧,很小了!)

每分钟大小 = 155.52MB x 60 = 9.3312GB!(呵呵)

90分钟:大约839.81GB(呵呵呵Orz…)

存储高清视频的蓝光光碟容量不过只有大约50GB,所以视频如果不压缩根本没法存储,更不用说互相传送了。

2.简单黑白图像的压缩

假设黑白图像的数据如下图,黑色像素用1编码,白色图像用0编码:

这里写图片描述

黑白图像的尺寸为16x8 = 128,因此需要128bits来表示它。

如果我们从0开始算起,只保存一些列0和1的个数,那么上面的图像信息可以表示为:

21 6 9 1 5 2 8 1 3 2 1 1 8 1 2 2 2 1 8 6 21

其中最大的数字是21,所以可以统一使用5bits(2^5=32)来表示每一个数字,那么现在的存储空间变为5x21=105bits,节省了23bits。

3.字符串行程编码

和上面黑白图像压缩一样的道理,这里压缩一段字符串: RRRRRGGGBBBBBRRRRGB

压缩的结果为: 5R3G5B4R1G1B

这种方法叫做 行程编码run-ength encoding(RLE),应用于像BMP,TIFF格式的图像文件中。

但这种压缩编码方式很有局限性,我们无法继续用相同的方法进一步压缩压缩后的数据,比如上面的压缩结果无法继续用这种方法压缩,这种压缩基于数据的重复性。

4.信息的可压缩性-信息熵

数据的压缩实际是用更短的数据来表示反复出现的数据实现压缩,因此数据重复率越高可压缩性就越高,不同数据可压缩的程度不一样,信息熵是用来衡量数据可压缩的程度的一个参数,计算信息最短的长度的期望,关于信息熵: http://www.ruanyifeng.com/blog/2014/09/information-entropy.html

5.对编码算法的要求

  1. 通过编码后的编码必须可以准确解码,编码必须确定地对应一种原码;
  2. 编码算法得到的编码要容易解码,可以很容易的找到信息的末尾,可以在线解码,可以直接对编码进行解码而不用知道完整的编码信息;
  3. 编码必须是压缩的,否则失去了编码的意义;

6.哈夫曼编码

哈夫曼编码是David A. Huffman于1952年发明的一种满足上面对编码算法要求的一种编码算法。

举一个例子:知道一段字符串全部由a,b,c,d,e五个字母组成,已知了每个字母出现的频率:

a(0.25),b(0.25),c(0.2),d(0.15),e(0.15)

【如果不考虑编码算法,使用定长的编码来区别五个字母,不利用频率这些信息,那么五个字母每个字母需要用3bits表示(2^2=4,2^3=8).】

哈夫曼算法是利用频率信息构造一棵二叉树,频率高的离根节点近(编码长度短),频率高的离根节点远(编码长度长),手动构造方法是先将字母按照频率从小到大排序,然后不断选择当前还没有父节点的节点中权值最小的两个,构造新的父节点,父节点的值为这两个节点值的和,直到构造成一棵二叉树,上面的例子构造的Y一棵哈弗曼树如下(由于构造过程中叶子节点的值以及新节点的值可能会相同,所以哈弗曼树的结构不唯一):

这里写图片描述

哈夫曼算法C++实现,使用线性数组存储节点的方式实现,输入上面每个字母的权值可以得到哈弗曼树结构:

  #include <iostream>
using namespace std;

#define n 5         // 字符个数(叶子个数)
#define m 2*(n)-1   // 总节点数:1+2+4+8+...+n

typedef struct{
    double weight;   // 节点权重
    int lchild;      // 左子树
    int rchild;      // 右子树
    int parent;      // 父节点
}HTNODE;

typedef HTNODE HuffmanT[m];  // 一棵线性结构存储的哈弗曼树

/**
 * 哈弗曼树初始化
 */
void InitHT(HuffmanT T)
{
    for(int i=0; i<m; i++)
    {
        T[i].lchild=-1;
        T[i].rchild=-1;
        T[i].parent=-1;
    }
    // 依次输入每个节点的权重
    for(int i=0; i<n; i++)
        std::cin>>T[i].weight;
}

/**
 * 找出还没有父节点的节点中权值最小的两个,p1和p2是要选出的权值最小的两个节点的下标,n1是新父节点的下标
 */
void SelectMin(HuffmanT T, int n1, int &p1, int &p2)
{
    int i, j;
    // 先任意找两个没有父节点的节点
    for(i=0; i<n1; i++)
        if(T[i].parent==-1)
        {
            p1=i;
            break;
        }
    for(j=i+1; j<n1;j++)
        if(T[j].parent==-1)
        {
            p2=j;
            break;
        }
    // 搜索替换成权值最小的节点
    for(i=0; i<n1; i++)
        if((T[p1].weight>T[i].weight) && (T[i].parent==-1) && (p2!=i))
            p1=i;
    for(i=0; i<n1; i++)
        if((T[p2].weight>T[i].weight) && (T[i].parent==-1) && (p1!=i))
            p2=i;

}
/**
 * 构造哈弗曼树
 */
void CreatHT(HuffmanT T)
{
    int i, p1, p2;
    InitHT(T);
    // 非叶子节点
    for(i=n; i<m; i++)
    {
        // 找出还没有父节点的节点中权值最小的两个
        SelectMin(T, i, p1, p2);
        T[p1].parent=T[p2].parent=i;
        T[i].lchild=p1;
        T[i].rchild=p2;
        T[i].weight=T[p1].weight+T[p2].weight;
    }
}

/**
 * 打印哈弗曼树
 */
void printHT(HuffmanT T)
{
    for(int i=0; i<m; i++)
    {
        std::cout<<T[i].weight<<'\t'<<T[i].parent<<'\t'<<T[i].rchild<<'\t'<<T[i].lchild<<std::endl;
    }
}

/**
 * 前台测试
 */
int main(){
    HuffmanT T;
    CreatHT(T);
    printHT(T);
    return 0;
}

缩减的哈夫曼算法

哈夫曼编码的缩减实质是对编码字符分组继续进行子分组内编码。先将所有字符按照出现的概率排序,将概率相近的字符作为一个整体参与上一级的编码,这样上一级的编码数量大大减少,分组内继续进行内部哈夫曼编码,同时在上一级中本组的编码作为组内编码的一个固定的前缀。

这里写图片描述

Shift Coding

和缩减的思想类似,将字符按照频率8个一组分块,每到下一块在前面加111进行区分后继续进行3bit的编码。

这里写图片描述

7.Lempel-Ziv压缩算法

LZ算法及其衍生变形算法是压缩算法的一个系列。LZ77和LZ78算法分别在1977年和1978年被创造出来。虽然他们名字差不多,但是算法方法完全不同。这一系列算法主要适用于字母数量有限的信息,比如文字、源码等。流行的GIF和PNG格式的图像,使用颜色数量有限的颜色空间,其压缩就采用了两种算法的灵活变形应用。

LZ77:

推荐阅读文章:

LZ77压缩算法编码原理详解(结合图片和简单代码)

LZ77算法原理及实现

LZ77算法的思想是在编码解码过程中,使用之前刚结束编解码的部分数据的位置索引来代替当前要编解码的数据,压缩的实现靠的是之前编解码结束的部分数据和当前数据的重复性。

算法中几个重要的对象概念:

LAB(look-ahead-buffer):将要编码的固定长度的数据缓冲;

SB(search-buffer):刚过去的固定长度的数据缓冲,搜索缓冲区,也就是临时的数据字典,要从这里面搜索重复数据获得压缩索引;

Cursor:一个指针,指的是SB和LAB缓冲之间的边界处

Token(p,l,c)编码的结果:

  • p: 第一个数字指的是 SB中开始匹配的位置,注意是 从Cursor往前倒着数,从1开始数
  • l: 第二个数字指的是匹配成功的字符个数;
  • c: 第三个指的是 LAB中匹配结束的下一个字符;

示例:

字符串“aacaacabcabaaac”的一个LZ77编码示例,其中缓冲长度分别为:LAB=4,SB=6

这里写图片描述

LZ77的变形

LZR:就是SB搜索缓冲的长度不固定了,算法输出的token位长度也是可变的。

LZH:算法的输出结果又进行了哈夫曼编压缩。

DEFLATE:当前最流行的基于LZ77的压缩算法,是很多通用的Unix压缩项目‘gzip’的一部分。

LZ78:

算法是将编码过程中之前编码过的所有字符作为了一个索引字典,之前的每一次编码是一个字典元素,之后的编码如果包含之前字典的元素则用该元素的索引代替实现压缩(注意是从之前的字典元素中找那个匹配最长的字典元素),同时记录不匹配的那个字符。可以想到,不断更新的字典中最长的字典元素很可能会越来越长且每次长一个字符。

示例:对字符串“abacbabaccbabbaca“进行LZ78编码。
这里写图片描述

LZ78的变形算法

上面说到LZ78的最长的字典元素只会越来越长不受限制,那么就要使用变长的bit空间来保存字典索引,当前字典的需要保存索引的空间大小为 $log2 (i)$ bits, $i$为目前字典中最长字典元素的长度。

LZC

算法给字典元素的长度设置一个最大值,如果匹配的结果超出最大值时就选择上一个相对较短的匹配的字典元素,防止字典元素变得太长。如果编码压缩率受限制变得太小,就清空之前的字典,比如重新开始压缩算法。

LZW

和LZ78不同的是,算法开始不是空的字典,一开始就把可能的所有单一字符作为最开始的字典,另外不是和LZ78那样记录字典索引和不匹配字符,而是只记录匹配的字典索引(不可能出现不匹配的情况,至少匹配一个字符了)。

示例:对字符串“abacbabaccbabbaca”进行LZW编码:
这里写图片描述

算术编码

算数编码是考虑到解决哈夫曼编码的一个限制:对于信息的编码,要对每一个字符都要使用一个几个二进制的bit数区别表示,收到整体的影响,平均每个字符可能都要用不少的bit数空间来表示。
算术编码是将编码的消息表示成实数0和1之间的一个间隔,消息越长,编码表示它的间隔就越小,形成结合越来越紧密的编码,同时需要表示的二进制位数就越多,导致算数编码的最大问题就是计算机的精度问题,精度有限,正常情况下无法进行大量数据的编码,事实上只能编码很短的数据。后来有了其他的先进方法才使算术编码得到应用,具体参考算数编码文章链接。

推荐阅读: 算术编码

作者:cordova 发表于2016/10/25 22:54:04 原文链接
阅读:14 评论:0 查看评论

相关 [无损压缩 经典 算法] 推荐:

无损压缩经典算法

- - CSDN博客综合推荐文章
总结经典的文件压缩算法原理,主要包括:哈夫曼压缩算法及其延伸,LZ77算法及其演变算法,LZ78算法及其演变算法,几何编码算法Arithmetic Coding. 内容部分摘录翻译自港大‘多媒体技术’硕士课程. 像图片、声音、视频这些类型的多媒体数据要比文本数据占用多得多的内存空间,尤其是视频文件,文件传输时占用带宽大,存储又占用大量的硬盘空间.

google group varint 无损压缩解压算法的高效实现 改进版

- - 搜索技术博客-淘宝
google group varint 无损压缩解压算法的高效实现. 近期对其进行了一次改进,性能提升 20%,测试数据如下:. 压缩和解压 100万个整数 (4M). 新版本: encode time consumed: 0.003252 s ;. 老版本: encode time consumed: 0.005198 s ;.

Apple新闻之苹果宣布旗下 Apple Lossless 无损压缩音频格式的编码器开源

- D31T4 - 苹果fans-中文 Apple Blog
    “Apple Lossless(Apple Lossless Audio Codec、ALAC)为苹果的无损音频压缩编码格式,可将非压缩音频格式(WAV、AIFF)压缩至原先容量的40%至60%左右,编解码速度很快. 也因为是无损压缩,听起来与原文件完全一样,不会因解压缩和压缩而改变.     目前支持 Apple Lossless 的主要是苹果自家的 iTunes、iPod、iOS 设备,上周苹果宣布将旗下的 Apple Lossless Audio Codec(ALAC)无损音频编解码器以 Apache License 为协议公布源代码,这样无疑会吸引第三方设备和软件对它的支持.

分类算法——决策树——经典算法比较

- - 数据库 - ITeye博客
决策树是以实例为基础的归纳学习算法. 它从一组无次序、无规则的元组中推理出决策树表示形式的分类规则. 它采用自顶向下的递归方式,在决策树的内部结点进行属性值的比较,并根据不同的属性值从该结点向下分支,叶结点是要学习划分的类. 从根到叶结点的一条路径就对应着一条合取规则,整个决策树就对应着一组析取表达式规则.

转载:百度百科经典算法集合

- 甜菜 - 博客园-aspirin
排序算法:http://baike.baidu.com/view/297739.htm . 冒泡排序法:http://baike.baidu.com/view/1313793.htm . 起泡法:http://baike.baidu.com/view/174304.htm . 鸡尾酒排序:http://baike.baidu.com/view/1981861.htm .

数据挖掘十大经典算法(详解)

- - CSDN博客综合推荐文章
                                                       数据挖掘十大经典算法. C4.5算法是机器学习算法中的一种分类决策树算法,其核心算法是ID3 算法.   C4.5算法继承了ID3算法的优点,并在以下几方面对ID3算法进行了改进: . 1) 用信息增益率来选择属性,克服了用信息增益选择属性时偏向选择取值多的属性的不足; .

人脸识别经典算法二:LBP方法

- - IT瘾-geek
与 第一篇博文特征脸方法不同,LBP(Local Binary Patterns,局部二值模式)是提取局部特征作为判别依据的. LBP方法显著的优点是对光照不敏感,但是依然没有解决姿态和表情的问题. 不过相比于特征脸方法,LBP的识别率已经有了很大的提升. 在[1]的文章里,有些人脸库的识别率已经达到了98%+.

经典论文 — REST

- ripwu - kernelchina
牛人Roy Thomas Fielding的博士论文,此处可以访问到英文版,中文版可以google一下. HTTP1.0,1.1版本以及URI规范的主要作者,Apache的co-founder. 在写这篇论文之前已经很牛了,笔者不明白的是这种档次牛人还要读博士,文凭有这么重要吗. 文中没有任何令人眼花的数学公式和统计图表,实际上是一篇描述URI,HTTP设计经验教训总结的文章.

经典空姐照

- renwen - 东西

jstl标签经典

- - CSDN博客推荐文章
库 :Core(核心库). 描述 : 标签是一个最常用的标签,用于在   JSP   中显示数据.  它的作用是用来替代通过 JSP 内   置对象 out 或者 <%=%> 标签来输出对象的值. 用于指定在使用  标记输出诸如“ < ”、“ > ”、“ ’ ”、“” ”和“ & ”之类的字符(在  HTML  和  XML  中具有特殊意义)时是否应该进行转义.