当前位置:首页 » 文件管理 » 第章压缩术

第章压缩术

发布时间: 2022-03-04 07:20:10

⑴ 数据压缩技术的数据压缩技术简史

电脑里的数据压缩其实类似于美眉们的瘦身运动,不外有两大功用。第一,可以节省空间。拿瘦身美眉来说,要是八个美眉可以挤进一辆出租车里,那该有多省钱啊!第二,可以减少对带宽的占用。例如,我们都想在不到 100Kbps 的 GPRS 网上观看 DVD 大片,这就好比瘦身美眉们总希望用一尺布裁出七件吊带衫,前者有待于数据压缩技术的突破性进展,后者则取决于美眉们的恒心和毅力。
简单地说,如果没有数据压缩技术,我们就没法用 WinRAR 为 Email 中的附件瘦身;如果没有数据压缩技术,市场上的数码录音笔就只能记录不到 20 分钟的语音;如果没有数据压缩技术,从 Internet 上下载一部电影也许要花半年的时间……可是这一切究竟是如何实现的呢?数据压缩技术又是怎样从无到有发展起来的呢? 一千多年前的中国学者就知道用“班马”这样的缩略语来指代班固和司马迁,这种崇尚简约的风俗一直延续到了今天的 Internet 时代:当我们在 BBS 上用“ 7456 ”代表“气死我了”,或是用“ B4 ”代表“ Before ”的时候,我们至少应该知道,这其实就是一种最简单的数据压缩呀。
严格意义上的数据压缩起源于人们对概率的认识。当我们对文字信息进行编码时,如果为出现概率较高的字母赋予较短的编码,为出现概率较低的字母赋予较长的编码,总的编码长度就能缩短不少。远在计算机出现之前,着名的 Morse 电码就已经成功地实践了这一准则。在 Morse 码表中,每个字母都对应于一个唯一的点划组合,出现概率最高的字母 e 被编码为一个点“ . ”,而出现概率较低的字母 z 则被编码为“ --.. ”。显然,这可以有效缩短最终的电码长度。
信息论之父 C. E. Shannon 第一次用数学语言阐明了概率与信息冗余度的关系。在 1948 年发表的论文“通信的数学理论( A Mathematical Theory of Communication )”中, Shannon 指出,任何信息都存在冗余,冗余大小与信息中每个符号(数字、字母或单词)的出现概率或者说不确定性有关。 Shannon 借鉴了热力学的概念,把信息中排除了冗余后的平均信息量称为“信息熵”,并给出了计算信息熵的数学表达式。这篇伟大的论文后来被誉为信息论的开山之作,信息熵也奠定了所有数据压缩算法的理论基础。从本质上讲,数据压缩的目的就是要消除信息中的冗余,而信息熵及相关的定理恰恰用数学手段精确地描述了信息冗余的程度。利用信息熵公式,人们可以计算出信息编码的极限,即在一定的概率模型下,无损压缩的编码长度不可能小于信息熵公式给出的结果。
有了完备的理论,接下来的事就是要想办法实现具体的算法,并尽量使算法的输出接近信息熵的极限了。当然,大多数工程技术人员都知道,要将一种理论从数学公式发展成实用技术,就像仅凭一个 E=mc 2 的公式就要去制造核武器一样,并不是一件很容易的事。 设计具体的压缩算法的过程通常更像是一场数学游戏。开发者首先要寻找一种能尽量精确地统计或估计信息中符号出现概率的方法,然后还要设计一套用最短的代码描述每个符号的编码规则。统计学知识对于前一项工作相当有效,迄今为止,人们已经陆续实现了静态模型、半静态模型、自适应模型、 Markov 模型、部分匹配预测模型等概率统计模型。相对而言,编码方法的发展历程更为曲折一些。
1948 年, Shannon 在提出信息熵理论的同时,也给出了一种简单的编码方法—— Shannon 编码。 1952 年, R. M. Fano 又进一步提出了 Fano 编码。这些早期的编码方法揭示了变长编码的基本规律,也确实可以取得一定的压缩效果,但离真正实用的压缩算法还相去甚远。
第一个实用的编码方法是由 D. A. Huffman 在 1952 年的论文“最小冗余度代码的构造方法( A Method for the Construction of Minimum Rendancy Codes )”中提出的。直到今天,许多《数据结构》教材在讨论二叉树时仍要提及这种被后人称为 Huffman 编码的方法。 Huffman 编码在计算机界是如此着名,以至于连编码的发明过程本身也成了人们津津乐道的话题。据说, 1952 年时,年轻的 Huffman 还是麻省理工学院的一名学生,他为了向老师证明自己可以不参加某门功课的期末考试,才设计了这个看似简单,但却影响深远的编码方法。
Huffman 编码效率高,运算速度快,实现方式灵活,从 20 世纪 60 年代至今,在数据压缩领域得到了广泛的应用。例如,早期 UNIX 系统上一个不太为现代人熟知的压缩程序 COMPACT 实际就是 Huffman 0 阶自适应编码的具体实现。 20 世纪 80 年代初, Huffman 编码又出现在 CP/M 和 DOS 系统中,其代表程序叫 SQ 。今天,在许多知名的压缩工具和压缩算法(如 WinRAR 、 gzip 和 JPEG )里,都有 Huffman 编码的身影。不过, Huffman 编码所得的编码长度只是对信息熵计算结果的一种近似,还无法真正逼近信息熵的极限。正因为如此,现代压缩技术通常只将 Huffman 视作最终的编码手段,而非数据压缩算法的全部。
科学家们一直没有放弃向信息熵极限挑战的理想。 1968 年前后, P. Elias 发展了 Shannon 和 Fano 的编码方法,构造出从数学角度看来更为完美的 Shannon-Fano-Elias 编码。沿着这一编码方法的思路, 1976 年, J. Rissanen 提出了一种可以成功地逼近信息熵极限的编码方法——算术编码。 1982 年, Rissanen 和 G. G. Langdon 一起改进了算术编码。之后,人们又将算术编码与 J. G. Cleary 和 I. H. Witten 于 1984 年提出的部分匹配预测模型( PPM )相结合,开发出了压缩效果近乎完美的算法。今天,那些名为 PPMC 、 PPMD 或 PPMZ 并号称压缩效果天下第一的通用压缩算法,实际上全都是这一思路的具体实现。
对于无损压缩而言, PPM 模型与算术编码相结合,已经可以最大程度地逼近信息熵的极限。看起来,压缩技术的发展可以到此为止了。不幸的是,事情往往不像想象中的那样简单:算术编码虽然可以获得最短的编码长度,但其本身的复杂性也使得算术编码的任何具体实现在运行时都慢如蜗牛。即使在摩尔定律大行其道, CPU 速度日新月异的今天,算术编码程序的运行速度也很难满足日常应用的需求。没办法,如果不是后文将要提到的那两个犹太人,我们还不知要到什么时候才能用上 WinZIP 这样方便实用的压缩工具呢。 逆向思维永远是科学和技术领域里出奇制胜的法宝。就在大多数人绞尽脑汁想改进 Huffman 或算术编码,以获得一种兼顾了运行速度和压缩效果的“完美”编码的时候,两个聪明的犹太人 J. Ziv 和 A. Lempel 独辟蹊径,完全脱离 Huffman 及算术编码的设计思路,创造出了一系列比 Huffman 编码更有效,比算术编码更快捷的压缩算法。我们通常用这两个犹太人姓氏的缩写,将这些算法统称为 LZ 系列算法。
按照时间顺序, LZ 系列算法的发展历程大致是: Ziv 和 Lempel 于 1977 年发表题为“顺序数据压缩的一个通用算法( A Universal Algorithm for Sequential Data Compression )”的论文,论文中描述的算法被后人称为 LZ77 算法。 1978 年,二人又发表了该论文的续篇“通过可变比率编码的独立序列的压缩( Compression of Indivial Sequences via Variable Rate Coding )”,描述了后来被命名为 LZ78 的压缩算法。 1984 年, T. A. Welch 发表了名为“高性能数据压缩技术( A Technique for High Performance Data Compression )”的论文,描述了他在 Sperry 研究中心(该研究中心后来并入了 Unisys 公司)的研究成果,这是 LZ78 算法的一个变种,也就是后来非常有名的 LZW 算法。 1990 年后, T. C. Bell 等人又陆续提出了许多 LZ 系列算法的变体或改进版本。
说实话, LZ 系列算法的思路并不新鲜,其中既没有高深的理论背景,也没有复杂的数学公式,它们只是简单地延续了千百年来人们对字典的追崇和喜好,并用一种极为巧妙的方式将字典技术应用于通用数据压缩领域。通俗地说,当你用字典中的页码和行号代替文章中每个单词的时候,你实际上已经掌握了 LZ 系列算法的真谛。这种基于字典模型的思路在表面上虽然和 Shannon 、 Huffman 等人开创的统计学方法大相径庭,但在效果上一样可以逼近信息熵的极限。而且,可以从理论上证明, LZ 系列算法在本质上仍然符合信息熵的基本规律。
LZ 系列算法的优越性很快就在数据压缩领域里体现 了 出来,使用 LZ 系列算法的工具软件数量呈爆炸式增长。 UNIX 系统上最先出现了使用 LZW 算法的 compress 程序,该程序很快成为了 UNIX 世界的压缩标准。紧随其后的是 MS-DOS 环境下的 ARC 程序,以及 PKWare 、 PKARC 等仿制品。 20 世纪 80 年代,着名的压缩工具 LHarc 和 ARJ 则是 LZ77 算法的杰出代表。
今天, LZ77 、 LZ78 、 LZW 算法以及它们的各种变体几乎垄断了整个通用数据压缩领域,我们熟悉的 PKZIP 、 WinZIP 、 WinRAR 、 gzip 等压缩工具以及 ZIP 、 GIF 、 PNG 等文件格式都是 LZ 系列算法的受益者,甚至连 PGP 这样的加密文件格式也选择了 LZ 系列算法作为其数据压缩的标准。
没有谁能否认两位犹太人对数据压缩技术的贡献。我想强调的只是,在工程技术领域,片面追求理论上的完美往往只会事倍功半,如果大家能像 Ziv 和 Lempel 那样,经常换个角度来思考问题,没准儿你我就能发明一种新的算法,就能在技术方展史上扬名立万呢。 LZ 系列算法基本解决了通用数据压缩中兼顾速度与压缩效果的难题。但是,数据压缩领域里还有另一片更为广阔的天地等待着我们去探索。 Shannon 的信息论告诉我们,对信息的先验知识越多,我们就可以把信息压缩得越小。换句话说,如果压缩算法的设计目标不是任意的数据源,而是基本属性已知的特种数据,压缩的效果就会进一步提高。这提醒我们,在发展通用压缩算法之余,还必须认真研究针对各种特殊数据的专用压缩算法。比方说,在今天的数码生活中,遍布于数码相机、数码录音笔、数码随身听、数码摄像机等各种数字设备中的图像、音频、视频信息,就必须经过有效的压缩才能在硬盘上存储或是通过 USB 电缆传输。实际上,多媒体信息的压缩一直是数据压缩领域里的重要课题,其中的每一个分支都有可能主导未来的某个技术潮流,并为数码产品、通信设备和应用软件开发商带来无限的商机。
让我们先从图像数据的压缩讲起。通常所说的图像可以被分为二值图像、灰度图像、彩色图像等不同的类型。每一类图像的压缩方法也不尽相同。
传真技术的发明和广泛使用促进了二值图像压缩算法的飞速发展。 CCITT (国际电报电话咨询委员会,是国际电信联盟 ITU 下属的一个机构)针对传真类应用建立了一系列图像压缩标准,专用于压缩和传递二值图像。这些标准大致包括 20 世纪 70 年代后期的 CCITT Group 1 和 Group 2 , 1980 年的 CCITT Group 3 ,以及 1984 年的 CCITT Group 4 。为了适应不同类型的传真图像,这些标准所用的编码方法包括了一维的 MH 编码和二维的 MR 编码,其中使用了行程编码( RLE )和 Huffman 编码等技术。今天,我们在办公室或家里收发传真时,使用的大多是 CCITT Group 3 压缩标准,一些基于数字网络的传真设备和存放二值图像的 TIFF 文件则使用了 CCITT Group 4 压缩标准。 1993 年, CCITT 和 ISO (国际标准化组织)共同成立的二值图像联合专家组( Joint Bi-level Image Experts Group , JBIG )又将二值图像的压缩进一步发展为更加通用的 JBIG 标准。
实际上,对于二值图像和非连续的灰度、彩色图像而言,包括 LZ 系列算法在内的许多通用压缩算法都能获得很好的压缩效果。例如,诞生于 1987 年的 GIF 图像文件格式使用的是 LZW 压缩算法, 1995 年出现的 PNG 格式比 GIF 格式更加完善,它选择了 LZ77 算法的变体 zlib 来压缩图像数据。此外,利用前面提到过的 Huffman 编码、算术编码以及 PPM 模型,人们事实上已经构造出了许多行之有效的图像压缩算法。
但是,对于生活中更加常见的,像素值在空间上连续变化的灰度或彩色图像(比如数码照片),通用压缩算法的优势就不那么明显了。幸运的是,科学家们发现,如果在压缩这一类图像数据时允许改变一些不太重要的像素值,或者说允许损失一些精度(在压缩通用数据时,我们绝不会容忍任何精度上的损失,但在压缩和显示一幅数码照片时,如果一片树林里某些树叶的颜色稍微变深了一些,看照片的人通常是察觉不到的),我们就有可能在压缩效果上获得突破性的进展。这一思想在数据压缩领域具有革命性的地位:通过在用户的忍耐范围内损失一些精度,我们可以把图像(也包括音频和视频)压缩到原大小的十分之一、百分之一甚至千分之一,这远远超出了通用压缩算法的能力极限。也许,这和生活中常说的“退一步海阔天空”的道理有异曲同工之妙吧。
这种允许精度损失的压缩也被称为有损压缩。在图像压缩领域,着名的 JPEG 标准是有损压缩算法中的经典。 JPEG 标准由静态图像联合专家组( Joint Photographic Experts Group , JPEG )于 1986 年开始制定, 1994 年后成为国际标准。 JPEG 以离散余弦变换( DCT )为核心算法,通过调整质量系数控制图像的精度和大小。对于照片等连续变化的灰度或彩色图像, JPEG 在保证图像质量的前提下,一般可以将图像压缩到原大小的十分之一到二十分之一。如果不考虑图像质量, JPEG 甚至可以将图像压缩到“无限小”。
JPEG 标准的最新进展是 1996 年开始制定, 2001 年正式成为国际标准的 JPEG 2000 。与 JPEG 相比, JPEG 2000 作了大幅改进,其中最重要的是用离散小波变换( DWT )替代了 JPEG 标准中的离散余弦变换。在文件大小相同的情况下, JPEG 2000 压缩的图像比 JPEG 质量更高,精度损失更小。作为一个新标准, JPEG 2000 暂时还没有得到广泛的应用,不过包括数码相机制造商在内的许多企业都对其应用前景表示乐观, JPEG 2000 在图像压缩领域里大显身手的那一天应该不会特别遥远。
JPEG 标准中通过损失精度来换取压缩效果的设计思想直接影响了视频数据的压缩技术。 CCITT 于 1988 年制定了电视电话和会议电视的 H.261 建议草案。 H.261 的基本思路是使用类似 JPEG 标准的算法压缩视频流中的每一帧图像,同时采用运动补偿的帧间预测来消除视频流在时间维度上的冗余信息。在此基础上, 1993 年, ISO 通过了动态图像专家组( Moving Picture Experts Group , MPEG )提出的 MPEG-1 标准。 MPEG-1 可以对普通质量的视频数据进行有效编码。我们现在看到的大多数 VCD 影碟,就是使用 MPEG-1 标准来压缩视频数据的。
为了支持更清晰的视频图像,特别是支持数字电视等高端应用, ISO 于 1994 年提出了新的 MPEG-2 标准(相当于 CCITT 的 H.262 标准)。 MPEG-2 对图像质量作了分级处理,可以适应普通电视节目、会议电视、高清晰数字电视等不同质量的视频应用。在我们的生活中,可以提供高清晰画面的 DVD 影碟所采用的正是 MPEG-2 标准。
Internet 的发展对视频压缩提出了更高的要求。在内容交互、对象编辑、随机存取等新需求的刺激下, ISO 于 1999 年通过了 MPEG-4 标准(相当于 CCITT 的 H.263 和 H.263+ 标准)。 MPEG-4 标准拥有更高的压缩比率,支持并发数据流的编码、基于内容的交互操作、增强的时间域随机存取、容错、基于内容的尺度可变性等先进特性。 Internet 上新兴的 DivX 和 XviD 文件格式就是采用 MPEG-4 标准来压缩视频数据的,它们可以用更小的存储空间或通信带宽提供与 DVD 不相上下的高清晰视频,这使我们在 Internet 上发布或下载数字电影的梦想成为了现实。
就像视频压缩和电视产业的发展密不可分一样,音频数据的压缩技术最早也是由无线电广播、语音通信等领域里的技术人员发展起来的。这其中又以语音编码和压缩技术的研究最为活跃。自从 1939 年 H. Dudley 发明声码器以来,人们陆续发明了脉冲编码调制( PCM )、线性预测( LPC )、矢量量化( VQ )、自适应变换编码( ATC )、子带编码( SBC )等语音分析与处理技术。这些语音技术在采集语音特征,获取数字信号的同时,通常也可以起到降低信息冗余度的作用。像图像压缩领域里的 JPEG 一样,为获得更高的编码效率,大多数语音编码技术都允许一定程度的精度损失。而且,为了更好地用二进制数据存储或传送语音信号,这些语音编码技术在将语音信号转换为数字信息之后又总会用 Huffman 编码、算术编码等通用压缩算法进一步减少数据流中的冗余信息。
对于电脑和数字电器(如数码录音笔、数码随身听)中存储的普通音频信息,我们最常使用的压缩方法主要是 MPEG 系列中的音频压缩标准。例如, MPEG-1 标准提供了 Layer I 、 Layer II 和 Layer III 共三种可选的音频压缩标准, MPEG-2 又进一步引入了 AAC ( Advanced Audio Coding )音频压缩标准, MPEG-4 标准中的音频部分则同时支持合成声音编码和自然声音编码等不同类型的应用。在这许多音频压缩标准中,声名最为显赫的恐怕要数 MPEG-1 Layer III ,也就是我们常说的 MP3 音频压缩标准了。从 MP3 播放器到 MP3 手机,从硬盘上堆积如山的 MP3 文件到 Internet 上版权纠纷不断的 MP3 下载, MP3 早已超出了数据压缩技术的范畴,而成了一种时尚文化的象征了。
很显然,在多媒体信息日益成为主流信息形态的数字化时代里,数据压缩技术特别是专用于图像、音频、视频的数据压缩技术还有相当大的发展空间——毕竟,人们对信息数量和信息质量的追求是永无止境的。 从信息熵到算术编码,从犹太人到 WinRAR ,从 JPEG 到 MP3 ,数据压缩技术的发展史就像是一个写满了“创新”、“挑战”、“突破”和“变革”的羊皮卷轴。也许,我们在这里不厌其烦地罗列年代、人物、标准和文献,其目的只是要告诉大家,前人的成果只不过是后人有望超越的目标而已,谁知道在未来的几年里,还会出现几个 Shannon ,几个 Huffman 呢?
谈到未来,我们还可以补充一些与数据压缩技术的发展趋势有关的话题。
1994年, M. Burrows 和 D. J. Wheeler 共同提出了一种全新的通用数据压缩算法。这种算法的核心思想是对字符串轮转后得到的字符矩阵进行排序和变换,类似的变换算法被称为 Burrows-Wheeler 变换,简称 BWT 。与 Ziv 和 Lempel 另辟蹊径的做法如出一辙, Burrows 和 Wheeler 设计的 BWT 算法与以往所有通用压缩算法的设计思路都迥然不同。如今, BWT 算法在开放源码的压缩工具 bzip 中获得了巨大的成功, bzip 对于文本文件的压缩效果要远好于使用 LZ 系列算法的工具软件。这至少可以表明,即便在日趋成熟的通用数据压缩领域,只要能在思路和技术上不断创新,我们仍然可以找到新的突破口。
分形压缩技术是图像压缩领域近几年来的一个热点。这一技术起源于 B. Mandelbrot 于 1977 年创建的分形几何学。 M. Barnsley 在 20 世纪 80 年代后期为分形压缩奠定了理论基础。从 20 世纪 90 年代开始, A. Jacquin 等人陆续提出了许多实验性的分形压缩算法。今天,很多人相信,分形压缩是图像压缩领域里最有潜力的一种技术体系,但也有很多人对此不屑一顾。无论其前景如何,分形压缩技术的研究与发展都提示我们,在经过了几十年的高速发展之后,也许,我们需要一种新的理论,或是几种更有效的数学模型,以支撑和推动数据压缩技术继续向前跃进。
人工智能是另一个可能对数据压缩的未来产生重大影响的关键词。既然 Shannon 认为,信息能否被压缩以及能在多大程度上被压缩与信息的不确定性有直接关系,假设人工智能技术在某一天成熟起来,假设计算机可以像人一样根据已知的少量上下文猜测后续的信息,那么,将信息压缩到原大小的万分之一乃至十万分之一,恐怕就不再是天方夜谭了。
回顾历史之后,人们总喜欢畅想一下未来。但未来终究是未来,如果仅凭你我几句话就可以理清未来的技术发展趋势,那技术创新的工作岂不就索然无味了吗?依我说,未来并不重要,重要的是,赶快到 Internet 上下载几部大片,然后躺在沙发里,好好享受一下数据压缩为我们带来的无限快乐吧。

⑵ 高分求超级压缩术!

我可以告诉你,
压缩和文件的格式有关,比如用一种AVI格式的,可以像你说的那样,不过如果其它的,如rm,mpg,等这样的音频格式文件压缩比率是很不的,
你问的这样的大比率压缩软件不存在,如果有人给你说存在的话,他是骗你的.

⑶ 数字电视的视频压缩技术

论文题目是:数字电视接收机的视频压缩技术
帮写内容:(1)选题依据及研究意义;
(2) 选题研究现状;
(3)研究内容(包括基本思路、框架、主要研究方式、方法
等)

一共是三点,请大家教一下我这三点该怎么写?!

注明:论文我已经写好了:下面是论文提纲(含论文选题、论文主体框架)
论文选题:数字电视接收机的视频压缩技术

第一章:绪论
一、数字电视的发展及视频压缩的必要性;
二、视频图象数字压缩的客观依据;
三、数字电视与接收机(机顶盒);
四、电视信号模数转换标准;
第二章:数字电视机顶盒技术
一、什么是数字电视机顶盒;
二、数字电视机顶盒的基本原理;
三、数字电视机顶盒的结构;
四、数字电视机顶盒的主要技术;
第三章:视频压缩编码技术
一 空间或时间性编码;
二. 加权;
三. 遍历(Scannng);
四. 熵编码;
五. 空间性编码器;
六. 时间性编码;
七. 运动补偿;
八. 双向编码;
九. I、P 和B 画面;
十. MPEG 压缩器;
十一. 预处理;
十二. 类和级;
十三. 小波;
第四章:视频图象压缩标准
一、H.261标准;
二、JPEG标准;
三、MPEG-1压缩编码标准;
四、MPEG-2压缩编码标准;
五、MPEG-4压缩编码标准;
结束语 ;
参考文献 ;
问题补充:题目是学校帮我选择的! 大家可以帮忙把这三点写一下吗? 我真不知道该怎么写! 或者大家帮我写前两点也好了~ 谢谢帮我忙的所有朋友! 拜托各位了!我开题16号就要交了

看看这个能不能帮您!
一、如何选择问题

我一起萦绕于怀的,是在写博士论文开题报告的一年多时间里,导师薛澜教授反复追问的一个问题:“你的 puzzle 是什么?”多少次我不假思索地回答“我的问题就是,中国的半导体产业为什么发展不起来。”薛老师问题以其特有的储蓄,笑而不答。我在心中既恼火又懊丧:这么简单的道理,这么明显的答案,到底哪儿不对了?!

奥妙就在于提出问题的“层次”。不同于政策研究报告,学术文章聚集理论层面、解决理论问题。理论是由一系列前设和术语构造的逻辑体系。特定领域的理论有其特定的概念、范畴和研究范式。只有在相同的概念、视角和范式下,理论才能够对话;只有通过对话,理论才能够发展。极少有硕博论文是创造新理论的,能这样当然最好,但难度很大。我们多数是在既有理论的基础上加以发展,因此,在提出问题时,要以“内行”看得懂的术语和明确的逻辑来表述。审视我最初提出的问题“中国半导体产业为什么发展不起来”,这仅仅是对现象的探询,而非有待求证的理论命题。我的理论命题是:“中国产业政策过程是精英主导的共识过程吗?”在这个命题中,“政策过程”、“精英政治”、“共识诉求”三个术语勾勒出研究的理论大体范围和视角。

其次,选择问题是一个“剥笋”的过程。理论问题总是深深地隐藏在纷繁复杂的现实背后,而发现理论问题,则需要运用理论思维的能力。理论思维的训练是一个长期积累的过程。不过初学者也不必望而却步,大体上可以分“三步走”:第一步,先划定一个“兴趣范围”,如半导体产业、信息产业、农村医疗、高等教育体制等,广泛浏览相关的媒体报道、政府文献和学术文章,找到其中的“症结”或“热点”。第二步,总结以往的研究者大体从哪些理论视角来分析“症结”或“热点”、运用了哪些理论工具,如公共财政的视角、社会冲突范式等。第三步,考察问题的可研究性,也就是我们自己的研究空间和研究的可行性。例如,西方的理论是否无法解释中国的问题?或者同一个问题能否用不同的理论来解释?或者理论本身的前提假设、逻辑推演是否存在缺陷?通过回答这些问题,我们找到自己研究的立足点。不过还要注意我们研究在规定的一到两年时间内,是否可能完成?资料获取是否可行?等等。

最后,如何陈述问题?陈述问题实质上就是凝练核心观点的过程。观点应当来自对现实问题的思考和总结,而不是为了套理论而“削足适履”。中国的政治、经济和社会发展充满动态的、丰富的景象,如何才能用恰当的术语、准确的逻辑表述出来呢?雄心勃勃的初学者往往提出宏伟的概念或框架,但我的建议是尽可能缩小研究范围、明确研究对象,从而理清对象的内存逻辑,保证能在有限的时间内完成规范的学

术论文。如“中国半导体产业政策研究”就是一个非常含糊的陈述,我们可以从几个方面来收缩话题:( 1 )时间:从 1980 年到 2000 年;( 2 )对象:政府的叛乱者和决策行为,而不是市场、企业、治理结构等;( 3 )视角:政治和政府理论中的精英研究;( 4 )案例: 908 工程、 909 工程、 13 号文件和《电子振兴》,这是发生在 1980 - 2000 年间半导体政策领域的两个重大工程和两个重要文件。通过这样的明确界定,我们将目光集中在“政策过程”、“精英”、“共识”几个显而易见的概念上,问题也就水落石出了。同时,问题清楚了,我们在筛选信息和资料时也就有了明确的标准,在这个“信息冗余”的时代,能够大大提高研究效率。

二、 如何做文献综述

首先需要将“文献综述( Literature Review) ”与“背景描述 (Backupground Description) ”区分开来。我们在选择研究问题的时候,需要了解该问题产生的背景和来龙去脉,如“中国半导体产业的发展历程”、“国外政府发展半导体产业的政策和问题”等等,这些内容属于“背景描述”,关注的是现实层面的问题,严格讲不是“文献综述”,关注的是现实层面问题,严格讲不是“文献综述”。“文献综述”是对学术观点和理论方法的整理。其次,文献综述是评论性的( Review 就是“评论”的意思),因此要带着作者本人批判的眼光 (critical thinking) 来归纳和评论文献,而不仅仅是相关领域学术研究的“堆砌”。评论的主线,要按照问题展开,也就是说,别的学者是如何看待和解决你提出的问题的,他们的方法和理论是否有什么缺陷?要是别的学者已经很完美地解决了你提出的问题,那就没有重复研究的必要了。

清楚了文献综述的意涵,现来说说怎么做文献综述。虽说,尽可能广泛地收集资料是负责任的研究态度,但如果缺乏标准,就极易将人引入文献的泥沼。

技巧一:瞄准主流。主流文献,如该领域的核心期刊、经典着作、专职部门的研究报告、重要化合物的观点和论述等,是做文献综述的“必修课”。而多数大众媒体上的相关报道或言论,虽然多少有点价值,但时间精力所限,可以从简。怎样摸清该领域的主流呢?建议从以下几条途径入手:一是图书馆的中外学术期刊,找到一两篇“经典”的文章后“顺藤摸瓜”,留意它们的参考文献。质量较高的学术文章,通常是不会忽略该领域的主流、经典文献的。二是利用学校图书馆的“中国期刊网”、“外文期刊数据库检索”和外文过刊阅览室,能够查到一些较为早期的经典文献。三是国家图书馆,有些上世纪七八十年代甚至更早出版的社科图书,学校图书馆往往没有收藏,但是国图却是一本不少(国内出版的所有图书都要送缴国家图书馆),不仅如此,国图还收藏了很多研究中国政治和政府的外文书籍,从互联网上可以轻松查询到。

技巧二:随时整理,如对文献进行分类,记录文献信息和藏书地点。做博士论文的时间很长,有的文献看过了当时不一定有用,事后想起来却找不着了,所以有时记录是很有必要的。罗仆人就积累有一份研究中国政策过程的书单,还特别记录了图书分类号码和藏书地点。同时,对于特别重要的文献,不妨做一个读书笔记,摘录其中的重要观点和论述。这样一步一个脚印,到真正开始写论文时就积累了大量“干货”,可以随时享用。

技巧三:要按照问题来组织文献综述。看过一些文献以后,我们有很强烈的愿望要把自己看到的东西都陈述出来,像“竹筒倒豆子”一样,洋洋洒洒,蔚为壮观。仿佛一定要向读者证明自己劳苦功高。我写过十多万字的文献综述,后来发觉真正有意义的不过数千字。文献综述就像是在文献的丛林中开辟道路,这条道路本来就是要指向我们所要解决的问题,当然是直线距离最短、最省事,但是一路上风景颇多,迷恋风景的人便往往绕行于迤逦的丛林中,反面“乱花渐欲迷人眼”,“曲径通幽”不知所终了。因此,在做文献综述时,头脑时刻要清醒:我要解决什么问题,人家是怎么解决问题的,说的有没有道理,就行了。

三、如何撰写开题报告

问题清楚了,文献综述也做过了,开题报告便呼之欲出。事实也是如此,一个清晰的问题,往往已经隐含着论文的基本结论;对现有文献的缺点的评论,也基本暗含着改进的方向。开题报告就是要把这些暗含的结论、论证结论的逻辑推理,清楚地展现出来。

写开题报告的目的,是要请老师和专家帮我们判断一下:这个问题有没有研究价值、这个研究方法有没有可能奏效、这个论证逻辑有没有明显缺陷。因此,开题报告的主要内容,就要按照“研究目的和意义”、“文献综述和理论空间”、“基本论点和研究方法”、“资料收集方法和工作步骤”这样几个方面展开。其中,“基本论点和研究方法”是重点,许多人往往花费大量笔墨铺陈文献综述,但一谈到自己的研究方法时但寥寥数语、一掠而过。这样的话,评审老师怎么能判断出你的研究前景呢?又怎么能对你的研究方法给予切实的指导和建议呢?

对于不同的选题,研究方法有很大的差异。一个严谨规范的学术研究,必须以严谨规范的方法为支撑。在博士生课程的日常教学中,有些老师致力于传授研究方法;有的则突出讨论方法论的问题。这都有利于我们每一个人提高自己对研究方法的认识、理解、选择与应用,并具体实施于自己的论文工作中。

⑷ 请问第一腰椎压缩性骨折,约1/2,四肢有力,大小便正常,核磁显示压缩骨折伴硬膜囊下肿,请问是手术,

病情分析:
你好,压缩性骨折患者在进行腰部锻炼的同时,应注意四肢各关节的活动,以预防肢体肌肉废用性萎缩、关节挛缩和骨骼脱钙。下肢各关节有节律运动能促进血液循环,防止下肢血栓形成。
指导意见:
患者还应加强呼吸功能锻炼,以维持正常的肺功能。常用的方法有深呼吸、缩唇呼吸(如吹口哨样)等。

⑸ 多媒体技术这门课程第四章数据压缩与编码的知识点有哪些

多媒体技术这门课第四章数据压缩与编码的知识点包含章节导引,第一节数据压缩与编码简介,第二节信息熵编码,第三节变换编码,第四节预测编码,第五节模型和混合编码,第六节音频压缩编码,第七节图像压缩编码,第八节视频压缩编码,课后练习,。

⑹ 第一腰椎压缩性骨折手术适应症

椎体压缩超过三分之一或有椎管骨性狭窄或有神经压迫症状

⑺ 压缩技术的压缩技术

压缩技术 Compression Techniques 基本的压缩技术有:
空格压缩(Null Compression) 将一串空格用一个压缩码代替,压缩码后面的数值代表空格的个数。
游长压缩(Run-Length Compression)它是空格压缩技术的扩充,压缩任何4个或更多的重复字符的串。该字符串被一个压缩码、一个重复字符和一个代表重复字符个数的值所取代。
关键字编码(Key-word encoding)创建一张由表示普通字符集的值所组成的表。频繁出现的单词如for、the或字符对如sh、th,被表示为一些标记(token),用来保存或传送这些字符。
哈夫曼统计方法(Huffman statistical method)这种压缩技术假定数据中的字符有一个变化分布,换句话说,有些字符的出现次数比其余的多。字符出现越频繁,用于编码的位数就越少。这种编码方案保存在一张表中,在数据传输时,它能被传送到接收方调制解调器使其知道如何译码字符。
因为压缩算法是基于软件的,所以实时环境中,存在着额外开销,会引起不少问题。而文件备份、归档过程中的压缩不会有什么问题。使用高性能的系统有助于消除大部分的额外开销和性能问题。另外,压缩消除了文件的可移植性,除非解压缩软件也与文件一起传送。
注意,有些文件已经被压缩,进一步的外部压缩不会有任何好处,一些图形文件格式,如标签映象文件格式(TIFF),就已经包含了压缩。 Storage System Compression存储系统压缩
在讨论文件存储的压缩算法之前,应该明确文件压缩不同于磁盘编码。磁盘编码通常由磁盘驱动器把更多的数字1和0写到磁盘的物理表面上。文件压缩把文件中的字符和位串挤压到更小的尺寸。它在文件信息传送到硬盘驱动器的写头之前由软件完成。现代的使用编码的硬盘驱动器只是从CPU接收1和o的位流,并且把它们压挤到比没有使用编码小得多的空间中。磁盘编码简单讨论到这儿,下面将着重讨论文件压缩。
磁盘记录系统如硬盘驱动器通过改变磁盘表面的磁场来记录信息。两种可能状态间的磁场变化称为磁通翻转(flux transition)。简单地说,磁通翻转代表数字1,磁通不翻转代表数字0。编码提供了一种方法使每个磁通翻转代表更多数字信息。改进调频制MFM(Modified frequency molation)将一个磁通翻转表示多个1,将磁通不翻转表示多个0。编码技术包括下述几种。
游长受限码(Run Length limited(RLU))把位组合格式表示为代码,可以用较少的磁通翻转来存储。与MFM相比,存储容量提高了50%。
改进的游长受限码(Advanced run length limited(ARLL) 通过把位组合格式转换成能用四倍密度磁通翻转来存储的代码,从而把MFM的记录密度翻了一倍。
因为磁盘编码是由硬盘驱动器在硬件级自动处理的,这里没有必要进一步讨论。当你购买一个硬盘驱动器,它使用一种编码方案而获得一定的容量,但是只要驱动器的容量满足你的要求,购买后,就不必关心它的编码方案了。

⑻ 什么是压缩技术,起源于什么时候

因为有些文件格式相对较大。。比如BMP格式的图片。压缩比较基本上在100倍左右。。因此为了节省空间。。就需要对数据进行压缩

1.什么是数据压缩

数据压缩,通俗地说,就是用最少的数码来表示信号。其作用是:能较快地传输各种信号,如传真、Modem通信等;在现有的通信干线并行开通更多的多媒体业务,如各种增值业务;紧缩数据存储容量,如CD-ROM、VCD和DVD等;降低发信机功率,这对于多媒体移动通信系统尤为重要。由此看来,通信时间、传输带宽、存储空间甚至发射能量,都可能成为数据压缩的对象。

2.数据为何能被压缩

首先,数据中间常存在一些多余成分,既冗余度。如在一份计算机文件中,某些符号会重复出现、某些符号比其他符号出现得更频繁、某些字符总是在各数据块中可预见的位置上出现等,这些冗余部分便可在数据编码中除去或减少。冗余度压缩是一个可逆过程,因此叫做无失真压缩,或称保持型编码。

其次,数据中间尤其是相邻的数据之间,常存在着相关性。如图片中常常有色彩均匀的背影,电视信号的相邻两帧之间可能只有少量的变化影物是不同的,声音信号有时具有一定的规律性和周期性等等。因此,有可能利用某些变换来尽可能地去掉这些相关性。但这种变换有时会带来不可恢复的损失和误差,因此叫做不可逆压缩,或称有失真编码、摘压缩等。

此外,人们在欣赏音像节目时,由于耳、目对信号的时间变化和幅度变化的感受能力都有一定的极限,如人眼对影视节目有视觉暂留效应,人眼或人耳对低于某一极限的幅度变化已无法感知等,故可将信号中这部分感觉不出的分量压缩掉或“掩蔽掉”。这种压缩方法同样是一种不可逆压缩。

对于数据压缩技术而言,最基本的要求就是要尽量降低数字化的在码事,同时仍保持一定的信号质量。不难想象,数据压缩的方法应该是很多的,但本质上不外乎上述完全可逆的冗余度压缩和实际上不可逆的嫡压缩两类。冗余度压缩常用于磁盘文件、数据通信和气象卫星云图等不允许在压缩过程中有丝毫损失的场合中,但它的压缩比通常只有几倍,远远不能满足数字视听应用的要求。

在实际的数字视听设备中,差不多都采用压缩比更高但实际有损的媳压缩技术。只要作为最终用户的人觉察不出或能够容忍这些失真,就允许对数字音像信号进一步压缩以换取更高的编码效率。摘压缩主要有特征抽取和量化两种方法,指纹的模式识别是前者的典型例子,后者则是一种更通用的摘压缩技术。

更加详细的资料看这里吧。
http://www.kdntc.cn/nic/netstudy/wsjs/tongxin/shu/039.htm

-----------------------------
数据压缩是通过减少计算机中所存储数据或者通信传播中数据的冗余度,达到增大数据密度,最终使数据的存储空间减少的技术。
数据压缩在文件存储和分布式系统领域有着十分广泛的应用。数据压缩也代表着尺寸媒介容量的增大和网络带宽的扩展。
数据压缩就是将字符串的一种表示方式转换为另一种表示方式,新的表示方式包含相同的信息量,但是长度比原来的方式尽可能的短。

1. 数据压缩与编码
数据压缩跟编码技术联系紧密,压缩的实质就是根据数据的内在联系将数据从一种编码映射为另一种编码。压缩前的数据要被划分为一个一个的基本单元。基本单元既可以是单个字符,也可以是多个字符组成的字符串。称这些基本单元为源消息,所有的源消息构成源消息集。源消息集映射的结果为码字集。可见,压缩前的数据是源消息序列,压缩后的数据是码字序列。
若定义块为固定长度的字符或字符串,可变长为长度可变的字符或字符串,则编码可分为块到块编码、块到可变长编码、可变长到块编码、可变长到可变长编码等。应用最广泛的ASCII编码就是块到块编码。
2. 数据压缩的分类
数据压缩按照映射是否固定可分为静态数据压缩和动态数据压缩。静态数据压缩是指压缩前源消息集到码字集之间的映射是固定的,出现在被压缩数据中的源消息每次都被映射为同一码字。动态数据压缩是指源消息集到码字集的映射会随着压缩进度的变化而变化。静态压缩编码需要两步,先计算出源消息出现的频率,确定源消息到码字之间的映射;然后完成映射。动态数据压缩则只需一步就能完成,它在压缩过程中只对源消息集扫描一次。有些数据压缩算法是混合型的,综合应用了静态数据压缩和动态数据压缩技术。
3. 评价数据压缩的标准
从实际应用来说,数据压缩可从两方面来衡量:数据压缩速度和数据压缩率。当数据压缩应用于网络传输时,主要考虑速度快慢;当数据压缩应用于数据存储中,主要考虑压缩率,即压缩后数据的大小。当然这两方面是相辅相成的。
常用的评价标准有冗余度、平均源信息长度、压缩率等。对于一种编码方式是否为较好的编码,主要看该编码的冗余度是否最小。
4. 常见的数据压缩工具
现在操作简单,使用方便,功能强大的数据压缩工具有很多。最常见的是WinZip和WinRAR。
数据压缩通过减少数据的冗余度来减少数据在存储介质上的存储空间,而数据备份则通过增加数据的冗余度来达到保护数据安全的目的。两者在实际应用中常常结合起来使用。通常将要备份的数据进行压缩处理,然后将压缩后的数据用备份进行保护。当需要恢复数据时,先将备份数据恢复,再解压缩。
由于计算机中的数据十分宝贵又比较脆弱,数据备份无论对国家、企业和个人来说都非常重要。数据备份能在较短的时间内用很小的代价,将有价值的数据存放到与初始创建的存储位置相异的地方;当数据被破坏时,用较短的时间和较小的花费将数据全部恢复或部分恢复。
1. 对备份系统的要求
不同的应用环境有不同的备份需求,一般来说,备份系统应该有以下特性。
☆ 稳定性:备份系统本身要很稳定和可靠。
☆ 兼容性:备份系统要能支持各种操作系统、数据库和典型应用软件。
☆ 自动化:备份系统要有自动备份功能,并且要有日志记录。
☆ 高性能:备份的效率要高,速度要尽可能的快。
☆ 操作简单:以适应不同层次的工作人员的要求,减轻工作人员负担。
☆ 实时性:对于某些不能停机备份的数据,要可以实时备份,以确保数据正确。
☆ 容错性:若有可能,最好有多个备份,确保数据安全可靠。
2. 数据备份的种类
数据备份按所备份数据的特点可分为完全备份、增量备份和系统备份。
完全备份是指对指定位置的所有数据都备份,它占用较大的空间,备份过程的时间也较长。增量备份是指数据有变化时对变化的部分进行备份,它占用空间小,时间短。完全备份一般在系统第一次使用时进行,而增量备份则经常进行。系统备份是指对整个系统进行备份。它一般定期进行,占用空间较大,时间较长。
3. 数据备份的常用方法
数据备份根据使用的存储介质种类可分为软盘备份、磁带备份、光盘备份、优盘备份、移动硬盘备份、本机多个硬盘备份和网络备份。用户可以根据数据大小和存储介质的大小是否匹配进行选择。
数据备份是被动的保护数据的方法,用户应根据不同的应用环境来选择备份系统、备份设备和备份策略。
http://ke..com/view/286827.html

---------------------------
有损数据压缩方法是经过压缩、解压的数据与原始数据不同但是非常接近的压缩方法。有损数据压缩又称破坏型压缩,即将次要的信息数据压缩掉,牺牲一些质量来减少数据量,使压缩比提高。这种方法经常用于因特网尤其是流媒体以及电话领域。在这篇文章中经常成为编解码。它是与无损数据压缩对应的压缩方法。根据各种格式设计的不同,有损数据压缩都会有 generation loss:压缩与解压文件都会带来渐进的质量下降。

[编辑] 有损压缩的类型
有两种基本的有损压缩机制:

一种是有损变换编解码,首先对图像或者声音进行采样、切成小块、变换到一个新的空间、量化,然后对量化值进行熵编码。
另外一种是预测编解码,先前的数据以及随后解码数据用来预测当前的声音采样或者或者图像帧,预测数据与实际数据之间的误差以及其它一些重现预测的信息进行量化与编码。
有些系统中同时使用这两种技术,变换编解码用于压缩预测步骤产生的误差信号。

有损与无损压缩比较
有损方法的一个优点就是在有些情况下能够获得比任何已知无损方法小得多的文件大小,同时又能满足系统的需要。

有损方法经常用于压缩声音、图像以及视频。有损视频编解码几乎总能达到比音频或者静态图像好得多的压缩率(压缩率是压缩文件与未压缩文件的比值)。音频能够在没有察觉的质量下降情况下实现 10:1 的压缩比,视频能够在稍微观察质量下降的情况下实现如 300:1 这样非常大的压缩比。有损静态图像压缩经常如音频那样能够得到原始大小的 1/10,但是质量下降更加明显,尤其是在仔细观察的时候。

当用户得到有损压缩文件的时候,譬如为了节省下载时间,解压文件与原始文件在数据位的层面上看可能会大相径庭,但是对于多数实用目的来说,人耳或者人眼并不能分辨出二者之间的区别。

一些方法将人体解剖方面的特质考虑进去,例如人眼只能看到一定频率的光线。心理声学模型描述的是声音如何能够在不降低声音感知质量的前提下实现最大的压缩。

人眼或人耳能够察觉的有损压缩带来的缺陷称为压缩失真(en:compression artifact)。
http://ke..com/view/583477.html

⑼ 腰椎第一节压缩性骨折固定术后多久才能下

你好,腰椎压缩性骨折术后卧床二至三个月,两至三周后开始进行腰背肌功能锻炼,术后一个月可以俯卧。 腰椎压缩性骨折钉棒系统内固定术后一个月可以俯卧位(趴着),平卧位及侧卧位,不能坐,不能站,两至三个月后才能下地,术后在康复医师指导下进行功能锻炼,增加营养促进骨折愈合,促进恢复。

热点内容
拉杆箱密码坏了去哪里修理 发布:2024-10-29 04:20:21 浏览:580
什么叫ps脚本 发布:2024-10-29 04:16:19 浏览:728
台式电脑怎么上密码 发布:2024-10-29 03:50:45 浏览:375
光遇安卓怎么变成无翼 发布:2024-10-29 03:50:45 浏览:88
瑞讯mt4服务器地址 发布:2024-10-29 03:50:43 浏览:624
电动车要看哪些配置 发布:2024-10-29 03:49:06 浏览:833
搭建国外服务器吗 发布:2024-10-29 03:47:00 浏览:250
软路由准系统如何配置 发布:2024-10-29 03:46:26 浏览:446
邮箱独立密码忘记了怎么办 发布:2024-10-29 03:42:08 浏览:172
安卓什么软件可以把视频变成壁纸 发布:2024-10-29 03:36:26 浏览:452