:2016年是“信息论之父”克劳德·艾尔伍德·香农(Claude Elwood
Shannon)诞辰100周年。信息论是西电大部分专业建设发展的基础之一,为了纪念香农,西电新闻网、《西电科大报》联合开设了“纪念香农百年诞辰”专栏,欢迎广大师生围绕信息论这一主题撰文。来稿不限体裁,投稿邮箱:news@mail.xidian.edu.cn,联系电话:029-81891716。

1948年,美国贝尔实验室的Claude E.
Shannon在贝尔技术杂志上发表了题为《通信的数学理论》的长篇论文,这篇论文用概率统计的方法研究了信息传输的内在特性,揭示了通信系统中传送的对象是信息,并定义了信息的度量和单位;系统设计的中心问题是在干扰噪声中如何有效而可靠地传送信息。指出可以用编码方法实现这一目标,提出了二个信源编码定理和一个信道编码定理;并在理论上证明了信息传输的基本性能限。这篇论文是信息理论的奠基性论文,它开创了信息论与信源和信道编码理论这一新兴学科。

奥门金沙手机娱乐网址 1

在这篇论文中,Shannon首次提出了熵与信道容量的概念(在Shannon
1948年的原文中,既没有使用“互信息”也没有用一个特殊符号来记它,而总是使用不确定性之差。术语“mutual
information”及符号I是后来由Fano引入的),并指出:任一通信信道都有一个参数C,称之为信道容量,如果信息传输速率R小于C,则存在一种编码方法,当码长充分长时,系统的错误概率可以达到任意小。这就是著名的。虽然Shannon给出的仅仅是一个编码的存在性定理,但它不仅开创了信道编码理论这一富有活力的研究领域,而且给出了达到信道容量的编译码方法的指导性路线,即构造随机长码和采用最大似然译码(信道编码定理最初是Shannon基于典型序列方法证明的,后来Gallager基于最大似然译码给出了强编码定理)。此后,构造可达到信道容量或者可逼近信道容量的信道编码具体方法,及其可实用的有效译码算法一直是信道编码理论与技术研究的中心任务,也就是如何构造出能接近或达到Shannon限的码(称为Shannon码或渐近好码)是编码学者长期追求的目标。

1916年4月30-2001年2月26日,享年84岁。

在编码方法上,人们先后提出了Hamming码、Muller码、Reed-Solomon码和BCH码、Goppa码等线性分组码以及卷积码。BCH码和RS码均可采用代数译码算法进行快速有效译码,RS码同时具有优异的纠随机和突发错误能力,因此被广泛应用于CD、硬盘等存储领域。卷积码是由Elias于1955年提出的。Wozencraft给出了卷积码的序列译码算法。后来,Fano改进了该算法。卷积码的一个重要进展是1967年Viterbi提出了Viterbi译码算法,1973年Forney证明了Viterbi算法实际上是卷积码的最大似然译码算法。在Linkabit公司和美国国家航空航天局JPL实验室的推动下,Viterbi算法很快成为了NASA深空通信标准的一部分,并且得到了广泛的商用。

1948年发表的《通信的数学理论》文章[2],创建了信息论,这是一篇20世纪少有的几篇对科学和工程,乃至对人类社会发展产生了重要影响的著作,是可与牛顿力学相媲美的不朽之作,也是他最重要的科学贡献。这一年他32岁,这篇文章使他成为。作为数学家,他为数学开辟了一个工程应用的新领域。近七十年过去了,这篇论文至今仍然闪烁着智慧的光芒,它将照耀人类今后的数个世纪。

上述各信道编码方案虽然译码复杂度大多在可接受的范围内,然而由于码长较短,其性能距Shannon限有较大距离。为了构造出译码复杂度可接受且差错控制性能优异的长码,Elias在发明卷积码的前一年便提出了乘积码的概念,这是第一个由短码构造长码的方法。乘积码以两个线性分组码作为分量码,其码长为各分量码码长的乘积,译码可通过对各分量码单独译码从而得到次优的结果。1966年,Forney提出了另一种由短分量码构造长码的编码方案:级联码。级联码通过将内码和外码进行串行级联,在不增加译码复杂度的同时获得较大的性能提升。上世纪70年代,NASA采用以卷积码为内码(并用Viterbi译码)、RS码为外码的级联码作为空间通信用的信道编码标准,在理论上展示了这种码距离Shannon限在3dB以内,并在实际中取得了极好的效果(据估计,在60年代每dB的编码增益可以节约100万美元的开发与发射成本;90年代每dB编码增益对深空网络的价值已增加到8000万美元)。人们将深空通信与编码的结合称为“天仙配”(最初是由我们111基地的学术大师J.
Massey给出的,称为“marriage made in
heaven”)。这是第一个构造出并在实际中使用的比较接近Shannon限的好码。需要说明的是,几乎同一时期,Gallager提出了低密度校验码,这是一种直接构造长码并采用低复杂度的迭代译码来解决译码问题的编码方法,但在随后的几十年中,由于受硬、软件所限以及级联码的影响,低密度校验码并没有引起太多关注。

信息论萌发了整个通信领域的革命,是这一革命的理论基础,为通信工程师们的探索指明了方向,1946年的计算机和1947年晶体管的诞生和相应技术的发展,则是这一革命的物质基础。

现代编码始于1993年。在1993年的IEEE国际通信会议会议上,来自法国ENST
Bretagne的C.
Berrou等人提出了对于信道编码界具有革命性意义的Turbo码。这是第一种能有效逼近信道容量的实用编码方案(码率为1/2的Turbo码在AWGN信道上距信道容量限仅约0.5dB)。Turbo码巧妙地将两个简单的分量码通过伪随机交织器并行级联在一起,从而构造了长码并实现了Shannon随机编码的思想。在接收端Turbo码采用低复杂度的迭代译码来逼近最大似然译码。Turbo码的提出迅速激起了编码界对迭代可译码的研究热情。目前,Turbo码已广泛应用于各种数字通信系统中,例如:CCSDS的深空通信标准、数字视频广播标准、第三代移动通信系统以及3GPP
LTE标准。

几十年来,人类社会在三大技术的强有力的推动下,逐步由工业化社会发展到信息化社会的新阶段。在信息化社会中人类不仅在物理空间中生存竞争,还要学会在新的虚拟数字空间(又称赛伯空间——Cyberspace)中生存竞争。

Turbo码问世后不久,剑桥大学的MacKay和MIT的Spielman等人几乎同时发现:Gallager早在1962年提出的LDPC码在迭代译码算法下也能够逼近信道容量(如码率为1/2、码长为107比特的LDPC
码距离Shannon限不到0.04dB)。这些成果让这个沉寂三十多年的码重新焕发活力,同时迅速引发了又一轮对迭代译码研究的热潮。

本文将介绍几十年来,在专业道路上学习和认知信息论的一些体会和感悟,供业内参考。对这一问题的认识历来就有很多激烈的争论,这正是科学技术前进的动力。很希望得到批评指正意见。

上述LDPC码属于分组码,1999年Felstrom和Zigangirov提出了LDPC卷积码及其编译码技术,它可以看作是将一些标准LDPC分组码以链的形式耦合在一起而得到的,因而也被称为空间耦合LDPC码。LDPC卷积码可以通过基于滑窗结构的迭代译码器进行译码,因而编译码时延小,适宜于不需要将数据分块的连续数据传输系统以及可变帧长的包通信系统中。

客观事物是多种多样、五花八门的,事物的状态和变化是多姿多彩、变幻无穷的,因而会给出不同的信息。在信息前面可冠上难以计数的定语构成不同的信息,如自然信息、科技信息,经济信息、商务信息、军事信息、体育信息等等[6]。

虽然Turbo码和LDPC码的性能已经非常接近信道容量,但都是通过仿真验证的。2008年Arikan提出了Polar码,这是第一类可理论证明,达到任意二进制输入离散无记忆对称信道容量,也就是可以迏到Shannon限的码,并且具有线性复杂度编译码器的信道码。Polar码构造的核心是“信道极化(channel
polarization)”。通过极化,多个独立二进制输入信道被变换为容量接近于0或1的极端信道,然后可以在容量接近于1的无噪信道上直接传输信息。

Shannon和Wiener所理解的信息

目前,LDPC码已经在通信系统中获得了广泛应用,例如无线局域网(IEEE
802.11n), WiMax (IEEE 802.16e), 数字视频广播 ,10GBase-T以太网 (IEEE
802.3an),
NASA的近地轨道卫星通信以及深空通信中。LDPC码在光通信与固态存储器中的应用也正在研究中。LDPC码和Polar码是下一代通信系统中信道编码方案的强力候选者。

首先,他们都是从系统论的高度来看待信息,认为信息是构建任何系统的三大要素之一,即物质、能量和信息。

在译码方法上,早期的编码方案主要采用了硬判决译码,即解调器首先对调制器输入符号做出最佳判决,然后将此硬判决结果送给译码器;译码器再对编码器输入消息做一个最佳判决,以纠正解调器可能发生的错误判决,这就是所谓“纠错码”的观点。但这种译码方法损失了一部分信道所提供的有用信息,因而译码性能并不理想。后来,为了提高通信系统的性能,人们从Shannon的数据处理定理出发,提出了软判决译码方法。即如果解调器能送给译码器一个关于“不同调制器输入符号可能性”的似然信息序列,或未量化的输出,让译码器将这些信息与编码信息综合在一起做出判决,则系统性能可以得到较大提高。这就是“软判决”,即在一个高效的数字通信系统中,实际判决是译码器而不是解调器的任务。

Wiener:“。”[1]。

总结信道编译码技术的发展,可以看出:由短码通过级联、交织构造长码,或由随机和代数方法直接构造长码,并采用软判决迭代译码逼近最大似然译码,从编码、译码两个方面共同努力,达到了逼近Shannon容量限的性能。我们将上述逼近容量限的具体编译码方法归纳为:

这是第一次将“信息”的重要性提到了空前未有的高度,与物质和能量并列的重要地位,这对于我们认识世界具有划时代意义。

●串/并行级联码、乘积码:由简单的短码构造好的长码;基于迭代译码解决长码的可实用最佳译码问题。

(Substance):构成实在世界的基本原料。运动是物质的根本属性。时间和空间是运动着的物质的存在形式。

●LDPC码:通过随机或代数方法直接构造好的长码;用消息传递算法解决最佳软译码问题。

:虽然是一个很常用和非常基础的物理概念,但同时也是一个非常抽象和难于定义的物理概念。能量被定义为一个系统能够释放出来的、或者可以从中获得的、用以做功的能力。

●空间耦合码:将Turbo、LDPC码等进一步耦合,构造更长的普适码;用滑窗译码解决译码时延问题。

物质和能量是客观存在的、有形的,信息是抽象的、无形的。物质和能量是系统的“”,信息是系统的“”。

●Polar码:创建极端信道,每个比特子信道具有不等保护能力,在好信道上直接传输信息;极化后的信道可用简单的逐次干扰抵消译码。

信息要借助于物质和能量才能产生、传输、存储、处理和感知;物质和能量要借助于信息来表述和控制。

信息论是通信与信息系统的基础理论,是现代通信发展的动力和源泉。现代数字通信的重大突破均源自于Shannon信息理论的重要成果。关于信息论对通信系统发展的指导作用,高通公司前技术总监J.
Viterbi博士有一个形象的比喻:

物质、能量和信息在一切系统中是三足鼎立的关系,缺一不可,我们绝不能过分突出某个要素,贬低其它要素的作用。

在国内,我校是我国最早从事信息与编码理论研究的单位之一。早在50年代末,在陈太一院士和胡征教授的建议下,在我校无线电物理系组建了信息论组,由汪漱玉任组长,组内有顾慰文、梁传甲、王育民、杨洽、全西成、王新梅、王以铭、张铭三、应新瑜、蔣锦星、黄铣卿、丘京扬、卢永寿等老师(以后还陆续来了张玉璞、谢武军、吉筮琴、党英等,以及由我校信息论专业的早期毕业生中选留了王永康、张启明、俞在青、宋国文、张甫翊、王冶平、喻尚威等作为老师),并组织了信息论讨论班,开展了学习和相关的教学和研究工作,逐步形成了信息论基础、信道编码、随机过程和信号检测与估值等研究方向。1959年我校无线电物理系开始招收信息论专业的大学生,并由我们信息论教研室开设了信息论与编码类课程,是我国最早开设这类课程的学校之一。

爱因斯坦已经揭示了物质与能量之间的转换关系,对此也有不同的看法,认为“质量和能量根本就是完全不同的两个概念。质量是物质多少的量度,能量是运动多少的量度,不能互相转换。”[7]

60年代末和70年代初,由肖国镇、梁传甲、王育民和王新梅等老师组织了编码与密码研讨班,由肖国镇老师主持并讲述学习编码和密码所需的数学知识,在校图书馆和当时的馆长金有巽教授的大力支持下,我们几位老师一起学习讨论编码和密码中的几本经典著作和论文,撰写了:代数理论基础、纠错码、差错控制、伪随机序列、组合数学等参考学习资料,并在校资料室经费的全力支持下,使得我们所写的上述约四、五百万字的资料得以刻写油印出版,这些资料不仅仅是我们讨论班学习、研究的总结,也为以后我们撰写有关教材奠定了坚实基础,并为我们以后进行有关科研、招收硕士、博士生奠定了扎实的理论基础。并且作为我校与我国各有关单位作交换资料,对提高我校知名度和促进我国在编码和密码领域的发展也起到了积极推动作用。

但迄今为止还不知道信息与物质或能量之间是否存在转换关系。

从80年代初开始,我校以信道编码与密码作为二个主要研究方向,开始招收硕士研究生,并在胡征教授指导下从80年代末开始招收博士研究生。开设了代数编码理论以及密码的研究生课程,并且组织了讨论班,定期地与学生一起讨论、研究问题,并一直坚持至今。目前,根据国际通信与信息编码理论的发展趋势,在我校的研究生课程中,既设有信息论基础课程,也有网络信息论作为学位课,既有经典的纠错码基础、代数编码理论,还同时开设有现代数字通信与编码理论,课程体系比较完整,这在国内高校中也是很少见的。

Shannon和Wiener的信息是不确定信息,其量度被定义为。通信观测所得到的信息量是减小的不确定性的量[1,2]。

在信道编码方向上,直至目前已培养了约百名博士和百多名硕士,在这些硕士和博士中,既包括有学术界的马建华、马啸(中山大学数据科学与计算机学院执行副院长、教授)、吴暇(同済大学计算机学院院长、教授)、黄本雄、谢显中、贺玉成、陈西宏、杜伟章、柏春燕(美国罗德岛大学教授)等,以及本校的白宝明、马文平、李颖、慕建军、刘东苏等教授,也包括工业界和研究院所的周晓迈、孙韶辉、殷贯西、张国华以及在国外各大公司工作的李元兴、刘斌、刘丰、徐胜波等。2010年左右,我校的几位老师还一起组建了信息传输与编码研究中心。

信息量不是熵本身,而是。熵是不确定性的量度,而熵差才是信息的量度。这点Wiener在《控制论》一书中已强调指出,Shannon的著作中则给出了全面的、严格的数学论证,成为一个完整的信息理论体系。

我们在70年代就开展了代数码软判决译码的研究。从80年代中开始,我们在国内率先开展了基于纠错码的密码系统的研究,在世界上首先构造了基于纠错码的数字签名体制,以及纠错与加密相结合的体制等。在90年代中开始率先在国内开始了Turbo码的研究,随后结合国际发展趋势,较早地开展了LDPC码、空间耦合码、喷泉码和Polar码等的研究工作,先后承担了多项国家科技重大专项、973计划项目、863计划项目、自然科学基金项目等。在通信与编码研究方向上,先后提出了Turbo/Trellis码的逐符号前向译码算法、物理层网络编码与信道编码的联合设计方法,马啸提出的RS码译码算法还被美国T.
K. Moon教授写入了其2005年出版的教科书《Error Correction Coding:
Mathematical Methods and
Algorithms》中;针对多元LDPC码及其编码调制系统,提出了多种构造方法与高效译码算法,目前正与有关公司合作将其推向5G移动通信;针对数字磁记录信道,马啸和A.
Kavcic提出了称为匹配信息速率码的串行级联码,该成果2006年获得IEEE通信学会颁发的最佳论文奖。近期我们还与马啸教授一起提出了分组马尔科夫叠加传输方法,可以在一定范围内实现任意错误概率、任意码率的信息传输。在工程实践方面,我们与多个研究所合作,为航天测控、无人机、移动卫星通信等系统研制了FEC编译码器。在2006年我们开始研究量子密码和量子纠错码,我校的博士后曾贵华率先在国内开展了量子纠错码的研究,以后我校的李卓副教授和王云江副教授等在量子纠错码中都做出许多优秀的科研成果。目前,我们正面向5G通信系统和空间信息网络,以及数据存储系统、宽带无线接入系统、互联网和量子通信等开展新型信道编码理论与应用的研究工作。

客观事物是多种多样、五花八门的,事物的状态和变化是多姿多彩、变幻无穷的,属性不同就出现了不同的信息,需要给出不同的信息定义,从而可创建不同的信息理论。

奥门金沙手机娱乐网址 2

●信息的不确定性引出概率信息和Shannon信息论。

1986年在美国召开的国际信息论会议(ISIT’1986)上,C.E.Shannon
与中国学者在一起(前排左一是王新梅教授)

●信息的模糊性引出模糊信息和模糊信息论。

奥门金沙手机娱乐网址 3

●信息的量子属性引出量子信息和量子信息论。

2013年在我校召开的通信与信息论国际研讨班(前排左一是白宝明教授)

●信息的复杂性引出信息复杂度和复杂度的信息理论。

在国际学术交流方面,早在70年代末我们就邀请了美国夏威夷大学计算机系主任著名的编码学者、第一本纠错码专著的作者W.W.Peterson教授,他是改革开放后我校邀请的第一位外国教授,以后还陆续邀请了许多知名的各国专家、教授如:Massey、Blahut、林舒、曾开明(K.M.Tzeng)
、Imai等到我校访问和讲学。自1982年至今我们已多人多次地参加了国际信息论会议以及其它有关国际学术会仪,并在1961年由陈太一院士主持,由我校主办了全国首届信息论会议。2013年我们在西电校园承办了通信与信息理论国际研讨会,这是国际上唯一一次将信息与编码理论领域的7位学术大师(MIT的Gallager、Forney,
我校名誉教授UC Davis的Shu Lin等)聚集在一起进行研讨的盛会。

●信息的感知属性引出感知信息和感知的信息理论。

今年是Shannon诞辰一百周年(Shannon
1916年出生于美国密歇根州)。从Shannon于1948年创立信息论算起,也已经过去近70年了,人们在信道编码定理的指引下,一步步地从构造出比较接近容量限的码到提出可逼近容量限的码,最后终于研究出了能够达到信道容量限的实用编译码方法。目前,信道编码已经作为信息传输与存储等领域的一项关键技术而获得了广泛应用。在时延非严格受限的通信系统中,我们已经能够在简单的点对点信道上实现逼近容量限的信息传输。但在时延受限的情况下,我们还需要继续寻找好码。另外,在复杂信道环境以及网络通信情况下的信道容量,许多还是未知的,需要继续探索。对于网络通信,信息论与排队论还未完成有效的联合。从90年代开始,仿照信道编码的编译码方法,国内外开展了量子纠错码的研究,虽然取得了一系列成果,但是并没有取得突破性进展,仍需深入研究。此外,Shannon信息论在各个领域(如量子信息论、生物信息论等)的应用研究和推广也正方兴未艾。

●信息的美学属性引出美学信息和美学的信息理论。

Shannon创建信息论至今已接近七十年了,无论是信源编码、信道编码还是密码等,虽然已取得了许多优秀成果,并在实际中得到了广泛应用,但是仍有许多问题没有完全解决,需要我们继续努力!Shannon在信息科学界中的地位和作用如同牛顿在物理领域内的地位和作用,他们所提出的学术思想与理论将在各自的领域内永放光辉!

等等,不一而足。

在众多不同属性的信息中,只有少数几种信息有了合适的量度,如。大多数信息是可以感知、但无法度量,因为还未找到合适的信息量的定义,因而也就建立不起来像Shannon信息论那样的理论。例如,我们对情感信息中的喜、怒、哀、乐、爱、恨、恩、怨等人都能够感知,但我们还难于度量它们,我们还只能用一些比较模糊的形容词来描述不同程度的感情。如“你问我对你的爱有多深,我爱你有几分,你去想一想,你去看一看,月亮代表我的心。”我们还不能确切地给出“这份爱”有多少“比特”,“那份爱”比“这份爱”
又多多少比特。对于美学、味觉、嗅觉以及食品的风味等信息也是难于给出客观的定量描述。只能以“多数人觉得好才是真好”来评价。

另外,这类信息具有很强的主观性,这就更增大了给出客观量度定义的困难性。

奥门金沙手机娱乐网址 ,由于客观事物的多样性,彼此差异巨大,变幻无穷,要想给出一个能够包罗万象、统一的信息的定义,在此基础上建立起一种统一的信息理论似乎是不大可能的。信息的广泛含义、应用和渗透,形式和内容各异,这正是要给出一个广泛认可的信息定义、建立统一信息理论的障碍所在。甚至有人曾给出所谓“三难推理(Capuro
trilemma)”,证明不可能给出一个正式的信息的定义。[6]

这正证明,信息是可以感知,但难于定义的概念。迄今为止,还没有一个为大家所公认的、明确的“信息”定义。实际上我们仍然不知道信息是什么?这有点像电视连续剧《过把瘾》片尾曲“糊涂的爱”对“爱”所做的诠释:“这就是爱,说也说不清楚”、“这就是爱,糊里又糊涂”。

Shannon的不确定性信息理论有其局限性,不能表述信息的其他属性,也不能代替其他信息量度和信息理论的研究。

但是,。因为通信的基本目的是“”。这句话是对Shannon原话作了一点修正,使其不仅包括了信息传输,也包括了信息的存储问题。

我们只要看看连续消息的有失真信源编码问题就不难理解了。为了保证声频或视频的清晰度,我们必须加大不确定性信息的传信率。只要保证了不确定性信息的传输质量要求,也就能满足“美学”信息的传送要求了。至于每个人如何感受则是另外的问题了,Shannon的信息论回答不了。

已经提出了各式各样的信息理论,得到了众多不同的结果,都宣称取得的了成功。[6]

Shannon的统计信息论、语义信息论、动态信息论、定性(Qualitative)信息论、经济(Economical)信息论、效用信息论、算法
(Algorithmic)信息论、模糊信息论、量子信息论等等。

此外还有如信息生态学、信息经济学(Economics)、信息代数、信息几何、信息逻辑、信息微积分学、信息物理学、生物信息学等。

Shannon的信息理论只讨论了广泛信息概念中的一类信息,即不确定性信息,利用概率论给出了这类信息的量度,全面阐述了一切信息系统(包括通信、雷达、遥控、遥测、计算机、生物、考古、宇宙探测等信息系统)中的信息传输、存储、处理和接收问题。Shannon有意避开众多含混不清、无从着手、找不到合适数学工具进行研究的信息问题,这正表明他的睿智和大师风范,在他的一生中不止一次显露出他的这种处理问题时的高明过人之处。

有人提出“语法信息、语义信息、语用信息和全信息理论”来使Shannon信息论“回归科学”,实现“信息的‘形式、内容、价值’三位一体”。这里有很多疑问值得提出研究,首先语法信息、语义信息、语用信息和全信息理论所需量度的定义是什么?如果给不出来又如何能将这些信息纳入科学?其次,语法是信息表示问题,从不确定信息的角度看,语法是一系列表示信息的确定规则,没有不确定性问题,也就没有不确定性意义下的信息量可言。从广义信息来谈,说话、文字表述有声调、语气、语境不同而能传达不同的意思或信息,但我们对此又如何能定量地进行描述?对于语义信息也同样有类似的困难。至于语用信息就更难于对付了,同样的语言,对于不同的人有着很不相同的意义、很不相同的理解和判断,因而就会有不同的用场。对于这类强烈有赖于人主观因素的信息属性我们有什么办法应对,并能将其纳入科学?对于形式的东西比较容易用数学逻辑处理,但对于涉及内容和价值的东西就没那么容易了。

在已提出的众多致力于推广Shannon信息、信息量概念的方案中,1965年由美籍俄裔学者Zadeh在“Information
&
Control”杂志上提出的模糊集、模糊逻辑和模糊信息最为有名,有人将其称之为“模糊信息论”,并写出了几本专著。日本的电子工程师将这一理论用于设计地铁运行控制系统,实现了停车位置的精确控制,他们还将其用于洗衣机的控制,实现高效节约电能。如果仔细研究Zadeh所提出的模糊集概念就会发现,它实质上是对概率空间的一种划分,因此所谓模糊信息本质上是属于不确定信息,在概念上并未超出Shannon信息论,这也可能是IEEE
Trans. on Information Theory上很少发表涉及模糊信息文章的一个原因吧。

如前所述,Shannon和Wiener所研究的信息属不确定信息。不确定信息的量度被定义为熵差。通过观测所得到的信息量是减小的不确定性的量。

I–H()

H():发送消息概率空间X中事件出现不确定性的均值;

H():观察到接收消息概率空间条件下,发送消息概率空间仍保留的平均不确定性。

I()是定义在概率空间中的泛函:

奥门金沙手机娱乐网址 4

当给定信道,即给定到转移分布的条件下,改变输入分布,即,可使I达到或接近极大值,此极大值即。

当给定信源,即消息X的概率分布,在满足失真度需求下,可通过改变X到Y转移分布,即,使I达到或接近极小值,此极小值即。

:是在保证接收消息恢复质量条件下,适当增加冗余度,以保证能够抗击信道干扰所造成的信息损失。

是在满足接收消息恢复质量准则下,控制降低信源输出的冗余度,实现有效传信。

最近又提出

,是在保证各接收节点消息恢复质量下,对源节点发送的消息,进行适当复制和选择多个路径传送,以保证能够抗击路线失效所造成的损害。网络编码是多用户信息论的编码理论的延伸[17],杨伟豪、蔡宁等提出的线性网络编码方案荣获了IEEE信息论学会最佳论文奖[18],最近蔡宁、杨伟豪和李硕彦又因网络编码的研究获国际电气与电子工程师协会2016年度埃里克·萨姆纳奖。

可见,Shannon信息论指出[2][8],为了实现有效和可靠通信,要走数字化和编码的道路。编码和译码本质上是的问题,因此我们可以将各种编码归结为。如何控制冗余度的增加或减少,就是编码中的核心问题,由此发展出各种各样的编码理论。

几十年来,经过无数科技工作者的努力,不仅在数学上严格地证明了Shannon编码定理,而且发现了各种具体可构造的有效编码理论和方法,可以实现Shannon指出的极限。

信息论这一抽象而完美的理论,对实际通信系统的设计已产生了深刻的影响,创造巨大丰富而令人惊叹的技术成果。通信工程师在信息论方面的基础对他们事业的发展有重要的作用。

Shannon极限是在AWGN下,代数编码理论中的一颗明珠——正交码(可由Hadamard矩阵导出),当码长趋于无限时所达到的极限性能,但其译码复杂度趋于无穷大,而无法实现,这将所有代数编码引向死胡同!

20世纪70-80年代曾在世界的通信界Walsh函数热了几年,还出版了好几本书,似乎可以为通信解决大问题。读过Peterson“纠错码”一书的都知道,Walsh函数其实就是Hadamard矩阵导出的和双正交码一种特例。20世纪60年代美军曾将双正交码用于遥测系统,后被淘汰,信息论教研组的全西成老师也曾指导过学生做课程设计。

分组码的构码有美妙的代数工具,但其译码问题远不够理想,译码器的复杂度随码长成指数增加。

卷积码的构码至今还没找到像分组码那样美妙的代数工具,但它的译码问题解决的要比分组码好的多。

五十年代后期提出了序列译码,其译码复杂随码长增加呈线性增长,六十年代中期,实用的序列译码的约束长度达到60-80比特;九十年代初,Turbo码的约束长度已达数千比特;最近,LDPC的约束长度已达16200比特,甚至64800比特(此为2003年Hughes
Networks建议的LDPC,已纳入新一代数字卫星电视广播标准DVB-S2中。所用的码相当于在PC机上用了40000天仿真才找出的。)Turbo码和LDPC所实现的编码性能逐步逼近Shannon限,长为107比特的不规则LDPC在码率为1/2时距0.187dB的Shannon限仅有0.0045dB的距离了,而相应的译码算法的复杂度为可接受。

因此,纵观近60年来的编码理论和技术发展,50年代的序列译码、60年代的Viterbi译码、80年代的TCM和BCM、90年代初的Turbo码、90年代后期的LDPC码的成就都应当归功于译码算法的突破,而不是构造好码,特别不是代数编码理论的成就。译码所需的少量好码可以通过计算机搜索、筛选得到,而且无需计较计算成本。

未来呢?如何继续向Shannon定理逼近?从Shannon理论本身可以清晰看出,在技术可实现条件下,寻求进一步可以处理的更长码的译码算法,是一条明智的选择。Shannon在建立理论时,经常利用随机码的思想来处理问题,他始终没有涉足于代数编码理论的研究工作,这不正说明Shannon是天才,是先知,是最先感悟到这点的人吗!

可见,更深入研究Shannon的信息论所提出的思想和方法是多么重要啊!

代数编码理论还有用吗?在追求“最佳码”的代数编码理论研究中,人们所发展的很多概念,如最小Hamming距离等,在利用随机选择的码的筛法中,可以用代数编码理论所提供的准则来迅速剔除一些明显的坏码、恶性码。

还应当指出,LDPC算法所能用的码的传信率是极低的,所要求的系统带宽是较大的,我们仍然还未能真正实现Shannon信道编码定理的理想!我们还不能陶醉于目前的编码理论界的成就,我们不能让编码Joke定理继续嘲弄我们,我们还应当在追求接近Shannon极限性能的时候保持码的传信率为一个足够大的值,同时要使译码算法可以实现。

功率受限、带宽不受限信道的纠错码采用Hamming距离构造最佳码。功率带宽均受限信道需要在欧氏距离构造最佳码,即TCM(Trellis
Coded Modulation网格编码调制)和BCM(Block Coded
Modulation分组编码调制),可得到更好的性能。

COFDM体制是在功率、带宽均受限信道下实现Shannon信道编码定理的又一途径。它在DAB、HDTV、ADSL、HDSL等系统中已有广泛的应用。

Turbo码是两个卷积码经由一个随机交织器的级连,采用迭代软判决Viterbi译码算法,充分利用接受序列中的有关发送符号的信息。它包含了级连码概率译码的原始想法。在编码速率为0.5、误码率为10-5时,Turbo码的译码器所需的Eb/N0值为0.9
dB,距Shannon极限不到0.7
dB。编码速率为0.9时,采用简单的Hamming码或Gallager的低密度一致校验码,所需的Eb/N0值接近0.27
dB的Shannon极限。

1949年Shannon公开发表的《保密系统的通信理论》[3][12]开辟了用信息论研究密码学的新方向,使他成为近代密码理论的奠基人和。这篇文章是他在1945年为贝尔实验室所完成的一篇机密报告《A
Mathematical Theory of
Cryptography》[4中的[24]]。Boston环球报称此文。此文发表后促使他被聘为美国政府密码事务顾问。

这一工作的背景是1941年他在贝尔曾从事密码学研究工作,接触到SIGSALY电话机,是一种马桶大小的语言置乱设备,供丘吉尔和罗斯福进行热线联系。这一电话保密机所用的密码就是在今天也破译不了[4中的[24]]。

奥门金沙手机娱乐网址 5

SIGSALY电话机

《保密系统的通信理论》奠定了现代密码理论的基础。可以说,

传信系统需要对抗系统中存在的干扰(系统中固有的或敌手有意施放的),实现有效、可靠传信。

Shannon说:“从密码分析者来看,一个保密系统几乎就是一个通信系统。待传的消息是统计事件,加密所用的密钥按概率选出,加密结果为密报,这是分析者可以利用的,类似于受扰信号。”

密码系统中对消息的加密变换的作用类似于在通信系统下向消息注入噪声。密文就相当于通信系统经过有扰信道得到的接收消息。密码分析员相当于有扰信道下通信系统的接收者。所不同的是,这种干扰不是信道中的自然干扰,而是发送者

传信系统中的信息传输、处理、检测和接收,密码系统中的加密、解密、分析和破译都可用信息论观点统一地分析研究。密码系统本质上也是一种传信系统,是普通传信系统的。

Shannon以概率统计的观点对消息源、密钥源、接收和截获的消息进行数学描述和分析,Shannon深刻揭示了冗余度在密码中的作用,用不确定性和唯一解距离来度量密码体制的保密性,阐明了密码系统、完善保密性、纯密码、理论保密性和实际保密性等重要概念,从而大大深化了人们对于保密学的理解。这使信息论成为研究密码学和密码分析学的一个重要理论基础,宣告了科学的密码学时代的到来。

Shannon在引论中就明确区分了(隐信息的存在,将信息藏匿于足够复杂的信息环境中,使对手难于觉察出它的存在)和(隐匿信息的真意,使对手虽然知道它的存在,但难于明了它的真意),以及模拟保密变换和数字信号加密的不同之处。Shannon称后者为(True
secrecy system)。

隐匿技术本身不是一项新的技术。但是,随着计算机的普及和多媒体,特别是图像和声音数据的介入,产生了针对图像或声音处理的很多有效的隐匿算法的技术实现,使得该技术获得了重新复兴,成为网络安全研究和现代密码技术的重要组成部分,在军事领域,网络通信,商业领域有着不可估量的应用前景。

信息论是研究和评估保密和认证系统的安全的重要工具,也是研究和评估隐匿系统重要工具。

可以用熵和信息量研究隐匿系统。引入信息理论意义上的安全性(如果不管攻击者怎样努力也不能肯定他的假设有信息被埋入)等。

现代密码学的两个重要标志:一是美国数据加密标准DES的公布实施,二是Diffie和Hellman提出的公钥密码体制。

20世纪60年代末开始了通信与计算机相结合,通信网迅速发展,人类开始向信息化社会迈进。这就要求信息作业的标准化,加密算法当然也不能例外。标准化对于技术发展、降低成本、推广使用有重要意义。

DES标准的公开对于分组密码理论和算法设计的发展起了极大的促进作用。另一方面,DES(Data
Encryption Standard)、EES(Escrowed Encryption
Standard)、AES(Advanced Encryption
Standard)的曲折发展历史过程也为全世界如何制定适于信息化社会公用的密码标准算法提供了有益的启示。

制定信息化社会所需的公用标准密码算法的正确途径是公开、公正地进行,公开地证集算法的方案,公开、公正地评价和选定标准算法,最后要完整公布选定的标准算法。这样集众人智慧的算法强度能比较有保证。只有这样才能使应用算法的人相信它能够保护自己的隐私和数据的安全,也才能在较大范围,如全国甚至在世界范围推广使用,为Internet中的安全地互联互通和电子商务提供支持。

再有,美国开发EES作为要替代DES的一个标准算法虽然是失败了,但它却发展了密码的可控性理论和技术,大大推进了密钥托管和密钥恢复技术的发展。这类技术在当今电子商务和电子政务系统中有重要作用。

DES及后来的许多分组密码设计中都充分体现了Shannon在1949年的论文中所提出的设计强密码的思想。

●组合概念:由简单易于实现的密码系统进行组合,构造较复杂的、密钥量较大的密码系统。Shannon曾给出两种组合方式,即加权和法和乘积法。

●扩散(Diffusion)概念:将每一位明文及密钥尽可能迅速地散布到较多位密文数字中去,以便隐蔽明文的统计特性。

●混淆(Confusion)概念:使明文和密文、密钥和密文之间的统计相关性极小化,使统计分析更为困难。

Shannon曾用来形象地比喻“扩散”和“混淆”的作用,密码算法设计中要巧妙地运用这两个概念。与揉面团不同的是,首先密码变换必须是可逆的,但并非任何“混淆”都是可逆的;二是密码变换和逆变换应当简单易于实现。分组密码的多次迭代就是一种前述的“乘积”组合,它有助于快速实现“扩散”和“混淆”。

分组密码设计中将输入分段处理、非线性变换,加上左、右交换和在密钥控制下的多次迭代等完全体现了上述的Shannon构造密码的思想。可以说,Shannon在1949年的文章为现代分组密码设计提供了基本指导思想。

Shannon在1949年就指出:“好密码的设计问题,本质上是寻求一个困难问题的解,相对于某种其它条件,我们可以构造密码,使其破译它(或在过程中的某点上)等价于解某个已知数学难题。”这句话含义深刻。受此思想启发,Diffie和Hellman提出公钥密码体制。因此,人们尊称Shannon为公钥密码学教父(Godfather)。

●1976年Diffie和Hellman提出公钥密码体制。所有双钥密码算法,如RSA、Rabin、背包、ElGamal、ECC、NTRU、多变量公钥等都是基于某个数学问题求解的困难性。

●可证明安全理论就是在于证明是否可以将所设计的密码算法归约为求解某个已知数学难题。

●破译密码的困难性,所需的工作量,即时间复杂性和空间复杂性,与数学问题求解的困难性密切相关。计算机科学的一个新分支——计算复杂性理论与密码需的研究密切关联起来了。

几十年来,随着信息化社会的发展,密码应用越来越广,密码的作用越来越大,已成为每个人都不可少的一种生存工具。

但是从密码的基本理论上看,密码理论的几个重要进展都离不开Shannon信息理论和密码思想。

因此,不论是从事通信还是从事密码或信息安全技术方面的工作,都应当认真研读Shannon的两篇经典文献,深入发掘他的一些思想,这将使我们不仅能学到一些有关信息论和密码的知识,还可能会悟出一些深层的道理,这对于我们打好基础,并能有所创新会有很大帮助。

经典密码系统模型仅考虑了,即对截获密报进行破译的密码分析者。在现代网络空间环境下,密码系统中除了被动攻击者外还有,他们主动对系统进行窜扰,采用删除、增添、重放、伪造等手段向系统注入假消息,达到利己害人的目的。为此,现代密码学除了研究和解决保密性外,还必须研究和提供,并要保障密码系统的。

为了解决网络空间提出的新的信息安全问题,密码学中出现了一些新的分支,如等

二十世纪八十年代G. J.
Simmons系统地研究了认证系统的信息理论,他将Shannon信息理论用于认证系统,分析了认证系统的理论安全性和实际安全性、性能极限、以及认证码设计需要遵循的原则。

从信息论来看,认证码、杂凑函数与检错码有很深的内在关系,他们都是用增加冗余度来实现认证性、完整性检验和检错的。不难用信息论给出他们的理论分析能力。

数字签名的伪造问题也是一种认证码的检伪问题,可以用认证码的理论阐述。由此我们可以联想,可证明安全问题,可能会与认证码的理论联系起来。

是构建人类社会的基础,它深刻影响人们如何做出决定和人们之间的关系,可信最终是要在人们的脑海中建立起来的认识。可信性越高人类社会就越安全、稳定、和谐。

赛伯空间和物理空间可信性同等重要,现代人的很多事务是在赛伯空间中处理完成的,没有赛伯空间可信性,也就无信任性。如何建立、递送、维系赛伯空间可信性是需要解决的重大课题。

可信性的研究涉及很广,含可信性的描述、定量评价、建模、追踪、管理、法律、规定、政策等。

人们对数字化的认识并非一致,由于技术发展水平的限制,一些数字化方案的优点还显现不出来,常被认为过于复杂、成本高而被否定或搁置。

1988年汉城奥运会时,日本抢先推出高清电视大屏幕实况试播,令世人震惊。

由日本官方主管部门主持的HDTV标准采用了模拟-数字混合体制,一台这样的TV终端的成本很高,用户难以承受而不能推向市场。日本官方鼓动Sony等几家主要电视研发公司,投资近百万美元都付诸东流。

与此同时,美国和欧洲研发机构也在积极研究HDTV技术,他们制定技术标准的方法不同于日本,不是由官方主导决定,而是采用科学、民主的方式,由业内精英们进行研究论证,提出标准草案,有关标准化机构多次研究论证,表决通过后公诸于世,广泛征求意见,再修改通过后才成为正式标准。日本消费业公司也只好跟进。

美国制定的是一种串行编码体制,欧洲选用一种叫COFDM的编码体制,两种体制都是全数字化的编码方案,理论上的效率也都相近。经过业界的努力,分别都攻克了相应的关键技术。随着VLSI技术的进展,当前价廉物美的全数字化的宽屏电视已走进千家万户。

数字化道路上的另一个范例是3G手机的调制编码方案选择问题。1G手机采用模拟频分体制,俗称大哥大,笨重、耗电、价高达1-2万元人民币,只有显阔的大款用的起,早被淘汰了。2G手机的多址采用数字时分体制,芬兰的GSM手机最为成功。20世纪80年代中期,世界著名信息论和编码理论家,卷积码Viterbi译码算法的发明者A.
J.
Viterbi开始关注3G手机的编码体制,他用信息论观点深入分析了码分多址体制的性能时发现,用伪随机序列作为用户地址码的多址系统,其他用户地址码对此用户所造成的串扰,当系统中的用户数足够大时,将近似为高斯分布的干扰,这正好满足了Shannon定理的条件,而能实现最有效传信的目的。从而得出CDMA将是3G手机的编码体制的最佳选择。

为了推这种体制,他积极参与组建Qualcomm公司,并撰文在重要国际通信会议和学术杂志上广泛宣传这一新体制。

记得1990年电子学会的信息论学会和通信学会的通信理论学会在湖北宜昌联合招开年会,由北邮周炯磐教授代病中的蔡长年教授主持会议,他安排了半天时间专门讨论3G手机的编码体制。参会的人对信息论都较为熟悉,多数人都人都认可Viterbi的观点。但这在当时,通信界的大多数工程技术人员一方面由于不大理解信息论,认识不到CDMA的优越性,另一方面也由于CDMA实现上的复杂和困难性而却步。Viterbi却早已指出,依靠VLSI技术完全可以将CDMA手机的收、发电路用一个芯片实现。

瑞典Erission和美国Qualcomm耐心地对有关第三代蜂窝系统进行了长时间的争论,终于达成一致意见。这就打开了通向第三代全球蜂窝电话标准之路,两个公司都同意支持基于Qualcomm的CDMA技术作为第三代全球蜂窝电话标准。

这两个范例充分证明,!

在系统论中,宇宙是一个巨型系统,无所不包,但它仍然是由三个要素:物质、能量和信息所构成的,宇宙中所有存在的信息就构成了与宇宙同在的信息空间(Information
Space),并随宇宙不断演化而改变中。

近几十年来,对于通信的发展具有重要意义和巨大作用力的事情就是始于上个世纪六十年代,大致成于九十年代的通信与计算机相结合。通信这一老学科,从计算机这一新兴学科获取了新的基因和新的思想。诞生了以计算机为核心的控制、管理网络,程控交换机替代了步进式交换机,灵活、高效的分组数据传输代替了低效的线路交换,TCP/IP协议的提出创生了Internet,Web的出现,信息高速公路的提出和建设,最终为人类提供了一个新的生存空间,即(Cyberspace),为信息化社会的形成提供了物质基础。

1961年蓝德公司Paul
Baran提出了“消息分组交换”概念,革新了电信传统采用的(circuit
switching)技术,这种虚拟的数字交换可适用于各种不同类型的线路、不同类型计算机和中端设备之间更有效地传送消息。1969年美国建立了第一个分组交换网:ARPANET。其它一些计算机和通信巨头,如IBM、欧洲许多机构也开始了构建消息分组交换网络。1971年法国Cyclades发布了分组交换计划。1974年IBM发布了称之为系统网络结构(Systems
Network
Architecture)的分组交换。1976年CCITT公布了X.25建议,采用“虚拟线路”的分组交换标准。

随着分组交换网络的发展,各网络之间的也就提到了日程。如何实现网络的互联互通,人们探索了两条路,OSI的7层协议和TCP/IP协议。

从1972年成立了国际网络工作组,到1990左右国际通信界的主流都间将精力和资源投入开放系统互联七层协议标准。

值得提及的是,1975年Cerf和Pouzin曾向审查电信标准的国际组织提出他们的协议,但被以通信工程师为主体的国际电报电话咨询委员会(CCITT,
the International Telegraph and Telephone Consultative
Committee)拒绝。这令Cerf和Pouzin等非常失望。

与此同时,1975年从事ARPA工作的一些人,如Cerf和Bob
Kahn继续致力于数据报设计,为“Internet”提供了技术基础,即后来ARPA所采用的TCP/IP,他们两人在ARPA所提供的小范围网络环境发展了互联网协议。

1983年1月ARPA停止支持ARPANET主机协议,规定连网者采用TCP/IP协议。这个日子被看作是“”。(Vint
Cerf and Bob Kahn)被誉为。

1992年7月Internet设立了Internet Activities Board and Engineering Task
Force,指导Internet标准的开发。1992年美国科学基金会改变政策,允许商用业务通过Internet。1991年Tim
Berner宣布WorldWideWeb正式启用,OSI经过10年的发展,在解决异构网间的互联上远不如TCP方便、灵活和廉价,使OSI标准的前景出现了不确定性。

而TCP/IP协议的互操作性、方便、灵活、免费使用,征服了大多数用户,战胜了组织机构庞大、委员会和研究组林立、周密策划、得到大多数业内权利机构支持的OSI。到1990年代中期,Internet事实上已成为全球计算机网的标准。

“(Einar Stefferud, Internet主要鼓吹者)到了1990年代中期OSI的美梦告终。

开放性和连通性是Internet的灵魂,符合人们在赛伯空间中生存的最基本的需求,而TCP/IP技术则是实现开放性和连通性的根本保障,这正是TCP/IP成功的主因。

TCP/IP胜出了,OSI已被人遗忘。但我们追朔这段历史还是很有教益的。同时也应注意到OSI虽然失败了,但人们所研究的许多技术成果还是可以在Internet中运用的。

1969年美国军方开始了一个去中心化通信系统的研究项目——阿帕网,采用分组数据包交换方式传送信息。时年30岁的工程师(Ray
Tomlinson)参与了这一工作,他提出采用“@”符号给出统一的格式化表示用户在虚拟网络空间中的地址的关键想法,在符号@之前写出用户名,后面写出用户在网络中的位置,成为归一化表示用户在网络位置的编码方法就是我们所称的IP地址。电子邮件和IP地址就是物理空间中的邮件和地址在虚拟网络空间中的映像。

1982年IP成为电子邮件发送规范,1994年汤姆林森被尊为“”[19]

Internet是将各种实体:通信终端、计算机、网络等通过TCP/IP协议所连成的一种虚拟网络,它不是物理实体,而是信息空间中的一个子集,承载它的是物理空间中的各种电信和计算机网络。

Internet是从通信网行业中“异化”出来,成为是传统电信的“叛逆者”。Internet一出现就表现了强大的生命力,充满了活力,为最广大用户提供了最方便的服务而得到最广大用户的支持和青睐。成了建立自由,平等的新型社会的巨大引擎,引导世界走向理想的大同社会。当然,尚有很长的路要走,但这些年来的发展至少使我们已看到了一些曙光,给我们一点希望。

到了九十年代Web的出现,大大增强了Internet的服务能力,为用户提供了极丰富、极方便的信息服务,使Internet为全人类构建了一个新的生存空间——Cyberspace。将人类推进到一个新的信息化社会阶段。

自Internet出现以来,其“母体”电信网络界却扮演了一个“九斤老太”的角色,它对Internet这个“丑小鸭”总是“看不惯”,“容不得”,但是又“斗不过”,对于Internet网的发展中的一些问题横加指责,设置各种障碍来限制、阻碍Internet的发展,但都不太奏效;迟迟认识不到“everything
over
IP”之路。2000年以后虽然最终不得不承认这一现实,但又提出一些新的控制、限制、改造Internet的方案,如“后Internet”、“第二Internet”等,甚至提出将Internet建成或改造成为一个可信、可控、安全可靠的网络,这是一种空想乌托邦!试问Internet属于哪个国家或组织管理和控制?在物理世界中,有谁能将整个世界管理起来,能控制和保证它的安全?同样又有谁能保证赛伯空间的安全、可信和可控?

在信息化社会中,人们既要在物理空间中生存和竞争,又要在虚拟的信息空间中生存和竞争。长期以来,人们对于物理空间中的安全已有了深刻认识,并积累了丰富的经验来强化物理空间中的安全性,以保证人们能从事各种正常的社会活动,过上安宁幸福的生活。但是,虽然人类经过了几千年的努力奋斗,物理空间中生存的安全性还远未得到完满的解决。

这里要特别提醒大家,虚拟的赛伯空间中的许多事物和问题大多是物理空间中的事务和问题在虚拟的赛伯空间中的映像,因此,理解、思考和解决赛伯空间中的安全问题常常可以借鉴物理空间中的安全问题的解决方法和经验。

另一方面,我们也要清楚认识赛伯空间中信息安全问题的特殊性,明确区分赛伯空间中信息安全和物理空间中的安全的不同之处。

信息安全是一个非常大而复杂的问题,它涉及社会、人性、法律、管理、技术等多方面、多层次的问题,是信息化社会中人类必须面对、很好研究和解决的新问题。

Internet的本性是“连通性”、“自由性”,它不是由那个国家,那个公司所建,而是全人类共建的网络。

任何人、单位、政府都可以享用Internet所提供的互连、互通和丰富多彩的信息服务,但同时也要承受来自Internet的安全威胁,有时甚至是严重的威胁,付出的代价也是惨重的。

  1. 任何通信网只要与Internet连通就将有一部分成为Internet的一部分。

2.
完全与Internet隔离是解决安全性的重要途径。如军用网。“911”以后,美国强调了这类网的构建。

正如物理空间一样,它是人类的一个虚拟生存环境。人类虽然可以在一定条件下去控制和改造环境。但绝不能按个人主观意志去改造它。更为可取和更为有效的应是“顺应”天、地之规律,求得生存和发展。

我们能够做的是将我们的内部用的建设得更安全和可信,特别是我们独立于Internet的专用网实现安全和可信,此外我们还可以与其它方合作使我们共享的变得比较安全和比较可信。

●基于IP技术,实现方便、快捷的互连、连通。

●倚重Web技术(20世纪九十年代后),为用户提供丰富、方便、快捷的信息服务。