xiaowuhello
计算机网络第五版.谢希仁编著. 高清PDF书签版

《计算机网络第五版.谢希仁编著. 高清PDF书签版》(计算机网络)(谢希仁)第五版[PDF]

电驴资源

下面是用户共享的文件列表,安装电驴后,您可以点击这些文件名进行下载
[计算机网络第五版]计算机网络第五版.pdf 详情 17.6MB
[计算机网络第五版].光盘[常见问题.电子ppt演示文档等].zip 详情 35.7MB
全选 53.3MB

中文名: 计算机网络第五版.谢希仁编著. 高清PDF书签版

原名: 计算机网络

作者: 谢希仁

图书分类: 计算机与网络

资源格式: PDF

版本: 第五版

出版社: 电子工业出版社

书号: 9787900222916

发行时间: 2008年01月

地区: 大陆

语言: 简体中文

简介:

内容简介

本书自1989年首次出版以来,于1994年、1999年和2003年分别出了修订版。2006年8月本教材通过了教育部的评审,被纳入普通高等教育“十一五”国家级规划教材。《计算机网络》的第5版,在内容和结构方面都有了很大的修改。

全书分为10章,比较全面系统地介绍了计算机网络的发展和原理体系结构、物理层、数据链路层、网络层、运输层、应用层、网络安全、因特网上的音频/视频服务、无线网络和下一代因特网等内容。各章均附有练习题。此外,附录A给出了部分习题的答案和提示。随书配套的光盘中,有全书课件和作者教学中经常遇到的 150多个问题及解答,计算机网络最基本概念的演示(PowerPoint文件),以及本书引用的全部RFC文档等,供读者参阅。

本书的特点是概念准确、论述严谨、内容新颖、图文并茂。突出基本原理和基本概念的阐述,同时力图反映出计算机网络的一些最新发展。本书可供电气信息类和计算机类专业的大学本科生和研究生使用,对从事计算机网络工作的工程技术人员也有学习参考价值。

目录:

第1章 概述

1.1 计算机网络在信息时代中的作用

*1.2 因特网概述

1.2.1 网络的网络

1.2.2 因特网发展的三个阶段

1.2.3 因特网的标准化工作

*1.3 因特网的组成

1.3.1 因特网的边缘部分

1.3.2 因特网的核心部分

1.4 计算机网络在我国的发展

1.5 计算机网络的类别

1.5.1 计算机网络的定义

1.5.2 几种不同类别的网络

*1.6 计算机网络的性能

1.6.1 计算机网络的性能指标

1.6.2 计算机网络的非性能特征

*1.7 计算机网络体系结构

1.7.1 计算机网络体系结构的形成

1.7.2 协议与划分层次

1.7.3 具有五层协议的体系结构

1.7.4 实体、协议、服务和服务访问点

1.7.5 TCP/IP的体系结构

习题

第2章 物理层

*2.1 物理层的基本概念

*2.2 数据通信的基础知识

2.2.1 数据通信系统的模型

2.2.2 有关信道的几个基本概念

2.2.3 信道的极限容量

2.3 物理层下面的传输媒体

2.3.1 导向传输媒体

2.3.2 非导向传输媒体

*2.4 信道复用技术

2.4.1 频分复用、时分复用和统计时分复用

2.4.2 波分复用

2.4.3 码分复用

*2.5 数字传输系统

*2.6 宽带接入技术

2.6.1 xDSL技术

2.6.2 光纤同轴混合网(HFC网)

2.6.3 FTTx技术

习题

第3章 数据链路层

*3.1 使用点对点信道的数据链路层

3.1.1 数据链路和帧

3.1.2 三个基本问题

*3.2 点对点协议PPP

3.2.1 PPP协议的特点

3.2.2 PPP协议的帧格式

3.2.3 PPP协议的工作状态

*3.3 使用广播信道的数据链路层

3.3.1 局域网的数据链路层

3.3.2 CSMA/CD协议

3.4 使用广播信道的以太网

*3.4.1 使用集线器的星形拓扑

3.4.2 以太网的信道利用率

*3.4.3 以太网的MAC层

*3.5 扩展的以太网

3.5.1 在物理层扩展以太网

3.5.2 在数据链路层扩展以太网

*3.6 高速以太网

3.6.1 100BASE-T以太网

3.6.2 吉比特以太网

3.6.3 10吉比特以太网

3.6.4 使用高速以太网进行宽带接入

3.7 其他类型的高速局域网或接口

习题

第4章 网络层

*4.1 网络层提供的两种服务

*4.2 网际协议IP

4.2.1 虚拟互连网络

4.2.2 分类的IP地址

4.2.3 IP地址与硬件地址

4.2.4 地址解析协议ARP和逆地址解析协议RARP

4.2.5 IP数据报的格式

4.2.6 IP层转发分组的流程

*4.3 划分子网和构造超网

4.3.1 划分子网

4.3.2 使用子网时分组的转发

4.3.3 无分类编址CIDR(构造超网)

*4.4 网际控制报文协议ICMP

4.4.1 ICMP报文的种类

4.4.2 ICMP的应用举例

*4.5 因特网的路由选择协议

4.5.1 有关路由选择协议的几个基本概念

4.5.2 内部网关协议RIP

4.5.3 内部网关协议OSPF

4.5.4 外部网关协议BGP

4.5.5 路由器的构成

4.6 IP多播

4.6.1 IP多播的基本概念

4.6.2 在局域网上进行硬件多播

4.6.3 网际组管理协议IGMP和多播路由选择协议

4.7 虚拟专用网VPN和网络地址转换NAT

4.7.1 虚拟专用网VPN

4.7.2 网络地址转换NAT

习题

第5章 运输层

*5.1 运输层协议概述

5.1.1 进程之间的通信

5.1.2 运输层的两个主要协议

5.1.3 运输层的端口

*5.2 用户数据报协议UDP

5.2.1 UDP概述

5.2.2 UDP的首部格式

*5.3 传输控制协议TCP概述

5.3.1 TCP最主要的特点

5.3.2 TCP的连接

*5.4 可靠传输的工作原理

5.4.1 停止等待协议

5.4.2 连续ARQ协议

*5.5 TCP报文段的首部格式

5.6 TCP可靠传输的实现

*5.6.1 以字节为单位的滑动窗口

*5.6.2 超时重传时间的选择

5.6.3 选择确认SACK

5.7 TCP的流量控制

*5.7.1 利用滑动窗口实现流量控制

5.7.2 必须考虑传输效率

*5.8 TCP的拥塞控制

5.8.1 拥塞控制的一般原理

5.8.2 几种拥塞控制方法

5.8.3 随机早期检测RED

5.9 TCP的运输连接管理

*5.9.1 TCP的连接建立

*5.9.2 TCP的连接释放

5.9.3 TCP的有限状态机

习题

第6章 应用层

*6.1 域名系统DNS

6.1.1 域名系统概述

6.1.2 因特网的域名结构

6.1.3 域名服务器

6.2 文件传送协议

6.2.1 FTP概述

6.2.2 FTP的基本工作原理

6.2.3 简单文件传送协议TFTP

6.3 远程终端协议TELNET

*6.4 万维网WWW

6.4.1 万维网概述

6.4.2 统一资源定位符URL

6.4.3 超文本传送协议HTTP

6.4.4 万维网的文档

6.4.5 万维网的信息检索系统

*6.5 电子邮件

6.5.1 电子邮件概述

6.5.2 简单邮件传送协议SMTP

6.5.3 电子邮件的信息格式

6.5.4 邮件读取协议POP3和IMAP

6.5.5 基于万维网的电子邮件

6.5.6 通用因特网邮件扩充MIME

*6.6 动态主机配置协议DHCP

6.7 简单网络管理协议SNMP

6.7.1 网络管理的基本概念

6.7.2 管理信息结构SMI

6.7.3 管理信息库MIB

6.7.4 SNMP的协议数据单元和报文

6.8 应用进程跨越网络的通信

6.8.1 系统调用和应用编程接口

6.8.2 几种常用的系统调用

习题

第7章 网络安全

*7.1 网络安全问题概述

7.1.1 计算机网络面临的安全性威胁

7.1.2 计算机网络安全的内容

7.1.3 一般的数据加密模型

*7.2 两类密码体制

7.2.1 对称密钥密码体制

7.2.2 公钥密码体制

*7.3 数字签名

*7.4 鉴别

7.4.1 报文鉴别

7.4.2 实体鉴别

*7.5 密钥分配

7.5.1 对称密钥的分配

7.5.2 公钥的分配

7.6 因特网使用的安全协议

7.6.1 网络层安全协议

7.6.2 运输层安全协议

7.6.3 应用层的安全协议

*7.7 链路加密与端到端加密

7.7.1 链路加密

7.7.2 端到端加密

*7.8 防火墙

习题

第8章 因特网上的音频/视频服务

*8.1 概述

8.2 流式存储音频/视频

8.2.1 具有元文件的万维网服务器

*8.2.2 媒体服务器

*8.2.3 实时流式协议RTSP

*8.3 交互式音频/视频

8.3.1 IP电话概述

8.3.2 IP电话所需要的几种应用协议

8.3.3 实时运输协议RTP

8.3.4 实时运输控制协议RTCP

8.3.5 H.323

8.3.6 会话发起协议SIP

8.4 改进“尽最大努力交付”的服务

8.4.1 使因特网提供服务质量

8.4.2 调度和管制机制

8.4.3 综合服务IntServ与资源预留协议RSVP

8.4.4 区分服务DiffServ

习题

第9章 无线网络

9.1 无线局域网WLAN

*9.1.1 无线局域网的组成

9.1.2 802.11局域网的物理层

*9.1.3 802.11局域网的MAC层协议

*9.1.4 802.11局域网的MAC帧

9.2 无线个人区域网WPAN

9.3 无线城域网WMAN

习题

第10章 下一代因特网

*10.1 下一代网际协议IPv6 (IPng)

10.1.1 解决IP地址耗尽的措施

10.1.2 IPv6的基本首部

10.1.3 IPv6的扩展首部

10.1.4 IPv6的地址空间

10.1.5 从IPv4向IPv6过渡

10.1.6 ICMPv6

10.2 多协议标记交换MPLS

10.2.1 MPLS的产生背景

10.2.2 MPLS的工作原理

10.2.3 MPLS首部的位置与格式

10.3 P2P文件共享

习题

附录A 部分习题的解答

附录B 英文缩写词

附录C 参考文献与网址

xiaowuhello
新手入门--路由知识基础

新手入门--路由知识基础

路由是把信息从源穿过网络传递到目的的行为,在路上,至少遇到一个中间节点。路由通常与桥接来对比,在粗心的人看来,它们似乎完成的是同样的事。 它们的主要区别在于桥接发生在OSI参考协议的第二层(链接层),而路由发生在第三层(网络层)。这一区别使二者在传递信息的过程中使用不同的信息,从而以不同的方式来完成其任务。

路由的话题早已在计算机界出现,但直到八十年代中期才获得商业成功,这一时间延迟的主要原因是七十年代的网络很简单,后来大型的网络才较为普遍。

metric是路由算法用以确定到达目的地的最佳路径的计量标准,如路径长度。为了帮助选路,路由算法初始化并维护包含路径信息的路由表,路径信息根据使用的路由算法不同而不同。

路由算法根据许多信息来填充路由表。目的/下一跳地址对告知路由器到达该目的最佳方式是把分组发送给代表“下一跳”的路由器,当路由器收到一个分组,它就检查其目标地址,尝试将此地址与其“下一跳”相联系。下表为一个目的/下一跳路由表的例子。

目的/下一跳对应表决定数据的最佳路径

路由表还可以包括其它信息。路由表比较metric以确定最佳路径,这些metric根据所用的路由算法而不同,下面将介绍常见的metric。

路由器彼此通信,通过交换路由信息维护其路由表,路由更新信息通常包含全部或部分路由表,通过分析来自其它路由器的路由更新信息,该路由器可以建立网络拓扑细图。

路由器间发送的另一个信息例子是链接状态广播信息,它通知其它路由器发送者的链接状态,链接信息用于建立完整的拓扑图,使路由器可以确定最佳路径。

路由基础知识四-路由算法设计目标

xiaowuhello
路由算法通常具有下列设计目标的一个或多个:
展开Biu

路由算法通常具有下列设计目标的一个或多个:

优化:

优化指路由算法选择最佳路径的能力,根据metric的值和权值来计算。例如有一种路由算法可能使用跳数和延迟,但可能延迟的权值要大些。当然,路由协议必须严格定义计算metric的算法。

简单、低耗:

路由算法也可以设计得尽量简单。换句话说,路由协议必须高效地提供其功能,尽量减少软件和应用的开销。当实现路由算法的软件必须运行在物理资源有限的计算机上时高效尤其重要。

健壮、稳定:

路由算法必须健壮,即在出现不正常或不可预见事件的情况下必须仍能正常处理,例如硬件故障、高负载和不正确的实现。因为路由器位于网络的连接点,当它们失效时会产生重大的问题。最好的路由算法通常是那些经过了时间考验,证实在各种网络条件下都很稳定的算法。

快速聚合:

此外,路由算法必须能快速聚合,聚合是所有路由器对最佳路径达成一致的过程。当某网络事件使路径断掉或不可用时,路由器通过网络分发路由更新信息,促使最佳路径的重新计算,最终使所有路由器达成一致。聚合很慢的路由算法可能会产生路由环或网路中断。

在下图中的路由环中,某分组在时间t1到达路由器1,路由器1已经更新并知道到达目的的最佳路径是以路由器2为下一跳,于是就把该分组转发给路由器2。但是路由器2还没有更新,它认为最佳的下一跳是路由器1,于是把该分组发回给路由器1,结果分组在两个路由器间来回传递直到路由器2收到路由更新信息或分组超过了生存期。

灵活性

路由算法还应该是灵活的,即它们应该迅速、准确地适应各种网络环境。例如,假定某网段断掉了,当知道问题后,很多路由算法对通常使用该网段的路径将迅速选择次佳的路径。路由算法可以设计得可适应网络带宽、路由器队列大小和网络延迟。

[查看全文]
xiaowuhello
延迟: 路由延迟指分组从源通过网络到达
展开Biu

延迟:

路由延迟指分组从源通过网络到达目的所花时间。很多因素影响到延迟,包括中间的网络链接的带宽、经过的每个路由器的端口队列、所有中间网络链接的拥塞程度以及物理距离。因为延迟是多个重要变量的混合体,它是个比较常用且有效的metric。

带宽:

带宽指链接可用的流通容量。在其它所有条件都相等时,10Mbps的以太网链接比64kbps的专线更可取。虽然带宽是链接可获得的最大吞吐量,但是通过具有较大带宽的链接做路由不一定比经过较慢链接路由更好。例如,如果一条快速链路很忙,分组到达目的所花时间可能要更长。

负载:

负载指网络资源,如路由器的繁忙程度。负载可以用很多方面计算,包括CPU使用情况和每秒处理分组数。持续地监视这些参数本身也是很耗费资源的。

通信代价:

通信代价是另一种重要的metric,尤其是有一些公司可能关系运作费用甚于性能。即使线路延迟可能较长,他们也宁愿通过自己的线路发送数据而不采用昂贵的公用线路。

可被路由的协议(Routed Protocol)由路由协议(Routing Protocol)传输,前者亦称为网络协议。这些网络协议执行在源与目的设备的用户应用间通信所需的各种功能,不同的协议中这些功能可能差异很大。

网络协议发生在OSI参考模型的上四层:传输层、会话层、表示层和应用层。

术语routed protocol(可被路由的协议)和routing protocol(路由协议)经常被混淆。routed protocol在网络中被路由,例如IP、DECnet、AppleTalk、Novell NetWare、OSI、Banyan VINES和Xerox Network System(XNS)。

而路由协议是实现路由算法的协议,简单地说,它给网络协议做导向。路由协议如:IGRP、EIGRP、OSPF、EGP、BGP、IS-IS及RIP等。我们将陆续介绍上述的各种协议。

[查看全文]
xiaowuhello
xiaowuhello
路由基础知识五-静态与动态路由选择 静
展开Biu

路由基础知识五-静态与动态路由选择

静态路由算法很难算得上是算法,只不过是开始路由前由网管建立的表映射。这些映射自身并不改变,除非网管去改动。使用静态路由的算法较容易设计,在网络通信可预测及简单的网络中工作得很好。

由于静态路由系统不能对网络改变做出反映,通常被认为不适用于现在的大型、易变的网络。九十年代主要的路由算法都是动态路由算法,通过分析收到的路由更新信息来适应网络环境的改变。

如果信息表示网络发生了变化,路由软件就重新计算路由并发出新的路由更新信息。这些信息渗入网络,促使路由器重新计算并对路由表做相应的改变。

动态路由算法可以在适当的地方以静态路由作为补充。例如,最后可选路由(router of last resort),作为所有不可路由分组的去路,保证了所有的数据至少有方法处理。

路由基础知识六-链接状态与距离向量

链接状态算法(也叫做短路径优先算法)把路由信息散布到网络的每个节点,不过每个路由器只发送路由表中描述其自己链接状态的部分。

距离向量算法(也叫做Bellman-Ford算法)中每个路由器发送路由表的全部或部分,但只发给其邻居。也就是说,链接状态算法到处发送较少的更新信息,而距离向量算法只向相邻的路由器发送较多的更新信息。

由于链接状态算法聚合得较快,它们相对于距离算法产生路由环的倾向较小。在另一方面,链接状态算法需要更多的CPU和内存资源,因此链接状态算法的实现和支持较昂贵。虽然有差异,这两种算法类型在多数环境中都可以工作得很好。

路由算法使用了许多不同的metric以确定最佳路径。复杂的路由算法可以基于多个metric选择路由,并把它们结合成一个复合的metric。常用的metric如下:

路径长度:

路径长度是最常用的路由metric。一些路由协议允许网管给每个网络链接人工赋以代价值,这种情况下,路由长度是所经过各个链接的代价总和。其它路由协议定义了跳数,即分组在从源到目的的路途中必须经过的网络产品,如路由器的个数。

可靠性:

可靠性,在路由算法中指网络链接的可依赖性(通常以位误率描述),有些网络链接可能比其它的失效更多,网路失效后,一些网络链接可能比其它的更易或更快修复。任何可靠性因素都可以在给可靠率赋值时计算在内,通常是由网管给网络链接赋以metric值。

[查看全文]
xiaowuhello
功能强大的光盘刻录软件 Ashampoo Burning Studio 9.20 中文版 + 有效注册码

功能强大的光盘刻录软件 Ashampoo Burning Studio 9.20 中文版 + 有效注册码

2009-11-07 08:10

“Ashampoo Burning Studio”属专攻光盘刻录且功能强大;现提供最新版本Ashampoo Burning Studio 9.20多国语言版(包括中文) + 有效注册码如下——

Ashampoo Burning Studio 9.20 官方原版下载地址

http://www.crsky.com/soft/4449.html

——支持和兼容Windows XP / Vista / Windows 7。

——在软件菜单中有“语言”选项(多国语言含中文)。

BRS9N5-77SE24-RYCFF8

xiaowuhello
word加密算法详解.pdf

word加密算法详解.pdf

xiaowuhello
【Intel技术】QPI总线技术

QPI总线技术

什么是QPI  Intel的QuickPath Interconnect技术缩写为QPI,译为快速通道互联。事实上它的官方名字叫做CSI,Common System Interface公共系统界面,用来实现芯片之间的直接互联,而不是在通过FSB连接到北桥,矛头直指AMD的HT总线。无论是速度、带宽、每个针脚的带宽、功耗等一切规格都要超越HT总线。 QPI的技术特点  带宽更大   Intel的QuickPath Interconnect技术缩写为QPI,译为快速通道互联。事实上它的官方名字叫做CSI,Common System Interface公共系统界面,用来实现芯片之间的直接互联,而不是在通过FSB连接到北桥,矛头直指AMD的HT总线。无论是速度、带宽、每个针脚的带宽、功耗等一切规格都要超越HT总线。   QPI最大的改进是采用单条点对点模式下,QPI的输出传输能力非常惊人,在4.8至6.4GT/s之间。一个连接的每个方向的位宽可以是5、10、20bit。因此每一个方向的QPI全宽度链接可以提供12至16BG/s的带宽,那么每一个QPI链接的带宽为24至32GB/s。   效率更高   此外,QPI另一个亮点就是支持多条系统总线连接,Intel称之为multi-FSB。系统总线将会被分成多条连接,并且频率不再是单一固定的,也无须如以前那样还要再经过FSB进行连接。根据系统各个子系统对数据吞吐量的需求,每条系统总线连接的速度也可不同,这种特性无疑要比AMD目前的Hypertransport总线更具弹性。 QPI与FSB的区别  FSB正离我们远去   众所周之,前端总线(Front Side Bus,简称FSB)是将CPU中央处理器连接到北桥芯片的系统总线,它是CPU和外界交换数据的主要通道。前端总线的数据传输能力对计算机整体性能影响很大,如果没有足够带宽的前端总线,即使配备再强劲的CPU,用户也不会感觉到计算机整体速度的明显提升。   目前intel处理器主流的前端总线频率有800MHz、1066MHz、1333MHz几种,而就在2007年11月,intel再度将处理器的前端总线频率提升至1600MHz(默认外频400MHz),这比2003年最高的800MHzFSB总线频率整整提升了一倍。这样高的前端总线频率,其带宽多大呢?前端总线为1333MHz时,处理器与北桥之间的带宽为10.67GB/s,而提升到1600MHz能达到12.8GB/s,增加了20%。   虽然intel处理器的前端总线频率看起来已经很高,但与同时不断提升的内存频率、高性能显卡(特别是双或多显卡系统)相比,CPU与芯片组存在的前端总线瓶颈仍未根本改变。例如1333MHz的FSB所提供的内存带宽是1333MHz×64bit/8=10667MB/s=10.67GB/s,与双通道的DDR2-667内存刚好匹配,但如果使用双通道的DDR2-800、DDR2-1066的内存,这时FSB的带宽就小于内存的带宽。更不用说和未来的三通道和更高频率的DDR3内存搭配了(Nehalem平台三通道DDR3-1333内存的带宽可达32GB/s)。   与AMD的HyperTransport(HT)总线技术相比,FSB的带宽瓶颈也很明显。HT作为AMD CPU上广为应用的一种端到端的总线技术,它可在内存控制器、磁盘控制器以及PCI-E总线控制器之间提供更高的数据传输带宽。HT1.0在双向32bit模式的总线带宽为12.8GB/s,其带宽便可匹敌目前最新的FSB带宽。2004年AMD推出的HT2.0规格,最大带宽又由1.0的12.8GB/s提升到了22.4GB/s。而最新的HT3.0又将工作频率从HT2.0最高的1.4GHz提高到了2.6GHz,提升幅度几乎又达到了一倍。这样,HT3.0在2.6GHz高频率32bit高位宽运行模式下,即可提供高达41.6GB/s的总线带宽(即使在16bit的位宽下也能提供20.8GB/s 带宽),相比FSB优势明显,应付未来两年内内存、显卡和处理器的升级需要也没有问题。   面对这种带宽上的劣势,虽然intel通过对市场的准确把握,以及其他优势技术上的弥补(如指令集优势、如CPU效率上intel的酷睿2双核共享二级缓存互联架构要明显优于AMD HT互联下的的双核架构等等),让AMD的带宽优势并没有因此转化为胜势,但intel要想改变这种处理器和北桥设备之间带宽捉襟见肘的情况,纵使在现可在技术上将FSB频率进一步提高到2133MHz,也难以应付未来DDR3内存及多显卡系统所带来的带宽需求。Intel推出新的总线技术势在必行。   当世界失去FSB我们还有QPI   Intel自身也清醒的认识到,要想在通过单纯提高处理器的外频和FSB,也难以像以前那样带来更好的性能提升。采用全新的Nehalem架构的intel下一代CPU让我们看到了英特尔变革的决心。目前已经正式发布,基于该架构的代号为Boomfield第一款处理器,我们可以看见很多很多技术的细节——该处理器拥有全新的规格和性能,采用全新的LGA 1366接口,45nm制程,集成三通道DDR3内存控制器(支持DDR3 800/1066/1333/1600内存规格),使用新总线QPI与处理器进行连接,支持SMT(Simultaneous Muti-hreading,单颗处理器就可以支持8线程并行技术)多线程技术,支持SSE4.2指令集(增加了7条新的SSE4指令),是intel第一款原生四核处理器……   当然,在其拥有的众多技术中,最引人注目的应该还是QPI(原先宣传的CSI总线)总线技术,他是全新的Nahalem架构之所以能在架构、功能和性能上取得大突破的关键性技术。 QPI能给我们带来什么  QPI(Quick Path Interconnect)——"快速通道互联",取代前端总线(FSB)的一种点到点连接技术,20位宽的QPI连接其带宽可达惊人的每秒25.6GB,远非FSB可比。QPI最初能够发放异彩的是支持多个处理器的服务器平台,QPI可以用于多处理器之间的互联。   1. QPI是通信更加方便   QPI是在处理器中集成内存控制器的体系架构,主要用于处理器之间和系统组件之间的互联通信(诸如I/O)。他抛弃了沿用多年的的FSB,CPU可直接通过内存控制器访问内存资源,而不是以前繁杂的“前端总线——北桥——内存控制器”模式。并且,与AMD在主流的多核处理器上采用的4HT3(4根传输线路,两根用于数据发送,两个用于数据接收)连接方式不同,英特尔采用了4+1 QPI互联方式(4针对处理器,1针对I/O设计),这样多处理器的每个处理器都能直接与物理内存相连,每个处理器之间也能彼此互联来充分利用不同的内存,可以让多处理器的等待时间变短(访问延迟可以下降50%以上),只用一个内存插槽就能实现与四路AMD皓龙处理器(AMD在服务器领域的处理器,与intel至强同等产品定位)同等带宽。   2. QPI、处理器间峰值带宽可达96GB/s   在intel高端的安腾处理器系统中,QPI高速互联方式使得CPU与CPU之间的峰值带宽可达96GB/s,峰值内存带宽可达34GB/s。这主要在于QPI采用了与PCI-E类似的点对点设计,包括一对线路,分别负责数据发送和接收,每一条通路可传送20bit数据。这就意味着即便是最早的QPI标准,其传输速度也能达到6.4GB/s——总计带宽可达到25.6GB/s(为FSB 1600MHz的12.8GB/S的两倍)。这样的带宽已可媲美AMD目前的总线解决方案,能满足未来CPU与CPU、CPU与芯片的数据传输要求。   3. 多核间互传资料不用经过芯片组   QPI总线可实现多核处理器内部的直接互联,而无须像以前那样还要再经过FSB进行连接。例如,针对服务器的Nehalem架构的处理器拥有至少4组QPI传输,可至少组成包括4颗处理器的4路高端服务器系统(也就是16颗运算内核至少32线程并行运作)。而且在多处理器作业下,每颗处理器可以互相传送资料,并不需要经过芯片组,从而大幅提升整体系统性能。随着未来Nehalem架构的处理器集成内存控制器、PCI-E 2.0图形接口乃至图形核心的出现,QPI架构的优势见进一步发挥出来。   4. QPI互联架构本身具有升级性   QPI采用串联方式作为讯号的传送,采用了LVDS(低电压差分信号技术,主要用于高速数字信号互联,使信号能以几百Mbps以上的速率传输)信号技术,可保证在高频率下仍能保持稳定性。QPI拥有更低的延迟及更好的架构,将包括集成的存储器控制器以及系统组件间的通信链路。   5. QPI总线架构具备可靠性和性能   可靠性、实用性和适用性特点为QPI的高可用性提供了保证。比如链接级循环冗余码验证(CRC)。出现时钟密码故障时,时钟能自动改路发送到数据信道。QPI还具备热插拔。深度改良的微架构、集成内存控制器设计以及QPI直接技术,令Nehalem拥有更出色的执行效率,在单线程同频率下,Nehalem拥有更为出色的执行效率,在单线程同频率条件下,Nehalem的运算能力在相同功耗下比现行的Penryn架构的效能可能提高30%。 QPI对AMD和NVIDIA的影响  做为行业领导性厂商,每次Intel平台的进步都是有人欢喜有人愁。比如,AMD面临着该如何追赶Intel处理器革新速度的问题,如果未来AMD无法跟上英特尔的步伐,其市场份额肯定将变得越来越小。当然,AMD有其过硬的显卡技术支撑,这正是目前Intel所欠缺的。   AMD CPU如真能将其GPU整合,带来的市场影响力也是巨大的。   NVIDIA的处境,Intel的目标是CPU整合GPU,而NVIDIA的目标则是GPU整合CPU,虽然NVIDIA自身对其信心满满,从目前的竞争形势来看,一项是靠显卡技术、芯片组维系的NVIDIA,面对Intel的打压,必须在Intel平台推广SLI,面对Intel和AMD的CPU整合GPU方案,对NVIDIA的低端、中低端显卡市场又非常大的影响

xiaowuhello
海蜘蛛路由ISP 破解版 6.1

海蜘蛛路由ISP 破解版 6.1开始下载

  • 软件大小:31.0 MB
  • 软件类别:国产软件 - 服务器相关
  • 软件语言: 简体中文
  • 运行环境: Win9X/2000/XP/2003/
  • 软件评级:
  • 更新时间: 2009-11-23 17:35:13
  • 软件授权: 共享版
  • 相关链接:Home Page
  • 安全检测: 瑞星:安全 江民:安全 卡巴:安全
  • 下载统计: 日:10 周:10 月:74 共:254

查看软件介绍 查看相关评论 没有预览图片

软件介绍www.netbars.net

相对免费版本主要支持最多8条外线(免费版只支持双线)多了带宽叠加,VPN借线,上网控制等功能,详细的功能对比请看: http://www.hi-spider.com/html/verdiff.htm

安装方法:

把待写入磁盘接到或插到一台能正常使用的装有WINdows 系统的电脑上,运行"安装海蜘蛛.bat",根据提示选择安装项目,输入后程序会提示选择写入的磁盘,仔细看2两块磁盘的信息,0表示第一块磁盘,1表示第二块磁盘,别选错了哦~~~ 输入磁盘编号,然后回车即可。 等待程序将镜像文件写入目标磁盘,很快,不到10秒,OK后,关机,拔下目标磁盘,接到另外一台机器上面即可启动并使用了。

WEB管理默认登入地址为 HTTP://192.168.0.1:880 ,默认帐号密码都是admin ,如果你的客户机设置的网关不是192.168.0.1就可以在控制台进行修改,修改方法如下:

机器启动后,按上面的提示,输入默认账号root回车,再输入默认密码:123456回车(linux系统密码输入是看不到的)即可进入控制台,第一项是修改WEB登陆账号密码,第二项是修改WEB(网关)的访问IP和端口,第3项不用管,第4项是保存配置,第5项是关机和重启,第6项是退出登陆. 我们这里只需要修改第2项,输入2,进入第2项修改,然后输入 192.168.1.1:880 ,回车即可,这样就可以在客户机上用HTTP://192.168.1.1:880 访问管理了

下载地址1 http://www.netbars.net/soft/show.asp?id=323 去这里下载

http://www.netbars.net/ 这个网站不错

xiaowuhello
mhdd 工具使用分享

mhdd 2.9 使用方法全揭密

好,现在我给大家一份最全的说明

MHDD2.9的使用:

工作环境在DOS下。需要注意的是,不要将MHDD放在需要检测及修复的硬盘上,另外,MHDD也无法在打开了写保护的软盘、硬盘及光盘上正常工作。

运行MHDD后,MHDD首先同样要检测系统中的所有硬盘并给出连接图示。我们随时可以按“shift+F3”键重新扫描硬盘连接状态。

选择需要处理的硬盘后,就进入了MHDD的主界面。最上面一行为状态行,主要是显示BUSY、WRFT、AMNF、及TONF等硬盘(或硬盘某个扇区)或软件的当前状态。在状态行下面,是当前硬盘的磁头、柱面、扇区等参数。再往下则列出了MHDD的所有可用的命令。

本人独自研究,为方便大家区分,特将mhdd所认到的坏道分为三类:1维修进程中绿色图标以下的;(少量绿色图标也可修复)

2维修进程中绿色图标和红色图标;

3维修进程中的繁体字符、W、以及少量?号

scan命令:用于磁盘表面介质扫描与修复。MHDD将从保留容量中拿出同等容量的扇区来取代新发现的坏扇区,并将坏扇区的物理地址写入G-list表。所以硬盘总容量不会减少。这种修复方式是基于硬件底层的方法。MHDD并不是通过主板的BIOS来控制硬盘,而是直接读取硬盘的所有物理扇区。 运行scan命令后,MHDD首先会报告当前硬盘的型号、串号、固件版本、支持的数据传输模式等参数(运行其它命令同样如此),然后进入scan状态。

在扫描硬盘在前,我们还必须设置扫描配置。主要选项有扫描寻址模式(LBA或CHS),起始及结束的柱面或扇区、超时时限、清零时限、及是否重复扫描/修复。为了达到修复效果,建议打开remap(坏道重映射)、 Loop the test/repair(重复扫描/修复)及 Erase WAITs等选项。设置完成后按“F4”就可开始磁盘扫描。扫描时,在屏幕的右侧将显示磁盘表面各种状态的数量统计。“?”上面的灰度块表示磁盘表面状态正常,而彩色块表示此处的磁盘有潜在不稳定因素,尤其是红色块,则很容易转化我物理坏道。而“?”以下的状态表示此处的磁盘介质有损坏或有坏道。

以上只是对一些坏道较少的硬盘的处理,此方法修复范围:(西捷、富士通、IBM、昆腾、迈拓、西数、IBM笔记本硬盘)其余像三星什么的尚不知道,没遇见过。有待朋友们去研究。 修复成功率(1类坏道百分之九十以上,2、3百分之零)

同样,先按SHIFT+F3扫描硬盘连接并选择,按F4键,先用一般模式扫一遍,再用高级模式扫一变,具体方法是选择LBA模式,remap项OFF,Loop

the test/repair项OFF,其余项ON,选择完毕CTRL+ENTER执行扫描,

扫描完毕,执行上面操作,选CHS模式,Loop the test/repair项OFF,Erase

WAITs项OFF,其余项选ON,选择完毕,执行扫描,OK!!!大家切记不要直接用高级模式进行扫描,有些朋友为了急于求成,就直接用高级

模式对硬盘进行操作,这种做法是错误的,如果直接用高级模式扫的话,一次好不了的话,那么MHDD对其就无可奈何了,要么认不到硬盘,要么坏道无法修复)修复成功率(1类坏道百分之九十以上,2类坏道百分之七十,3类坏道百分之十)

下面这个方法,没耐心的朋友就不必看了。同上,先按SHIFT+F3扫描硬盘连接并选择,按F4键,先用一般模式扫十遍以上,再用高级模式扫一变,具体方法在一般模式下将Loop

the test/repair项选ON,执行扫描扫描至少10遍以后,ESC退出,重复操作,选择高级模式执行扫描,OK!!!修复成功率(1类坏道百分之九十以上,2类坏道百分之八十,3类坏道百分之六十)

以上方法对?号和W坏道的修复好象还不是太完美,现在我们利用MHDD的一些命令进行辅助和配合,IBM、富士通、西数这些可以查看硬盘缺陷的,最好先执行IBME、FUJLST等命令,然后执行一般模式扫描,扫描到

W或者?这些难以修复的坏道时按ESC退出,用randombad及makebad命令进行坏道标记,反复操作,坏道多的话可以标记坏扇区段,标记完以后执行高级模式扫描。还有就是修改硬盘容量法,你比如说,IBM的低格程序

中就有一项可以改硬盘容量,会低格的朋友应该都知道。这里,大家先把硬盘容量改为最小(这里的最小不是0M或者1M,而是硬盘总容量的整百M位,比如10G就改为100M,20G就改为200M),然后在用MHDD进行扫描修复

然后用MHDD的rhpa和nhpa恢复实际容量再进行扫描,完了再改为硬盘容量的一半,继续扫描,恢复容量扫描,最后把硬盘改为原始大小进行高级扫描一遍OK~!!!而且MHDD和很多修复软件可以配合使用,效果相当不错

你比如HDDREG,HDDL,HDDSPEED都可以很好的和MHDD配合用。还有更多的方法等待大家研究。

aerase命令:可以逐扇区进行清零处理,不过速度会很慢。

rhpa及nhpa命令:可分别显示及恢复硬盘的全部真实的容量。

aam命令:可以切换硬盘的性能及噪音状态,有127级(0~126)状态可供设置,“126”表示最高性能,不过此时硬盘的噪音最大。注意aam命令需要硬盘支持Automatic

Acoustic Management技术才可以。

rpm命令:可以检测硬盘转速,不过有些硬盘不支持此命令。

randombad及makebad命令:可以强行为硬盘的一些扇区加上坏扇区标志。

ibme及fujlst命令:可以分别查看IBM 及富士通的硬盘缺陷列表。

pwd、unlock及dispwd命令:可以给硬盘加解锁,这种硬盘加入密码的方式很奇特,不过千万不要忘记了密码(如果真的忘了或者解不了你可以用HDLOCK这个硬盘锁把硬盘再锁一次,然后用它自带的UNLOCK和DISPWD解密,死马当活马医呗

孤灯人
经验不错
展开Biu

经验不错,支持一下

[查看全文]
xiaowuhello
怎么样做RAID

查看文章

怎么样做RAID

2009-11-24 10:58

在RAID家族里,RAID 0和RAID 1在个人电脑上应用最广泛,毕竟愿意使用4块甚至更多的硬盘来构筑RAID 0+1或其他硬盘阵列的个人用户少之又少,因此我们在这里仅就这两种RAID方式进行讲解。我们选择支持IDE-RAID功能的升技KT7A-RAID主板,一步一步向大家介绍IDE-RAID的安装。升技KT7A-RAID集成的是HighPoint 370芯片,支持RAID 0、1、0+1。

做RAID自然少不了硬盘,RAID 0和RAID 1对磁盘的要求不一样,RAID 1(Mirror)磁盘镜像一般要求两块(或多块)硬盘容量一致,而RAID 0(Striping)磁盘一般没有这个要求,当然,选用容量相似性能相近甚至完全一样的硬盘比较理想。为了方便测试,我们选用两块60GB的希捷酷鱼Ⅳ 硬盘(Barracuda ATA Ⅳ、编号ST360021A)。系统选用Duron 750MHz的CPU,2×128MB樵风金条SDRAM,耕升GeForce2 Pro显卡,应该说是比较普通的配置,我们也希望借此了解构建RAID所需的系统要求。

1.RAID 0的创建

第一步

首先要备份好硬盘中的数据。很多用户都没有重视备份这一工作,特别是一些比较粗心的个人用户。创建RAID对数据而言是一项比较危险的操作,稍不留神就有可能毁掉整块硬盘的数据,我们首先介绍的RAID 0更是这种情况,在创建RAID 0时,所有阵列中磁盘上的数据都将被抹去,包括硬盘分区表在内。因此要先准备好一张带Fdisk与Format命令的Windows 98启动盘,这也是这一步要注意的重要事项。

第二步

将两块硬盘的跳线设置为Master,分别接上升技KT7A-RAID的IDE3、IDE4口(它们由主板上的HighPoint370芯片控制)。由于RAID 0会重建两块硬盘的分区表,我们就无需考虑硬盘连接的顺序(下文中我们会看到在创建RAID 1时这个顺序很重要)。

第三步

对BIOS进行设置,打开ATA RAID CONTROLLER。我们在升技KT7A-RAID主板的BIOS中进入INTEGRATED PERIPHERALS选项并开启ATA100 RAID IDE CONTROLLER。升技建议将开机顺序全部改为ATA 100 RAID,实际我们发现这在系统安装过程中并不可行,难道没有分区的硬盘可以启动吗?因此我们仍然设置软驱作为首选项。

第四步

接下来的设置步骤是创建RAID 0的核心内容。

1.系统BIOS设置完成以后重启电脑,开机检测时将不会再报告发现硬盘。

2.磁盘的管理将由HighPoint 370芯片接管。

3.下面是非常关键的HighPoint 370 BIOS设置,在HighPoint 370磁盘扫描界面同时按下“Ctrl”和“H”。

4.进入HighPoint 370 BIOS设置界面后第一个要做的工作就是选择“Create RAID”创建RAID。

5.在“Array Mode(阵列模式)”中进行RAID模式选择,这里能够看到RAID 0、RAID 1、RAID 0+1和Span的选项,在此我们选择了RAID 0项。

6.RAID模式选择完成会自动退出到上一级菜单进行“Disk Drives(磁盘驱动器)”选择,一般来说直接回车就行了。

7.下一项设置是条带单位大小,缺省值为64kB,没有特殊要求可以不予理睬。

8.接着是“Start Create(开始创建)”的选项,在你按下“Y”之前,请认真想想是否还有重要的数据留在硬盘上,这是你最后的机会!一旦开始创建RAID,硬盘上的所有数据都会被清除。

9.创建完成以后是指定BOOT启动盘,任选一个吧。

按“Esc”键退出,当然少不了按下“Y”来确认一下。

HighPoint 370 BIOS没有提供类似“Exit Without Save”的功能,修改设置后是不可逆转的。

第五步

再次重启电脑以后,我们就可以在屏幕上看到“Striping(RAID 0)for Array #0”字样了。插入先前制作的启动盘,启动DOS。打开Fdisk程序,咦?怎么就一个硬盘可见?是的,RAID阵列已经整个被看作了一块硬盘,对于操作系统而言,RAID完全透明,我们大可不必费心RAID磁盘的管理,这些都由控制芯片完成。接下来按照普通单硬盘方法进行分区,你会发现“这个”硬盘的容量“变”大了,仔细算算,对,总容量就是两块硬盘相加的容量!我们可以把RAID 0的读写比喻成拉链,它把数据分开在两个硬盘上,读取数据会变得更快,而且不会浪费磁盘空间。在分区和格式化后千万别忘了激活主分区。

第六步

选择操作系统让我们颇费周折, HighPoint370芯片提供对Windows 98/NT/2000/XP的驱动支持,考虑到使RAID功能面向的是相对高级的用户,所以我们选择了对新硬件支持更好的Windows XP Professional英文版(采用英文版系统主要是为了方便后面的Winbench测试,大家自己使用RAID完全可以用中文版的操作系统), Windows 2000也是一个不错的选择,但是硬件支持方面显然不如Windows XP Professional。

第七步

对于采用RAID的电脑,操作系统的安装和普通情况下不一样,让我们看看图示,这是在Windows XP完成第一步“文件复制”重启以后出现的画面,安装程序会以英文提示“按下F6安装SCSI设备或RAID磁盘”,这一过程很短,而且用户往往会忽视屏幕下方的提示。

按下F6后出现安装选择,选择“S”将安装RAID控制芯片驱动,选择“Enter”则不安装。

按下“S”键会提示插入RAID芯片驱动盘。

键入回车,安装程序自动搜索驱动盘上的程序,选择“WinXP”那一个并回车。

如果所提供的版本和Windows XP Profesional内置的驱动版本不一致,安装程序会给出提示让用户进行选择。

按下“S”会安装软盘所提供的而按下“Enter”则安装Windows XP Professional自带的驱动。按下“S”后又需要确认,这次是按“Enter”(这个……确认太多了,呵呵)。接下来是正常的系统安装,和普通安装没有任何区别。

RAID 0的安装设置我们就介绍到这里,下面我们会谈谈RAID 1的安装。与RAID 0相比,RAID 1的安装过程要简单许多,在正确操作的情况下不具破坏性。

2.RAID 1的创建

虽然在原理上和RAID 0完全不一样,但RAID 1的安装设置过程却与RAID 0相差不多,主要区别在于HighPoint 370 BIOS里的设置。为了避免重复,我们只向大家重点介绍这部分设置:

进入HighPoint 370 BIOS后选择“Create RAID”进行创建:

1.在“Array Mode”上点击回车,在RAID模式选择中选择第二项“Mirror(RAID 1)for Data Security(为数据源盘创建镜像)”。

2.接着是源盘的选择,我们再次提醒用户:务必小心,不要选错。

3.然后是目标盘的选择,也就是我们所说的镜像盘或备份盘。

4.然后开始创建。

5.创建完成以后BIOS会提示进行镜像的制作,这一过程相当漫长。

6.我们用了大约45分钟才完成60GB的镜像制作,至此RAID 1创建完成。

RAID 1会将主盘的数据复制到镜像盘,因此在构建RAID 1时需要特别小心,千万不要把主盘和镜像盘弄混,否则结果将是悲剧性的。RAID 1既可在两块无数据的硬盘上创建,也能够在一块已经安装操作系统的硬盘上添加,比RAID 0方便多了(除了漫长的镜像制作过程)。创建完成以后我们试着将其中一块硬盘拔下,HighPoint370 BIOS给出了警告,按下“Esc”,另一块硬盘承担起了源盘的重任,所有数据完好无损。

对于在一块已经安装操作系统的硬盘上添加 RAID 1,我们建议的步骤是:打开BIOS中的控制芯片→启动操作系统安装HighPoint 370驱动→关机将源盘和镜像盘接在IDE3、4口→进入HighPoint 370 BIOS设置RAID 1(步骤见上文介绍)→重启系统完成创建。

我们对两种RAID进行了简单的测试,虽然RAID 0的测试成绩让人有些不解,但是实际使用中仍然感觉比单硬盘快了很多,特别是Windows XP Professional的启动异常迅速,进度条一闪而过。至于传输率曲线出现不稳定的情况,我们估计和平台选择有一些关系,毕竟集成芯片在进行这种高数据吞吐量的工作时非常容易被干扰。不过即使是这样,我们也看到RAID 0系统的数据传输率达到了非常高的水平,一度接近60MB/s。与RAID 0相比,RAID 1系统的性能虽然相对单磁盘系统没有什么明显的改善,但测试中我们发现RAID 1的工作曲线显得非常稳定,很少出现波动的情况。

再看看Winbench99 2.0中的磁盘测试成绩,一目了然。

对用户和操作系统而言,RAID 0和1是透明不影响任何操作的,我们就像使用一块硬盘一样

如有不懂可以到www.dnwxhs.cn去看看