第1章 计算机基础知识2Word文档下载推荐.docx
- 文档编号:7397081
- 上传时间:2023-05-08
- 格式:DOCX
- 页数:32
- 大小:199.29KB
第1章 计算机基础知识2Word文档下载推荐.docx
《第1章 计算机基础知识2Word文档下载推荐.docx》由会员分享,可在线阅读,更多相关《第1章 计算机基础知识2Word文档下载推荐.docx(32页珍藏版)》请在冰点文库上搜索。
1.6.2使用记事本28
1.6.3全拼输入法28
1.6.4智能ABC输入法28
1.6.532
第1章计算机基础知识
电子计算机的产生和发展是当代科学技术最突出的成就之一,电子计算机诞生于二十世纪四十年代,它的出现对人类社会产生了巨大的影响。
它是一种能够按照人的意图自动、高速、精确地进行数值运算和数据处理的现代化的电子设备。
本章将介绍计算机的一些基础知识,如计算机的发展史、特点及应用,计算机的基本组成,计算机的硬件、软件及常用术语、计算机的数制表示等。
1.1计算机发展和应用
1.1.1计算机的产生
1.第一台电子计算机
1942年8月,美国宾夕法尼亚州立大学莫尔机电工程学院的物理学博士约翰·
莫克利首次提出用高速电子管组建电子管计算机的设计方案,1946年2月14日研制完成并在美国费城公开展示,这就是世界上第一台电子计算机ENIAC中文译作“电子数字积分计算机”(埃尼阿克)。
ENIAC以为基本部件电子管。
这台计算机体积85m3,使用了18000多个电子管,5000多个继电器,占地约170平方米,重达30吨,功耗达150千瓦/小时,当时价值40万美元。
虽然其运算速度仅每秒5000次加法运算,原先美国陆军人工计算发射导弹要7小时,ENIAC只要3秒,也还是比当时的继电器计算机快1000倍。
2.存储程序式计算机
虽然第一台计算机研制吧世界带入一个新的时代,但是在计算题目时仍需先根据计算步骤花费今天的时间连接好线路,换一道题目又要这样。
针对这种问题,美籍匈牙利数学家冯·
诺依曼于1946年针对ENIAC的缺点提出的改进意见即存储程序原理,即用二进制取代十进制、设置程序存储器、计算机利用“存储器”(内存)来存放所要执行的程序,中央处理器(CPU)依次从存储器中取出程序中的每一条指令,并加以分析和执行,直至完成全部指令任务为止。
这就是计算机的“存储程序”工作原理。
1.1.2电子计算机
从第一台电子计算机问世至今,按照构成计算机的电子元器件而言,一般把计算机的发展阶段分为四代。
1..第一代计算机(1946—1956年)使用的电子元器件主要是电子管又称真空管,主存贮器采用水银延迟线、阴极射线示波管等,外存贮器有纸带、卡片、磁鼓、磁带等。
运算速度为每秒几千次—几万次,内存容量仅几千字,计算机程序设计语言还处于最低阶段,主要用二进制代码表示的机器语言或少量的汇编语言进行编程。
这一阶段的计算机体积大、功耗大、速度慢、容量小、操作复杂、价格昂贵、可靠性差。
主要应用于科学计算、军事技术研究等很少的领域。
2.第二代计算机(1957—1964年)使用的电子元器件主要是晶体管,主存贮器大量使用磁芯存贮器。
计算机的运算速度从每秒几万次提高到几十万次,内存容量扩大到几十万字。
同时,软件有了较大发展,用于科学计算的高级程序设计语言FORTRAN、ALGOL,用于事务处理的COBOL语言和用于符号处理的LISP语言开始进入实用阶段,与第一代计算机相比,晶体管计算机体积有了明显的缩小,降低了成本和功耗,提高了速度和可靠性。
应用范围已从军事与尖端技术领域扩大到科学计算、工程设计、数据处理和事务管理等领域。
3.第三代计算机(1965—1970年)使用的电子元器件主要是中、小规模集成电路。
计算机体积变得更小,功耗更低,速度更快。
这一时期的计算机开始使用操作系统,使得计算机在中心程序的控制协调下可以同时运行许多不同的程序。
第三代计算机已被广泛应用于科学计算、数据处理和工业控制等各个领域。
4.第四代计算机(1971年起至今)使用的电子元器件主要是大规模集成电路和超大规模集成电路。
20世纪70年代以来,计算机的逻辑器件采用大规模集成电路(LSI)或超大规模集成电路(VLSI)技术,在硅半导体芯片上集成了1000个到100000个电子元器件,计算速度可达每秒几百万次至上亿次。
1981年10月日本首先提出“第五代计算机”的概念,并指出第五代计算机系统将是以词组逻辑为基础的知识信息处理系统。
实际上,目前计算机的发展有如下4个方向:
(1)巨型化,用于天气预报、军事计算、飞机和工艺系统等,运算速度达千亿次每秒。
(2)微型化,从台式机发展到便携机、掌上机。
(3)网络化,使得单个计算机的实际效用得到极大提高。
(4)智能化,具有更多的类似人类的智能。
1.1.3微型计算机的发展
20世纪70年代计算机的发展最重要的时间莫过于微型计算机的诞生和迅速普及。
微型计算机的先驱是美国的INTER公司。
吧计算机的全部电路做在4个芯片上,即中央处理器芯片,随机存储存取器芯片,只读存储器芯片,寄存器芯片,这就是一片4位处理器。
1.第一代微处理器
1972年INTER公司研制8位微处理器INTER8008,主要采用工艺简单,速度低的P沟道MOS电路,由它装备起来的计算机成为第一代微型计算机。
2.第二代微处理器
1973年采用速度快的N沟道MOS技术的8位微处理器,代表产品有INTER公司的inter8080、motorola的NMC6800、ZILOG的Z-80等。
3.第三代微处理器
1978年16位微处理器,inter的8086。
4.第四代微处理器
1985年起采用超大规模的集成电路的32位微处理器,如INTER80386,zilog公司的Z8000、惠普的HP-32,ns的16032、inter的pentium。
1.1.4计算机的主要特点
计算机作为一种通用的信息处理工具,具有极高的处理速度、很强的存储能力、精确的计算和逻辑判断能力,因此,其特点可概括为:
1.运算速度快
目前巨型机的运算速度可达每秒几万亿次,一般的微型机也可达到每秒亿次以上
2.计算精度高
科学技术的发展特别是尖端科学技术的发展,需要高度精确的计算。
3.存储功能强
计算机具有存储“信息”的存储装置,可以存储大量的数据,具有“记忆”能力。
4.逻辑判断能力
除了算术运算,计算机还可以进行逻辑运算,从而具备了逻辑判断能力。
5.具有自动运行能力
1.1.5计算机的应用领域
根据计算机的应用特点,可以归纳为:
科学计算、数据处理、自动控制、计算机辅助系统、办公自动化和人工智能等六大类。
1.科学计算(数值计算)
用计算机来解决科学研究和工程设计中的数学计算问题,称为科学计算。
2.数据处理(信息管理)
用计算机对大量数据进行记录、整理和计算、加工成为人们所要求的数据形式,称为数据处理。
目前计算机的信息处理应用已非常普遍,如人事管理、库存管理、财务管理、图书资料管理、商业数据交流、情报检索、经济管理等。
3.过程控制
使用计算机进行自动控制可大大提高控制的实时性和准确性,提高劳动效率、产品质量,降低成本,缩短生产周期,因此被广泛用于钢铁企业、石油化工业、医药工业等生产过程中。
4.计算机辅助系统
使用计算机可以辅助人们完成许多工作任务,如CAD、CAI等。
CAD(计算机辅助设计,ComputerAidedDesign),
CAI(计算机辅助教学,ComputerAidedInstruction)
CAM(计算机辅助制造,ComputerAidedManufacturing)、
CAT(计算机辅助测试,ComputerAidedTest)、
CAE(计算机辅助工程,ComputerAidedEngineering)等。
5.人工智能
人工智能(ArtificialIntelligence,简称AI),指计算机模拟人类某些智力行为的理论、技术和应用。
6.信息高速公路
7.电子商务
1.1.6
电子计算机的种类很多,通常按以下几种情况分类:
1.按处理数据的方式分类
计算机可分为模拟计算机和数字计算机。
模拟计算机处理的是连续变化的物理量;
数字计算机处理的是非连续变化的数字量。
目前绝大部分计算机是数字计算机。
2.按应用范围分类
计算机可分为专用计算机和通用计算机。
3.按规模分类
按照计算机的运算速度、字长、存储容量、软件配置等多方面的综合性能指标将计算机分为巨型机、大型机、小型机、工作站、微型机等几类。
(1)巨型机
巨型机的研制水平、生产能力及其应用程度已成为衡量一个国家经济实力和科技水平的重要标志。
我国在巨型机研制上也取得了可喜的成果,先后研制了银河、曙光、神威等巨型计算机。
(2)大型机
大型机通用性强、具有很强的综合处理能力、性能覆盖面广,主要应用在公司、银行、政府部门、社会管理机构和制造厂家等,通常人们称大型机为“企业级”计算机。
(3)小型机
小型机机器规模较小、结构较大型机简单。
小型机应用范围广泛,如用在工业自动控制、大型分析仪器、测量仪器、医疗设备中的数据采集、分析计算等,也用作大型、巨型计算机系统的辅助机,并广泛用于企业管理以及大学和研究所的科学计算等。
(4)微型机(个人计算机)
1971年,美国的Intel公司成功地在一个芯片上实现了中央处理器的功能,制成了世界上第一片4位微处理器MPU(microprocessingunit),也称Intel4004,并由它组成了第一台微型计算机MCS4,由此揭开了微型计算机大普及的序幕。
随后,以Intel为代表,相继推出了8位的8088、16位的80286、32位的80386、80486和Pentium(586)微处理器。
我们一般所说的计算机都是指微型机,也称作电脑或微机。
1.2计算机中的数据与编码
不论是指令还是数据,若想让计算机识别并执行都必须采用二进制编码形式,采用二进制表示信息,在物理上易于实现。
因为具有两种稳定状态的物理器件有很多,如电压的高低、电路的导通与断开等,它们可以很方便的用0和1两个符号来表示。
而如果采用十进制的话,要制造具有10种稳定状态的物理电路,将是非常困难的。
1.2.1数字化信息编码的概念
编码就是采用少量的基本符号,选用一定的组合原则,以表示大量复杂多样的信息,基本符号和组合过则是编码的两大要素。
计算机中采用的是“0”和“1”连个基本符号组成的二进制代码。
1)二进制代码物理上容易实现。
2)二进制编码计数、加减简单。
3)二进制的两个符号正好与逻辑命题的真假相对应。
1.2.2进位计数值
对于不同的数值都有相同点:
每种数制都有固定符号如十进制0、1、2、3、4、5、6、7、8、9
都是用位子表示法,55.55=5*101+5*100+5*10-1+5*10-2
1.2.3不同进制之间的转换
1.常用的进位计数制
数的进位制有十进制、二进制、八进制和十六进制等。
(1)十进制
有十个不同的数码符号:
0、1、2、3、4、5、6、7、8、9,按“逢十进一”来决定其实际数值,基数为10。
(举例说明)
(2)二进制
二进制有两个不同的数码符号0和1,计数特点是“逢二进一”,基数为2。
计算机中数的存储和运算都是用二进制进行的。
加法规则:
0+0=01+0=10+1=11+1=10
乘法规则:
0×
0=00×
1=01×
0=01×
1=1
(3)八进制
有八个不同的数码符号,0、1、2、3、4、5、6、7,计数特点是“逢八进一”,基数为8。
(4)十六进制
十六进制有十六个不同的数码符号,0、1、2、3、4、5、6、7、8、9、A、B、C、D、E、F,计数特点是“逢十六进一”,基数为16。
2.数制的转换
(1)十进制数转换为二(八、十六)进制数
将十进制数转换为基数为二(八、十六)的数制时,可将此数分成整数和小数两部分分别进行转换,然后再拼接起来。
即:
整数部分:
除2(8或16)取余数,余数从下向上依次从高位到低位排列。
小数部分:
乘2(8或16)取整数,整数从上到下依次从高位到低位排列。
②转换为八进制数:
(215.78125)10=(327.62)8
③转换为十六进制数:
(215.78125)10=(D7.C8)16
(2)二(八、十六)进制数转换成十进制数
基数为二(八、十六)进制的数字,只要将其各位数字与它的位权相乘,其积相加,得到的数就是十进制数。
(3)二、八、十六进制数之间的相互转换
一般来说,3位二进制数可用1位八进制数表示,4位二进制数可用1位十六进制数表示,这样就可以将二进制数通过不同数位的组合构成新的八进制或十六进制数。
①二进制数转换成八(十六)进制数
转换方法:
以二进制数小数点为中心,向左右两边各分成3位(4位)一组,中间的0不能省略。
若最高位或最低位不足3位(4位)的,分别补0即可。
②八(十六)进制数转换成二进制数
将八(十六)进制数的每一位数分别扩展成3位(4位)二进制数,排列顺序和小数点位置不变,并去掉两端的多余的0即可。
③八进制数与十六进制数的相互转换
八进制数与十六进制数是通过二进制数作为中间桥梁进行相互转换的。
1.2.4二进制数在计算机内的表示
1.机器数
由于在计算机中只有“0”和“1”两种形式,所以正负号也要用0、1,常把iygeshu的最高位定义为符号位,0为正,1为负。
称为数符,其余为表示数值,把在计算机内存放的正负数称为机器数,把机器外有正负号表示的为真值数。
如:
真值(-00101100)B的机器数为10101100
注意:
机器数表示的范围受到字长和数据类型的限制。
表示一个整数,字长8位,最大的正数为01111111即127,若大于127就溢出。
2.数的定点和浮点表示
计算机内表示数主要由定点小数、定点整数和浮点数。
(1)定点小数的表示方法,小数点准确固定在数据某一位置上的小数,一般把小数点固定在最高数据位的左边,小数点前是符号位。
(2)整数的表示方法,整数的最小单位为1,小数点定在数据最低位右边。
整数分为带符号和不带符号两类,对带符号符号放在最高位。
(3)浮点数的表示,一般定点数的表示范围都比较小,大多采用浮点数,浮点表示法对应科学记数法,如110.011可表示-----N=110.011=1.0011*2+10=1100.1*2-10=0.110011*2+11
在计算机中一个浮点数由两部分组成:
阶码和尾数,阶码是指数,尾数是纯小数,阶码是一个带符号的整数,是指示尾数中的小数点左移和右移的位数,阶码本事的小数点预定的阶码最右边。
位数表示数值的有效位,小数点约定在数符和尾数之间,数符和阶符各站一位。
浮点数的正负是由尾数的数符决定,阶码的符号制决定小数点位子,
3.带符号数的表示
在计算机中带符号的数可以有不同的表示,原码、反码、补码
1)原码:
当机器字长为8位:
[+1]原=00000001,[-1]原=10000001
[+127]原=01111111,[-127]原=11111111
由此看出原码表示准则:
最高位符号位,“0”正数“1”负数,其余的n-位是数的绝对值,原码中0有两种表示[+0]原=00000000,[-0]原=10000000
2)反码:
[+1]反=00000001,[-1]反=11111110
[+127]反=01111111,[-127]反=10000000
由此看出反码表示准则:
正数的原码与反码相同,负数的反码只需将对应的正数位按位求反。
最高位符号位,“0”正数“1”负数,反码中0有两种表示[+0]反=00000000,[-0]反=11111111。
3)补码:
[+1]补=00000001,[-1]补=11111111
[+127]补=00000000,[-127]补=10000001
由此看出补码表示准则:
正数的补码与原码、反码相同,负数的补码等于它的反码加1。
最高位符号位,“0”正数“1”负数,补码中0有一种表示[+0]补=[-0]补=00000000,
1.2.5字符的编码
1.BCD码
是指每位十进制数用4位二进制数编码表示,由于4位二进制数可以表示16种状态,即8421码
2.字符编码
计算机中的数字和字符都是用二进制表示的,字符编码(CharacterCode)就是用二进制编码来表示字母、数字以及专门符号。
下面简要介绍ASCII码和汉字编码。
1)ASCII码
目前计算机中普遍采用的字符信息编码方案是ASCII码,即美国信息交换标准代码(AmericanStandardsCodeforInformationInterchange—ASCII)。
ASCII码包括0-9十个数字,大小写英文字母52个,控制字符33个,各种标点符号和运算符号32个。
ASCII码由7位二进制数编码组成,有128(27=128)个不同符号,由于计算机中实际用8位表示一个字符,故ASCII码的最高位用作校验位,其他7位记录数字符号的编码。
ASCⅡ码字符表
3.汉字编码
ASCII码只能表示英文字母和数字等符号,要用计算机处理汉字,还必须对汉字进行编码处理。
与西文字符比较,汉字数量大,字形复杂,同音字多,所以汉字在计算机内部的存储、传输、交换、输入、输出过程中所使用的编码是不同的。
(1)汉字输入码
所谓汉字输入码,就是汉字按某种规则所对应的西文键盘上的键位序列。
如果根据汉字的笔划和偏旁建立这种对应关系,所形成的汉字编码称为字型码,如五笔字型编码。
如目前流行的智能ABC、微软拼音等
(2)国标码、区位码和顺序码
1980年我国颁布了《信息交换用汉字编码字符集·
基本集》(代号为GB2312-80),共收录了6763个常用汉字和682个非汉字字符(图形、符号),因而这种字符对应的十六进制编码称为国标码。
所有的国标汉字与符号组成一个94×
94的矩阵,在此方阵中,每一行为一个“区”(区号为01-94),每一列为一个“位”(位号为01-94),实际组成94个区,每个区内有94个位的汉字字符集,每一个汉字或符号在码表中都有一个唯一的位置编码,这个位置编码分别用2个十进制数表示,这就叫该字符的区位码。
(3)汉字机内码
汉字的机内码是计算机系统内部对汉字进行存储、处理、传输统一使用的代码,又称为汉字内码。
(4)汉字字型码
计算机存储汉字用的是机内码形式,但是输出汉字不能用内码,因为内码不能直接显示。
目前,输出汉字都是用字形,而字形又是用点阵表示的,每个汉字对应一个点阵,每个点用一个二进制码表示,“1”表示对应位置处是黑点,“0”表示对应位置处是空白。
汉字字形点阵有16×
16、24×
24、32×
32、64×
64等。
例如16×
16点阵,每个汉字要占32个字节(16×
16÷
8=32);
24×
24点阵的字形码需要用72个字节(24×
24÷
8=72)。
~~~~~~~~~~计算机容量的表示
计算机中的任何信息都是以二进制编码形式存储的,即以0和1的形式存在。
计算机信息的单位通常用“位”、“字节”和“字”等。
1.位(bit)
位是度量数据的最小单位,表示一位二进制信息。
一个二进制位可以表示0或1两种不同状态。
2.字节(Byte)
一个字节由8位二进制数字组成(1Byte=8bit)。
字节是计算机中用来表示存储空间大小的最基本单位。
计算机中的信息容量通常都是按2的幕次方数来计算的,如210=1024。
例如说一个文件的大小为1K,即意味着该文件存储需要1024个字节的存储空间,也就是1024×
8个二进制位。
1B=8bit
1KB=210B=1024Byte
1MB=220B=1024KB=1024×
1024Byte
1GB=230B=1024MB=1024×
1024KB=1024×
1024×
1TB=240B=1024GB=1024×
1024MB=1024×
1024KByte
1.3计算机系统的基本结构与组成
1.3.1计算机系统的基本硬件结构
一个完整的计算机系统由硬件系统和软件系统两大部分组成,如图所示。
硬件系统是构成计算机系统的物理部件。
软件系统是指各种系统软件和应用软件及相应的说明文件等。
软件按其功能又可以分为系统软件和应用软件。
系统软件是指为方便用户、提高计算机系统的效率、扩充硬件功能而编制的程序。
如操作系统、汇编程序、编译程序、数据库系统等。
应用软件是指用户为解决某一特定问题而编制的程序。
1.计算机硬件五大功能部分
计算机硬件主要由运算器、控制器、存储器、输入设备和输出设备五部分组成。
1)运算器(ALU)
运算器又名算术逻辑部件ALU,它是实现各种算术运算和逻辑运算的实际执行部件。
2)控制器(CU)
控制器是分析和执行指令的部件,也是统一指挥和控制计算机各个部件按时序协调操作的部件。
运算器和控制器是计算机的核心部件,通常将这两个部件集成在一块芯片上,称为中央处理器CPU(CentralProcessingUnit)。
微型机的中央处理器又称为微处理器。
3)存储器(Memory)
存储器是计算机用来存储二进制信息(程序和数据)的重要部件,存储器根据其组成介质,存取速度及使用上的差别又分为内存储器(又称主存储器)和外存储器(又称辅助存储器)。
(1)主存储器(内存)
一般所说的存储器是指主存储器,又称为内存。
计算机上运行的程序和数据都是存放在主存储器中。
为了区分存储器内不同的存储单元,将每个存储单元进行统一编号,这个编号称为存储单元地址,简称为地址。
主存储器一般由半导体存储器构成,它具有容量较小,读写速度较快等特点。
主存储器可分为随机存储器(RAM)、只读存储器(ROM)。
①随机读写存储器(RAM)
随机读写存储器允许随机地按任意指定地址的存储单元进行存取信息。
用户输入的数据、程序以及加工处理过程中产生的数据都存放在RAM中。
要注意的是,由于信息是通过电信号写入随机读写存储器的,在计算机断电后,RAM中的信息就会丢失。
②只读存储器(ROM)
只读存储器中的信息只能读出而不能随意写入。
ROM中的信息是厂家在制造时用特殊方法写入的,断电后其中的信息也不会丢失。
(2)辅助存储器(外存)
内存储器虽然速度快,但受制造工艺限制,容量扩充较慢。
于是,人们开发了各种辅助存储器,作为计算机的外部设备,所以又称之为外存储器(外存)。
外存与内存相比,存储容量大、成本低、存取速度慢、可以永久地保存数据,并可根据需要再将数据读入内存中。
4)输入设备(Inputdevice)
常用的输入设备有键盘、鼠标、扫描仪、话筒、手写输入笔等等。
5)输出
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 第1章 计算机基础知识2 计算机基础知识