为了提高系统的可靠性和可用性,其中的一种办法就是采用双机集群。两台主机A、B共享一个磁盘阵列,A为工作机,B为备份机。它们之间用一根心跳线来连接,这称为"心跳检测"。工作机和备份机会通过此心跳路径,周期性的发出相互检测的测试包,如果此时工作机出现故障,备份机在连续丢失设定数目的检测包后,会认为工作机出现故障,这时备份机会自动检测设置中是否有第二种心跳,如果没有第二种心跳的话,本分机则根据已设定的规则,启动相关服务,完成双机热备的切换。
假设该处理原来所需时间为t,由于该功能的处理使用时间占整个系统运行时间的50%,所以,其他的处理时间也为t。该功能的处理速度被提高到10倍后,则其所需时间为0.1t,因此,系统的性能大致提高到(t+t)/(0.1t+t)=2t/1.1t=1.82倍。
Amdahl定律表明:利用这一公式,代入fe=0.5,re=10,可以得到系统的加速比为1.8左右。当加速比要求为1.5时,利用上述公式,可以算出该功能部件的加速比为3倍。
Amdahl定律表明:利用这一公式,代入fe=0.5,re=10,可以得到系统的加速比为1.8左右。当加速比要求为1.5时,利用上述公式,可以算出该功能部件的加速比为3倍。
系统吞吐率不单是取决于CPU的速度,还与内外存交换速度、磁盘存取速度等计算机的基本性能有关,也与应用的程序性能有关。因此,A是错误的。
增加磁盘容量与CPU处理时间没有直接的关系,所以B也是错误的。
如果事务处理平均响应时间很长,就需要我们去分析其中的原因,然后根据原因采取相应的措施。如果是因为外围设备导致系统瓶颈,则才去提高外围设备的性能。因此,C是错误的。
根据20-80法则,一个程序中20%的代码使用了该程序所占资源的80%;一个程序中20%的代码占用了总运行时间的80%;一个程序中20%的代码使用了该程序所占内存的80%。从这个规律出发,在做程序优化的时候,就有了针对性。例如,想提高代码的运行速度,根据这个规律可以知道其中20%的代码占用了80%的运行时间,因此只要找到这20%的代码,并进行相应的优化,那么程序的运行速度就可以有较大的提高。要想找出那20%的代码,可以使用性能测试工具,检查程序中各个模块所分配内存的使用情况,以及每个函数所运行的时间等。
机器主频高的并不一定比主频低的机器速度快,因为指令系统不同,各指令使用的机器周期数也不同。平均指令执行速度并不能完全正确反映计算机执行实际程序的速度,因为它仅是对各种指令执行速度加权后的平均值,而实际程序使用的指令情况与测试平均指令速度的程序不一样。
基准程序测试法是目前一致承认的测试性能较好的方法,目前,有很多这样的测试程序,各个基准程序测试的重点和应用领域都不一样。向量机和当代高性能机器主要用在工程应用计算中,浮点工作量占很大比例,因此机器浮点操作性能是这些机器性能的主要指标之一。
软件可靠性是软件系统在规定的时间内及规定的环境条件下,完成规定功能的能力,也就是软件无故障运行的概率。这里的故障是软件行为与需求的不符,故障有等级之分。软件可靠性可以通过历史数据和开发数据直接测量和估算出来。在软件开发中,排除一个故障可能会引入其他的错误,而这些错误会导致其他的故障。因此,在修改错误以后,还是进行回归测试。