文章目录
- 算力的定义
- 算力的单位
- FLOPS(Floating Point Operations Per Second,浮点运算次数/秒)
- IPS(Instructions Per Second,指令/秒)
- TOPS(Trillion Operations Per Second,万亿次/秒)
- 算力的影响因素
- 硬件
- CPU的运算速率
- 内存的容量
- 硬盘的读写速度
- 软件
- 操作系统的定制
- 数据库管理系统支持的多节点
- 算力的提升方法
- 升级硬件
- 优化软件
- 改进计算方式
- 算力的分类
- 通用算力,基于CPU(*处理器)
- 智能算力,基于GPU(图形处理器)、ASIC(专用集成电路)、FPGA(现场可编程逻辑门阵列)
- 超算算力
- 互联网数据中心(Internet Data Center)的基础结构
- 计算
- 存储
- 网络
- 其他相关物理基础设施
- 数据中心的发展
- 1、大规模
- 2、高智能
- 3、低能耗
- 算力的应用
- 1、实现复杂模型
- 2、缩短训练时间
- 3、支持实时分析和决策
- 4、促进AI技术的创新
- 第63版高性能计算Top5(超算排名)
- 第一名:Frontier(前沿,边缘),慧与合建
- 第二名:Aurora(极光),英特尔合建
- 第三名:Eagle(鹰),微软Azure云
- 第四名:Fugaku(富岳),富士通合建
- 第五名:LUMI(大型统一现代基础设施),芬兰和慧与合建
- 神威·海洋之光(Sunway Oceanlite)
- 神威·太湖之光
- 天河二号
- 曙光6000
- 《中国综合算力指数(2024年)》
算力的定义
算力是计算机设备或计算/数据中心处理信息的能力,是计算机硬件和软件配合共同执行某种计算需求的能力。
计算系统的算力越高,处理数据的速度越快,能完成的任务也越复杂。
算力的英文名是computility。其中的compu-是计算的词根,表达“算”的含义,-utility是效用、实用的意思。computility用来表达计算的能力,即算力。
狭义定义:算力狭义上通常指计算机实现特定计算功能,并满足特定计算性能的能力,可理解为CPU、GPU等芯片的计算能力。它通常以每秒浮点运算次数(FLOPS)作为计量单位,用来衡量一个计算设备或系统处理速度和计算能力的强弱。
浮点运算就是实数运算,因为计算机只能存储整数,所以实数都是约数,这样浮点运算是很慢的而且会有误差。
浮点运算其实就是带小数的加减乘除运算。计算机是以0和1构成的二进制数字进行运算的,例如1在二进制中表示为“01”,2是“10”,3是“11”,因此计算机能够直接表示的数字只有整数,无法表示小数。为了克服这一限制,计算机采用了浮点数的方法来表示实数;浮点指的是小数点的位置漂浮不定,计算机通过复杂的运算和二进制转化最终可以用有限的位数来近似表示小数(包括π这样的无理数)。
但这样一来,计算机在处理小数时就多了好几个运算步骤,因此计算机进行浮点运算的速度就成了衡量计算机性能的关键指标,数值越大则代表综合计算能力越强。
广义定义:算力广义上则是指计算设备集群或数据中心处理各种信息的能力,涉及数据存储、网络传输、信息计算等内容。它可理解为芯片技术的计算能力、内存和硬盘等存储技术的存力,以及操作系统、数据库等软件技术的算法三者的集合。
算力的单位
FLOPS(Floating Point Operations Per Second,浮点运算次数/秒)
表示计算系统每秒钟能执行多少次浮点运算,是最常用的衡量算力的单位。
应用:主要用于衡量计算系统(如GPU、超级计算机等)在进行科学计算、图形渲染等需要大量浮点运算的场景下的性能。
重要性:在高性能计算、深度学习、人工智能等领域中,FLOPS是衡量硬件计算能力的重要指标。
一个MFLOPS(megaFLOPS)等于每秒一百万(=10^6)次的浮点运算,
一个GFLOPS(gigaFLOPS)等于每秒十亿(=10^9)次的浮点运算,
一个TFLOPS(teraFLOPS)等于每秒一万亿(=10^12)次的浮点运算,
一个PFLOPS(petaFLOPS)等于每秒一千万亿(=10^15)次的浮点运算,
一个EFLOPS(exaFLOPS)等于每秒一百亿亿(=10^18)次的浮点运算。
在人工智能领域常用的算力单位是P(PetaFLOPS,Peta表示10的15次方),1P等于每秒可以完成1000万亿次浮点运算。
据工信部统计,截至2023年底,我国在用数据中心机架总规模超过810万标准机架,算力总规模达230 EFLOPS,即每秒230百亿亿次浮点运算,位居全球第二。截至2024年6月,我国在用算力中心机架总规模超过830万标准机架,算力总规模达246EFLOPS。预计到2025年,我国算力总规模将突破300EFLOPS。
IPS(Instructions Per Second,指令/秒)
表示计算系统每秒钟能执行多少条指令,更多地用于衡量CPU的处理速度。
应用:主要用于衡量CPU(*处理器)的处理速度,反映了CPU在特定时间内能够完成多少条基本指令的执行。
重要性:在需要处理大量复杂指令的应用场景中,如游戏、数据库处理、实时数据分析等,IPS是衡量CPU性能的关键指标。
TOPS(Trillion Operations Per Second,万亿次/秒)
表示处理器每秒钟可进行多少万亿次(10^12)操作。
应用:主要用于衡量数据库、服务器、网络应用等系统处理业务请求的能力。
重要性:在需要处理高并发请求的应用场景中,如电商平台、金融系统、社交网络等,TPS是衡量系统性能和稳定性的重要指标。它直接关系到用户体验和系统能否满足业务需求。
TOPS/W也可以作为评价算力的一个性能指标,表示在1W功耗的情况下,处理器能进行多少万亿次操作。
算力的影响因素
硬件
CPU的运算速率
CPU负责执行指令和进行计算。CPU的性能直接决定了计算机的运算速度和处理能力。CPU运算速率的具体数值取决于CPU的型号、频率、核心数等因素。
例如,某个CPU的单核频率为2.7GHz,且具有28个物理核心和56个线程,浮点运算能力高达4.8 TFLOPS。这意味着该处理器在进行计算密集型任务时,可以在一秒钟内完成超过四万亿次的浮点运算。
内存的容量
某些超级计算机为了实现对大规模数据的计算,在实际部署时设计了超过4600个节点,每个节点配备了96 GB的内存,总内存容量超过44 PB(1PB 约等于1000 TB)。
内存可以存储更多的数据,从而支持更大规模的数据处理和分析。这对于需要处理大量数据的应用场景(如数据分析、机器学习、天气预报等)非常重要。大内存可以减少数据在内存和硬盘之间移动的次数,从而提高计算性能。这是因为从硬盘读取数据的速度通常比从内存读取数据慢得多。
硬盘的读写速度
海量的数据除了要存储在大量的硬盘中,还需要在计算的过程中,能快速地从硬盘中读取出来。
例如:采用了更高质量的组件和更先进技术的企业级硬盘,最高读取速度可以达到700多MB/s;专为高性能计算设计的一种新型固态硬盘SSD,最高读取速度可以达到7000多MB/s。
软件
操作系统的定制
图形化的操作系统降低了人们的使用难度,而专注于计算的操作系统一般都是摒弃了图形化界面。通过定制化设计,专注于计算,从而具备比其他系统具有更高的算力。
数据库管理系统支持的多节点
高性能计算机中的数据库,通常会采用分布式存储的设计。这意味着数据可以分布在多个服务器或存储设备上,从而实现更高的可扩展性和可靠性。
算力的提升方法
升级硬件
最直接有效的方法是升级CPU或GPU等硬件,以提高计算能力。
GPU(Graphics Processing Unit,图形处理单元):提供强大的并行计算能力。通过成千上万个小处理单元进行并行工作,大幅提高了计算效率。
TPU(Tensor Processing Unit,张量处理单元):TPU是专门为加速人工智能学习而设计的硬件,能够显著加快计算速度,进一步增强了网络的强度。
SSD(固态硬盘):大容量的SSD具有高速读取和写入能力,可以快速加载和保存数据,使得计算机能够高效地存储信息。
大容量RAM:在训练生成式AI模型时,大量的中间计算结果和模型参数需要存储在内存中,大容量的RAM能够显著提高数据处理速度和数据处理效率。
优化软件
通过优化操作系统、编程语言和应用程序,也可以提高算力。
通过优化算法和数据结构、减少不必要的计算和存储开销、提高代码质量和可维护性等方式,可以有效地减少计算任务的运行时间,提高计算机系统的运行效率。
改进计算方式
现代计算机系统通常包含多个处理器或核心,可以同时执行多个任务,这就是所谓的并行计算。这使得计算机能够在更短的时间内完成更多的任务,从而提高整体的算力。
在分布式计算中,任务被分解成多个部分,然后由多台计算机共同完成。这种方式可以突破单台计算机的算力限制,实现更强大的计算能力。
量子计算利用量子比特进行计算,理论上具有无限的计算能力。然而,目前量子计算机还处于实验阶段,距离实际应用还有很长的路要走。
算力的分类
通用算力,基于CPU(*处理器)
通用算力:一般指基于CPU的计算能力,设计用于处理广泛的计算任务。CPU内部有指令集,对运算进行指导和优化,确保了CPU的可靠运行。按指令集架构的不同,CPU可以分为x86架构与非x86 架构。X86架构是英特尔(Intel)公司首先开发并长期主导的,具有较好的生态,市场占有率也比较高。
特点:灵活性高,可以处理各种不同类型的计算任务,但可能在特定类型的任务上不如专用硬件高效;高效能,采用先进冷却技术和能源管理系统降低能耗;大规模部署,分布于全国各地的数据中心,支持广泛的互联网服务。应用场景:适用于日常的数据处理、文件处理、网页服务等通用计算任务。
基础算力由基于CPU芯片的服务器所提供的算力,主要用于基础通用计算,如移动计算和物联网等。日常提到的云计算、边缘计算等均属于基础算力。
CPU(*处理器,Central Processing Unit),作为计算机的运算和控制核心,是信息处理、程序运行的最终执行单元。
CPU是冯●诺依曼架构下的处理器,在该体系结构下,指令和数据需要从同一存储空间存取,经由同一总线传输,无法重叠执行。这一处理流程,决定了CPU擅长决策和控制,但在多数据处理任务中效率较低。
一般来说,CPU 算力的提升主要依靠两个方面,即时钟频率和内核数。计算机的操作在时钟信号的控制下分步执行,每个时钟信号周期完成一步操作,时钟频率的高低在很大程度上反映了CPU速度的快慢。CPU内核是CPU内部可以执行指令的单个处理单元。
通常来说,时钟频率越大、内核数越多,CPU的性能越强,但这也就带来了能耗过高,发热过大的问题,散热跟不上,可能会导致CPU烧毁。
随着 CPU 算力逐渐达到瓶颈,越来越无法满足指数级增长的算力需求。算力发展的方向愈发转向专用性,以寻求更高的性能、更低的能耗和成本。
智能算力,基于GPU(图形处理器)、ASIC(专用集成电路)、FPGA(现场可编程逻辑门阵列)
基于 GPU(Graphics Processing Unit,图形处理器)、ASIC(Application Specific Integrated Circuit,专用集成电路)、FPGA(Field ProgrammableGate Array,现场可编程逻辑门阵列)等AI芯片的加速计算平台提供的算力,主要用于人工智能的训练和推理计算,比如语音、图像和视频的处理。
GPU是主要负责做图像和图形相关运算工作的处理器。GPU是并行编程模型,和CPU的串行编程模型完全不同。由于图形渲染任务具有高度的并行性,因此GPU可以仅通过增加并行处理单元和存储器控制单元,便可有效的提高处理能力和存储器带宽。
ASIC是为特定应用而设计的集成电路。ASIC的设计完全针对特定应用进行优化,采用硬连线方式实现电路功能,在处理特定任务时能够达到更高的效率和更低的能耗,因此在性能和效率方面达到了极致。ASIC的高定制性也意味着高研发成本和技术门槛。因为ASIC芯片是为特定应用而设计的,需要进行专门的电路结构和布局设计,这通常需要高度专业化的技术和丰富的经验。定制化设计的过程复杂且耗时,增加了研发成本和技术门槛。且ASIC的灵活性较低,一旦设计完成便难以更改,在这个技术日益更新的时代很难占据更多市场。因此,ASIC通常适用于那些对性能要求极高且需求相对稳定的应用场景,如加密货币挖矿、高性能计算等。AISC芯片属于定制款,因此性能更强,能耗更低,但因为技术门槛更高、设计周期更长,所以价格也更贵,但是当需要大规模使用ASIC芯片时,成本会显著降低。
ASIC芯片一经设计就不能更改,那么当用户有其他需求时就需要FPGA(现场可编程门阵列,Field Programmable Gate Array),FPGA 是一种可编程集成电路,可由用户配置以执行特定任务。相对于CPU和GPU的冯诺依曼结构,FPGA采用无指令、无需共享内存设计,每个逻辑单元的功能在重编程时就已经确定,使得FPGA的能效要比CPU和GPU高。FPGA可以重构,因此在灵活度上会有显著提升。这其实和搭积木一样,固定积木需要经过设计→开模→注塑生产→装饰上色→包装,最后才能上市销售。而智力积木只需要生产几种不同的形状与颜色的积木,就可以让消费者根据自己的想象和创意自行搭建了,缺点就是在搭积木的过程中会产生冗余,造成浪费。
超算算力
由超级计算机等高性能计算集群所提供的算力,主要用于尖端科学领域的计算,比如行星模拟、药物分子设计、基因分析等。
总结:基础算力主要用于支撑日常应用,智能算力赋能AI训练与推理,而超算算力则主要用于探索科学未知。
通用算力:由CPU芯片提供的计算能力。
智能算力:由GPU、FPGA、ASIC等加速芯片提供的AI计算能力。
超算算力:由超级计算机提供的极高性能的计算能力。
根据算力类型,数据中心可分为以下三类:
通用数据中心
提供基础通用算力,应用于电子商务、政务服务、企业办公等日常的互联网服务。
智算数据中心
提供AI计算能力,支持语音识别、图像/视频处理、模型训练和推理,应用于自动驾驶,智慧医疗、智能安防等领域。
超算数据中心
提供超高性能的计算能力,侧重于复杂和大规模的计算密集型任务,应用于重大工程或科学计算领域,比如:航空航天设计、天气预报、地震预测、能源勘探。
互联网数据中心(Internet Data Center)的基础结构
数据中心即互联网数据中心(Internet Data Center),是算力的载体。
数据中心的三大基础结构分别是计算、存储和网络。
计算
采用高性能CPU、显卡(GPU)、大容量内存和高速存储的服务器是数据中心的计算主力军,拥有强大算力,满足各类高性能应用的需求。
CPU负责逻辑判断、数据运算和控制调度等任务,CPU的计算能力决定了服务器的整体性能。
GPU是专门设计用于高效并行处理大量数据的处理器。在大规模并行计算场景下,GPU能极大地提升计算效率,适用于图形渲染、深度学习、科学计算等领域。
下图是中兴通讯R6900 G5服务器,是一款面向大模型训练领域的GPU服务器。
存储
数据中心的存储设备包括硬盘、磁盘阵列、分布式存储系统,以及NAS、SAN等外挂式网络存储。
数据中心的存力决定了数据的实际存储量和可用性,对于数据长期保存的完整性和安全性至关重要。
例如中兴通讯分布式存储系统KS20000,具备高可扩展性,适用于虚拟化数据中心。
网络
数据中心的网络设备包括交换机、路由器、防火墙等,是数据中心内部与外部互联互通的基础设施,确保数据能在计算节点、存储设备以及外部用户之间高效安全地传输。
当面对庞大业务量时,网络设备能够满足数据中心内大规模、高并发的数据传输需求,同时兼顾网络的管理效率和安全性,为数据中心内部所有设备提供稳定可靠的数据通信。
例如中兴通讯ZXR10 9900X系列核心交换机,提供超大交换容量和电信级可靠性保障,助力构建云计算虚拟化的数据中心网络。
在数据中心的网络架构中,较为常见的是叶脊网络,具有可扩展性、高可靠性和高性能。
叶脊网络由叶交换机(Leaf Switch)和脊交换机(Spine Switch)组成。叶交换机用于连接服务器和存储设备,脊用于连接叶交换机,是网络的骨干。
其他相关物理基础设施
除了以上介绍的三大基础结构,数据中心还拥有电力、制冷、安防、消防等系统,提供综合管理和运维功能。
各个系统协同作用,确保数据中心稳定运行,全方位保障数据中心内的设备和数据安全。
例如中兴通讯微模块数据中心管控子系统,支持现场环境的真实还原和端到端检测。
数据中心的发展
1、大规模
在云计算时代,用户对计算、存储和网络资源的需求大幅增长,同时虚拟化和容器等技术使得资源利用率和管理效率大大提高,共同推动了数据中心向超大规模发展。
“东数西算”工程统筹优化算力资源,推动各枢纽节点的数据中心集群建设。截至今年3月底,10个国家数据中心集群算力总规模超过146万标准机架,整体上架率为62.72%,较2022年提升4%。
通过全国一体化算力体系建设,未来数据中心规模将实现稳步有序增长,提升整体算力水平。
2、高智能
在运维方面,融合AI技术有助于提升数据中心的运维效率和质量。
比如:通过AI预测数据中心能耗,分析资源需求,优化资源调度,助力节能减排;利用AI实现智能的资源调度、监控预警,检测排障,保障系统的稳定性和可靠性。
将AI技术应用于数据中心的规划、建设、运营、维护全生命周期,可实现数据中心高智能化。
据业界预测,2030年领先的数据中心的自动化运行能力等级将达到L4,几乎实现无人化。
在算力方面,AIGC技术迅猛发展,推动智算算力的需求激增。
据国家信息中心统计,在智算中心实现80%应用水平的情况下,城市对智算中心的投资可带动人工智能核心产业增长约2.9~3.4
倍、带动相关产业增长约36~42
倍。
未来智算数据中心将加速建设,源源不断地提供各种智算服务,成为数字经济的新动力引擎。
3、低能耗
数据中心的大规模化使得节能降耗成为了一大难题,国家据此提出相应要求,全国范围内新建数据中心的电源利用效率(PUE)<1.2。
在制冷方面,液冷技术成为了新型数据中心建设的重要选择。相比传统的风冷系统,液冷系统能够节约电量30%~50%,散热效率也更高。
目前中兴通讯推出的全能液冷方案可实现PUE<1.1,助力数据中心实现绿色高效散热。
PUE = 数据中心总能耗 / IT设备能耗
PUE越接近1,表示非IT设备耗能越少,数据中心能效水平越高。
在能源方面,据业界预测,2030年全国数据中心能耗总量将超过4000亿千瓦时。
节能减排是数据中心持续绿色发展的重中之重。需充分利用新能源技术,应用可再生能源电力,提升绿电比例,降低碳排放。
算力的应用
1、实现复杂模型
现代人工智能,特别是深度学习技术,依赖于复杂的神经网络模型,这些模型包含数百万甚至数十亿的参数。
高算力使得这些大型模型的训练成为可能,只有足够的算力才能使模型在合理的时间范围内完成对海量数据的学习。
2、缩短训练时间
强大的算力可以大幅缩短模型的训练时间。在算力较低的条件下,训练一个复杂的深度学习模型可能需要几周甚至几个月。随着算力的提升,相同的训练任务可以在几天、几小时乃至更短时间内完成。
3、支持实时分析和决策
在很多应用场景中,比如自动驾驶汽车、金融交易分析、智能医疗系统等,AI模型需要实时地处理数据并做出决策。强大的算力能够保证这些系统能够迅速处理输入的数据,及时做出反应。
4、促进AI技术的创新
随着算力的增强,AI研究人员能够尝试更多的实验,探索新的算法和模型架构。这不仅加速了现有技术的改进,也可能带来突破性的新技术。例如,近年来自然语言处理(NLP)领域的重大进展很大程度上得益于可用算力的显著提升。
除了人工智能领域,算力在气候模拟、天文物理、金融分析、医疗健康、交通运输、信息安全、科学研究等各方面都具有重大影响。
科学研究:在天文学、物理学、化学、生物学等领域,算力帮助科学家们处理和分析大量数据,加速科研进程。例如,在宇宙探索中,科学家们利用超级计算机模拟宇宙演化过程,寻找暗物质和暗能量等未知物质。
工业生产:在制造业中,算力助力企业实现智能化生产,提高生产效率和产品质量。例如,在智能制造领域,企业利用云计算和大数据技术收集和分析生产数据,优化生产流程和设备维护计划。
金融分析:在金融领域,算力帮助银行和金融机构进行风险评估、投资决策和市场预测等工作。通过大数据分析技术,金融机构能够更准确地了解市场趋势和客户需求,提高业务效率和客户满意度。
第63版高性能计算Top5(超算排名)
2024年5月13日,在德国汉堡举行的2024年国际超算大会(ISC 2024)高性能会议上,第63版高性能计算Top500榜单发布。Top500的基准长期以来一直是世界大规模超级计算性能的衡量标准。
在中国的*超算去年跌出Top500榜单前十之后,依然无缘于最新的前十榜单。在去年的榜单上,中国的神威·太湖之光和天河二号A也进入了前十五,分别排名第11和第14位。Top500组织在最新发布的报告中指出,中国已决定不再参加Top500的HPL基准测试(High Performance Linpack,高度并行计算基准测试)。
第一名:Frontier(前沿,边缘),慧与合建
Frontier(边缘):位于美国田纳西州橡树岭国家实验室(Oak Ridge National Laboratory),Frontier仍然保持着榜单上最强大的系统的位置。它以1.206 EFlop/s的HPL得分引领榜首,采用了第三代AMD EPYC CPU和AMD Instinct MI250X加速器相结合的架构,并拥有总共8,699,904个CPU和GPU核心。该系统的功耗效率达到了52.93 GFlops/Watt,位列GREEN500榜单第13位。
目前位居榜首的是由超级计算巨头 HPE(Hewlett Packard Enterprise,慧与) Cray打造的 Frontier,在2022年上线时成为世界上第一台百万兆次级计算机。据IEEE Spectrum报道,科学家们最初计划将Frontier用于癌症研究、药物发现、核聚变、新材料、设计超高效发动机和模拟恒星爆炸等。
据《麻省理工科技评论》(MIT Tech Review)报道,未来几年,科学家们将使用Frontier来设计新的运输和医学技术。匹兹堡大学(University of Pittsburgh)计算天体物理学助理教授埃文·施耐德(Evan Schneider)告诉《麻省理工科技评论》,他希望模拟银河系如何随着时间的推移而演变。
https://www.hpe.com/cn/zh/compute/hpc/supercomputing/cray-exascale-supercomputer.html
慧与科技(Hewlett Packard Enterprise,HPE)(NYSE:HPE)是原惠普公司Hewlett-Packard Company于2015年11月1日分拆而形成的独立公司,专注云端和服务器等企业解决方案。
惠普(Hewlett-Packard,简称HP),(NYSE:HPQ),继承原惠普公司的个人电脑与打印机业务。
第二名:Aurora(极光),英特尔合建
Aurora(极光):尽管仍在进行建设和完善当中,Aurora还是在TOP500榜单上占据了第二位。这个系统位于美国伊利诺伊州的阿贡国家实验室,实现了1.012 EFlop/s的HPL得分。它基于HPE Cray EX-Intel Exascale计算机刀片,采用了Intel Xeon CPU Max系列处理器、Intel Data Center GPU Max系列加速器和Slingshot-11互连。
名单上最年轻的超级计算机之一也可能有一天成为最强大的超级计算机。Aurora位于阿贡领导计算设施(ALCF: Argonne Leadership Computing Facility),成为有史以来第二台百万兆次级超级计算机。ALCF代表表示,它有可能达到2 exaFLOPS的计算能力,这是Frontier的两倍。
Aurora由英特尔和慧与合作构建,集成了科学工具和分析、执行建模和仿真以及运行人工智能 (AI)。Aurora的算力使其能够在气候预测、材料科学、储能和核聚变等各个领域创建精确的模型。根据HPCWire的说法,聚变是Aurora研究的重点,它有朝一日可能有助于解开大规模聚变能源的秘密。
第三名:Eagle(鹰),微软Azure云
Eagle(鹰):Eagle系统安装在美国微软Azure云上,夺得了榜单上的第三位。这是一个Microsoft NDv5系统,具有561.2 PFlop/s的HPL得分,基于Intel Xeon Platinum 8480C处理器和NVIDIA H100加速器。
微软的Eagle超级计算机不是基于实验室——它基于云,任何人都可以通过Microsoft Azure云平台访问它。这是一个分布式系统网络,它们合作进而拥有足够的计算功能,可以成为世界上第三快的超级计算机。从理论上讲,任何愿意付费的人都可以访问 Eagle。
第四名:Fugaku(富岳),富士通合建
Fugaku(富岳):富岳位于日本神户,HPL得分为442 PFlop/s。它仍然是美国以外排名最高的系统。
富岳(Fugaku),是由日本理化学研究所和制造商富士通共同推进开发的超级计算机,由约400台计算机组成。
在2020年6月至2022年6月期间,Fugaku曾经是世界上最强大的超级计算机,是该榜单上前五名里最早的系统。它的名字来源于富士山,这是一座距离东京约 60 英里(100 公里)的活火山,当它首次登上 TOP500 榜首时,它取代了 Summit 超级计算机(榜单第 7 位)。
多年来,科学家们已经将 Fugaku 用于几个关键的研究问题。据《日经亚洲》报道,在 COVID-19 大流行期间,研究人员利用其数字运算能力证实,用无纺布制成的口罩在阻挡空气传播的呼吸道飞沫方面更有效。据《日本新闻》报道,Fugaku 目前正在以 ChatGPT 的模式训练日本 AI 大型语言模型。
第五名:LUMI(大型统一现代基础设施),芬兰和慧与合建
LUMI(Large Unified Modern Infrastructure,大型统一现代基础设施):位于芬兰的EuroHPC/CSC的LUMI系统保持了第五位的位置,HPL得分为380 PFlop/s,是欧洲最大的系统。
LUMI将委托HPE(Hewlett Packard Enterprise)公司在芬兰中部城市卡亚尼建造,由EuroHPC JU(欧洲高性能计算联合会)投资1.445亿欧元。LUMI通过与EuroHPC JU合作,扩展HPE超级计算资源,加速欧洲实现21百万兆等级运算的路线图,这是超级计算领域的下一个重大飞跃,将提供比现有系统快5-10倍的性能。
LUMI总部位于芬兰,是欧洲最强大的超级计算机,也是世界上第五快的超级计算机。据欧盟(EU)官员称,它使用100%可再生水力发电,其废热用于为附近的建筑物供暖。它于三年前开始试运行,并于 2023 年 2月全面投入运营。
官员们此前曾表示,该系统被指定为欧洲各地的研究人员可用于合作研究的超级计算机,该系统针对基于人工智能的工作负载进行了优化。LUMI还被用作量子计算机的“合作伙伴”,即两个名为QAL 9000和Helmi的系统,这两个系统都位于芬兰。这种量子-经典计算合作伙伴关系旨在为研究人员提供当前最好的量子计算机(基于其未来的潜力而受到严重限制)和超级计算机。
https://www.lumi-supercomputer.eu/
神威·海洋之光(Sunway Oceanlite)
神威·海洋之光是神威·太湖之光的继任者,由江苏无锡的中国国家并行计算机工程技术研究中心开发。
科技日报讯(记者吴长锋)2024年9月9日,记者从中国科学技术大学获悉,该校大气科学先进计算实验室(LACAR)利用基于国产神威·海洋之光超级计算机自主研发的全球对流解析模式(iAMAS),成功“预测”了2020年日本及周边地区的大范围梅雨事件。该实验室所进行的预测,实际上是指通过科学研究和模型模拟,对已发生的事件进行回顾性分析和验证,从而证明该模式的有效性和准确性。相关论文近日发表于《环境研究快报》。
梅雨是东亚地区夏季经常出现的一种长时间大范围降雨现象,主要分布在长江中下游地区、朝鲜半岛以及日本九州岛等地所在的纬度带上。2020年,破纪录的“暴力梅”给我国江淮地区带来沉重的防汛压力和严重破坏,也使日本九州岛地区遭受了较为严重的梅雨灾害,严重影响当地居民生活和生产活动。此类降雨事件的次季节预报一直是学术研究和业务预报中的难点,难以满足居民和应急管理部门对中期天气预报精度的需求。研究团队依托神威·海洋之光超级计算机构建iAMAS,根据其硬件特征进行算法优化,提升计算速度,突破海量数据读写瓶颈,使全球对流解析尺度的月度预报成为可能。研究人员通过开展多组不同分辨率的月度预报试验,探讨了2020年夏季梅雨的可预报性。
研究人员发现,当使用全球低分辨预报时,梅雨带出现显著北移偏差,区域加密至对流解析尺度也不能解决问题。在较粗分辨率下,西北太平洋副热带高压扩张,导致降雨带北移并减弱。团队进一步研究发现,iAMAS能有效捕捉到赤道地区的深对流, 并合理模拟出与观测数据接近的西太平洋赤道地区的降雨过程及其环流形势。这种合理的模拟再现了副热带高压的强度和位置,副热带高压的变化会影响中纬度地区环流,研究人员通过掌握气流下沉和上升位置,成功地预测了此次梅雨事件的强度和位置。
神威·太湖之光
神威·太湖之光是由国家超级计算无锡中心运营的一台超级计算机。其算力达到93 petaflops(每秒93千万亿次浮点运算),在2016年和2017年连续两年位列TOP500榜单第一名。该计算机采用了中国自主研发的申威26010处理器,总共有40,960个计算节点,每个节点包含260个核心,总共拥有10,649,600个核心。
应用领域:
气候模拟:神威·太湖之光可以进行大规模的气候模拟,帮助科学家预测未来的气候变化,特别是在台风路径和强度预测方面,提高了防灾减灾的能力。
生命科学研究:它在基因组数据分析和蛋白质结构预测方面表现出色,支持科学家们进行复杂的生物医学研究,加快新药的研发进程。
材料科学:通过模拟材料的原子结构和性能,神威·太湖之光加速了新材料的开发,有助于推动科技进步。
天河二号
天河二号是由国家超级计算广州中心运营的一台超级计算机,其算力为33.86 petaflops。在2013年到2015年期间,它连续六次蝉联TOP500榜单第一名。该计算机采用了英特尔至强处理器和自主研发的“飞腾”加速器,总共有16,000个节点,每个节点包含两个至强处理器和三个加速器,总共拥有3,120,000个核心。
应用领域:
地球系统模拟:天河二号在地震模拟、气候变化研究等领域发挥了重要作用,帮助科学家更好地理解地球系统的运行机制。
石油勘探:通过大规模数据处理和模拟,天河二号帮助石油公司精确定位油气资源,提升了勘探效率和准确性。
基因测序:天河二号能够快速处理和分析海量基因组数据,推动了基因测序技术的发展,为个性化医疗提供了重要支持。
曙光6000
曙光6000是由国家超级计算天津中心运营的一台超级计算机,其算力高达125 petaflops。这台计算机采用了曙光公司的自主研发技术,包括国产的处理器和网络技术,是目前中国算力最高的超级计算机之一。曙光6000的总计算节点数为80,000个,每个节点包含两个处理器,总共拥有3,200,000个核心。
应用领域:
基础科学研究:曙光6000在高能物理、天文学等基础科学研究中扮演着关键角色,帮助科学家进行复杂的理论计算和模拟实验。
新材料开发:通过模拟材料的分子结构和性能,曙光6000加速了新材料的研发过程,推动了科技创新和产业升级。
大数据分析:曙光6000在处理和分析来自各行各业的海量数据方面表现出色,帮助企业进行市场分析、用户行为分析,从而制定更加精准的营销策略,提高企业的竞争力。
《中国综合算力指数(2024年)》
随着“人工智能”等前沿技术快速发展,综合算力成为加速我国数字经济发展的核心动能。9月28日,在2024中国算力大会上,《中国综合算力指数报告(2024)》正式发布。
《报告》在之前版本的基础上对指数体系进行了优化,构建中国综合算力指数体系3.0,从算力、存力、运力、环境等多维度客观分析我国31个省级行政区的综合算力发展情况。
《报告》显示,截至2024年6月,全国在用算力中心机架总规模超过830万标准机架,算力总规模达246EFLOPS,位居世界前列,产业发展不断提质增效向新。
从综合算力指数来看,河北省、广东省、上海市、江苏省、北京市等排名靠前。在算力分指数方面,河北省、上海市、广东省等排名靠前。其中,在算力质效层面,河南省排名全国第八位。近年来,河南省打造算力产业高地,积极推动算力业务发展,引入算力产业链企业,算力质效水平全面提升。
在存力分指数方面,广东省、江苏省、上海市等排名靠前。在运力分指数方面,广东省、江苏省、山东省等排名靠前,河南省排名位于全国前十。其中,在算间网络层面,河南省排名全国第六位。河南省加快部署新一代网络基础设施,全省5G千兆光网等通信网络不断完善,信息通信枢纽地位不断提升。在环境分指数方面,内蒙古自治区、宁夏回族自治区、河北省等排名靠前。