面向多核集群的MPI任务并行扩展

非规则应用的任务并行化是高性能计算领域研究的热点.本文面向多核集群架构,对最流行的并行编程模型MPI进行扩展,使其有效支持非规则任务并行.主要研究内容及创新包括:在共享内存上对MPI单边通信进行优化,消除了额外内存拷贝开销;基于优化后的单边通信,实现了对等模式的分布式任务队列;提出了一种基于抽样分析的自适应任务粒度优化策略,防止细粒度任务的生成及粗粒度任务过早串行化;采用一种新式的异步工作窃取机制以平衡负载,有效地隐藏了工作窃取时的通信开销通过对BOTS任务并行基准测试程序的实验分析表明,相对于最新任务并行模型HotSLAW,MPI扩展任务并行具有明显性能提升.
高性能计算 多点接口 任务并行扩展 多核集群架构
李士刚 张云泉 贾海鹏 袁良
计算机体系结构国家重点实验室,中国科学院计算技术研究所,北京 100190
国内会议
广州
中文
195-203
2014-11-06(万方平台首次上网日期,不代表论文的发表时间)