|
Вычислительные методы и программирование, 2013, том 14, выпуск 4, страницы 122–134
(Mi vmp161)
|
|
|
|
Эта публикация цитируется в 2 научных статьях (всего в 2 статьях)
Программирование
Применение планировщика для эффективного обмена данными на суперкомпьютерах гибридной архитектуры с массивно-параллельными ускорителями
П. Б. Богдановa, А. А. Ефремовa, А. В. Горобецb, С. А. Суковb a Научно-исследовательский институт системных исследований РАН (НИИСИ РАН)
b Институт прикладной математики РАН им. М.В. Келдыша (ИПМ РАН)
Аннотация:
Предложена оптимизация обменов данными в рамках многоуровневой параллельной модели на основе MPI, OpenMP и OpenCL, предназначенная для расчетов на различных типах современных суперкомпьютерных архитектур, включая гибридные системы на графических процессорах (GPU) и ускорителях Intel Xeon Phi. Представлен упрощающий гетерогенную реализацию планировщик задач, управляющий потоками вычислительных и коммуникационных заданий OpenCL и использующий представление вычислительной задачи в виде графа исполнения вычислительных подпрограмм, процедур передачи данных и связей между ними. С применением планировщика реализована коммуникационная схема для моделирования на гибридных суперкомпьютерах задач газовой динамики методом конечного объема на неструктурированных сетках. Описана реализация MPI и CPU-GPU-обменов с одновременным выполнением вычислений и передачи данных, приведены показатели полученной параллельной эффективности. Работа выполнена при поддержке РФФИ (коды проектов 12-01-33022 и 12-01-00486).
Ключевые слова:
газовая динамика; планировщик; параллельные вычисления; GPU; OpenCL; MPI; OpenMP.
Поступила в редакцию: 31.10.2013
Образец цитирования:
П. Б. Богданов, А. А. Ефремов, А. В. Горобец, С. А. Суков, “Применение планировщика для эффективного обмена данными на суперкомпьютерах гибридной архитектуры с массивно-параллельными ускорителями”, Выч. мет. программирование, 14:4 (2013), 122–134
Образцы ссылок на эту страницу:
https://www.mathnet.ru/rus/vmp161 https://www.mathnet.ru/rus/vmp/v14/i4/p122
|
|