К-100 (суперкомпьютер)
К-100 — гибридный суперкомпьютер разработанный и созданный совместно ИПМ им. М.В.Келдыша РАН и ФГУП НИИ «Квант»[1].
Конфигурация и параметры.
В состав суперкомпьютера входят 64 вычислительных узла, объединённых одновременно четырьмя вычислительными сетями — двумя сервисными, построенными на технологии Gigabit Ethernet и двумя вычислительными — Infiniband на платах компании QLogic и МВС-Экспресс, разработанной совместно ИПМ и НИИ «Квант»[2] на базе технологии PCI Express[3]. Последняя оптимизирована для тяжелых нагрузок, связанных с вычислениями в гибридных средах[1].
Каждый из вычислительных узлов первоначально включала в себя 2 шестиядерных процессора Intel Xeon X5670, 96 Gb оперативной памяти DDR3 SDRAM, и 3 графических ускорителя nVidia Fermi C2050, некоторые из которых во время эксплуатации были заменены на С2075/М2075[4], по состоянию на 2025 год на 4 узлах графические ускорители выведены из эксплуатации[5].
В состав комплекса также входят управляющая машина, и два внешних дисковых хранилища — 22Tb для обычных счетных задач и 128Tb для задач с большими объёмами[4].
Суммарное энергопотребление К-100 — около 80 кВт, пиковая производительность — 107 TFLOPS. Стоимость установки составила около 65 млн рублей[1].
Сервер работает под управлением операционной системы Linux (SLES 11 SP1 / CentOS 5.5), для загрузки задач используется разработанная в ИПМ Система Управления Прохождением Пользовательских Задач (СУППЗ)[1][4].
Пользователям предоставляется удалённый доступ по SSH/SCP. Для компиляции ПО могут быть использованы С/C++, Fortran с библиотеками распараллеливания вычислений MPI, OpenMP, SHMEM, DVM, CUDA[1][4].
Суперкомпьютер имеет сетевые подключения для доступа из Интернет и сети ИПМ.
К-100 — не единственный суперкомпьютер, находящийся в распоряжении ИПМ, наряду с ним работают вычислительные комплексы МВС-Экспресс, К-10, К-60 и К-120[5].
Научное значение системы
Среди вычислительных задач, решавшихся на суперкомпьютере, можно перечислить следующие:
- Вычислительные эксперименты по резонаторам и звукопоглощающим конструкциям, по моделированию лопастей несущего и рулевого винта вертолета[6];
- Моделирование аэродинамического шума для европейского проекта VALIANT, моделирование турбулентных течений в различных конфигурациях[7];
- Разработка способов моделирования задач механики сплошной среды в виде переносимых OpenCL-реализаций для расчетов сжимаемых течений на гибридных неструктурированных сетках[8] и несжимаемых течений на структурированных разнесенных сетках.
- Произведена разработка специализированного планировщика OpenCL-заданий[9].
- Разработка программного комплекса NOISETTE, предназначенного для решения задач аэродинамики и аэроакустики[10];
- Ряд других научных задач[11][12].
Примечания
- ↑ 1,0 1,1 1,2 1,3 1,4 ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ И ВЫЧИСЛИТЕЛЬНЫЕ СИСТЕМЫ 2/2016 Опыт эксплуатации суперкомпъютера К-100 в Институте прикладной математики им. М. В. Келдыша РАН. Л. П. Басс, С. А. Дбар, А. О. Лацис, М. Б. Марков, Г. П. Савельев, Ю. П. Смольянов, М. Ю. Храмцов.
- ↑ Г. С. Елизаров, В. С. Горбунов, В. К. Левин, В. В. Корнеев, А. О. Лацис, А. А. Соколов, Д. В. Андрюшин, Ю. А. Климов. Коммуникационная сеть МВС-Экспресс. «Вычислительные методы и программирование» т. 13 (2012г) ISSN 1726-3522 Раздел 2, С. 103—109
- ↑ Вычислительная система МВС–Экспресс. Сайт ИПМ им. М.В.Келдыша РАН..
- ↑ 4,0 4,1 4,2 4,3 Гибридный вычислительный кластер K-100. Сайт ИПМ им. М.В.Келдыша РАН.
- ↑ 5,0 5,1 Вычислительные ресурсы. Сайт ИПМ им. М.В.Келдыша РАН..
- ↑ Абалакин И. В., Бахвалов П. А., Бобков В. Г., Козубская Т. К., Аникин В. А., Численное моделирование аэродинамических и акустических характеристик винта в кольце // Математическое моделирование. 2015. том 27. No 10. С. 125—144.
- ↑ Дубень А. П. Вычислительные технологии для моделирования сложных пристеночных турбулентных течений на неструктурированных сетках // Математическое моделирование. 2013. том 25. No 9. С. 4-16.
- ↑ Суков С. А., Горобец А. В., Богданов П. Б. Адаптация и оптимизация базовых операций газодинамического алгоритма на неструктурированных сетках для расчетов на массивно-параллельных ускорителях // Журнал вычислительной математики и математической физики. 2013. том 53. No 8. С. 1360—1373.
- ↑ Богданов П. Б., Ефремов А. А., Горобец А. В., Суков С. А. Применение планировщика для эффективного обмена данным и насуперкомпьютерах гибридной архитектуры с массивно-параллельными ускорителями // Вычислительные методы и программирование. 2013. т.14. С. 122—134
- ↑ Вычислительные методы и программирование. 2012. Т. 13 ПАРАЛЛЕЛЬНЫЙ ПРОГРАММНЫЙ КОМПЛЕКС NOISETTEДЛЯ КРУПНОМАСШТАБНЫХ РАСЧЕТОВ ЗАДАЧА ЭРОДИНАМИКИ И АЭРОАКУСТИКИ И. В. Абалакин, П. А. Бахвалов, А. В. Горобец, А. П. Дубень, Т. К. Козубская
- ↑ А. В. Березин, А. С. Воронцов, М. Е. Жуковский, М. Б. Марков, С. В. Паротькин. Метод частиц для электронов в рассеивающей среде. ЖВМИМФ, 2015, том 55, No 9, С. 1566—1578.
- ↑ Л. П. Басс, Н. И. Коконков, О. В. Николаева, В. С. Кузнецов. Решение задач радиационной защиты на неструктурированных тетраэдрических сетках. Сборник докладов 10-й Юбилейной Российской научной конференции «Радиационная защита и радиационная безопасность в ядерных технологиях», 22-25 сентября 2015 г. Москва, Обнинск.