Комментарии 12
немного не понял как стыкуется bare metal проект с тагом "облачные сервисы". без наезда спрашиваю - где не догоняю?
в нашем случае, Bare Metal - сервис, который предоставляет выделенные физические сервера в облаке. То есть, из коробки у вас есть вся сетевая связность с облаком и автоматизация облака: от разливки ОС на физический сервер до управления сетями и коммутатором без участия инженеров. Сами сервера уже находятся в стойках и ждут своих задач.
Очень интересно! А можно с ценами? Сколько стоят сутки работы Флюента на этих... 8х32х2=512 ядрах?
Конкретную калькуляцию, к сожалению, раскрыть не можем для этого кейса. Но, стандартная стоимость тут не такая большая, как может показаться. Для примера, аренда всего 1 сервера с современными GPU H200 или B200 выходит в несколько раз дороже описанного кейса на 512 ядер
Чего???? А смысл тогда во всём этом?
"Если вы планируете подобный проект — добро пожаловать под кат."
Да, планирую, потому и спрашиваю.
Все так) В статье раскрыты технические аспекты, Хабр как раз про это. Если есть запрос на стоимость реализации подобного проекта, предлагаю уйти в ЛС и там все обсудить
Спасибо за статью, тоже CAE занимаюсь, только с излучением работаю, но у нас получилось все расчеты на GPU запихать, аналогичные нашим решения на CPU с использованием MPI считают на порядки медленне, вот интересно, получиться ли механику с термодинамикой на GPU посчитать, вроде формулы позволяют адаптировать алгоритмы для массового параллелизма, есть у кого опыт?
Спасибо за вопрос - а мы даже попробовали текущую задачу на HGX H100 с NVlink. По чистому CFD они сейчас реально летят, но с механикой и термодинамикой все чуть сложнее. В этом кейсе, у нас с GPU не сложилось) Пока карточки ускоряют не все, хорошо идут линейные решатели и часть матричных операций, но контакт, нелинейность, пластика, сложный material model все ранов остаются на CPU
Про формулы, кажется, тут точно основная проблема не в формулах (согласен, что они адаптируемы), а в ветвлениях и плохой локальности данных. Значительные бусты это пока редкость для механики. GPU точно стоит пробовать, но не всегда оправдано.
в ветвлениях
Да, я так и предполагал, ветвления и циклы GPU плохо пережевывает в следствие своей архитектуры.
плохой локальности данных.
Тут, наверно, с самим кластером надо колдовать, я с NVlink не работал, мы локально на клиентской машине считаем. Нам хватает)
GPU точно стоит пробовать, но не всегда оправдано.
Частенько, VRAM портит всю малину.
Информация
- Сайт
- cloud.ru
- Дата регистрации
- Дата основания
- 2019
- Численность
- 1 001–5 000 человек
- Местоположение
- Россия
- Представитель
- Контент-редактор Cloud.ru
Цифровой двойник оборудования в облаке: вычислительный кластер мультфизических эмуляций