LINUX.ORG.RU

Выпущен Open MPI 4.1.5

 


1

0

Сообщество Open MPI радо объявить о выпуске версии 4.1.5 библиотеки Open MPI (Message Passing Interface, интерфейс передачи сообщений — API для передачи информации, позволяющий обмениваться сообщениями между процессами, выполняющими одну задачу). Это выпуск исправления ошибок.

Новое в версии 4.1.5:

  • исправление сбоя в односторонних приложениях для определенных компоновок процессов;
  • обновление встроенного OpenPMIx до версии 3.2.4;
  • исправление проблемы сборки с ifort на MacOS;
  • экспорт исправлений в Libevent для CVE-2016-10195, CVE-2016-10196 и CVE-2016-10197. (обратите внимание, что внутренний libevent Open MPI не использует затронутые части кодовой базы Libevent);
  • усовершенствования SHMEM:
    • исправление ошибок инициализатора в интерфейсе SHMEM;
    • исправление сравнения беззнаковых типов, генерирующие предупреждения;
    • исправление проблемы использования после очистки в shmem_ds_reset;
  • улучшения UCX:
    • исправлена ошибка регистрации памяти, которая могла возникнуть, когда UCX был создан, но не выбран;
    • уменьшены накладные расходы на add_procs с интеркоммуникаторами;
    • включен multi_send_nb по умолчанию;
    • вызов opal_progress в ожидании завершения забора UCX;
  • исправлена ошибка повреждения данных в компоненте osc/rdma;
  • исправлена ошибка переполнения во всех группах;
  • исправлен сбой при отображении топологии;
  • добавлены некоторые константы MPI_F_XXX, которые отсутствовали в mpi.h;
  • исправлены ошибки coll/ucc.

Open MPI v4.1.5 можно загрузить с веб-сайта Open MPI.

>>> Подробности

★★★★★

Проверено: hobbit ()
Последнее исправление: maxcom (всего исправлений: 2)

Ответ на: комментарий от thunar

Да, я как то параллелил разложение в многокомпонентный ряд Тейлор до высокого порядка Но обошёлся опенМП:-)

AntonI ★★★★
()
Ответ на: комментарий от gns

Символьные вычисления очень разные бывают.

У нас был расчет на часа полтора, помнится, ну так даже параллельных возможностей интелловского фортрана хватило что бы снизить время расчета до минут сорока.

Всего вдвое, как то хило. При прямых руках достигается ускорение по числу ядер:-)

AntonI ★★★★
()
Ответ на: комментарий от AntonI

А их немного было, тех ядер. Там нейронная сетка была с миллионами итераций. Ну вот на 4 ядра чуть больше, чем вдвое. Давно дело было, лет 15 назад. Еще потом чуть улучшили с помощью MKL. Чайники мы были во всяких параллельных технологиях, что смогли, то сделали.

gns ★★★★★
()
Последнее исправление: gns (всего исправлений: 1)
Ответ на: комментарий от gns

Спасибо, не знал про это, гляну. На самом деле вы правы, в распараллеливании символьных вычислений нет большой нужды. Максимум сколько у меня занимало времени упрощение выражений - минут 5. Если больше, то останавливаю, смысла нет, результат не стоит таких затрат. Надо разбивать на подзадачи. Вот численные вычисления бывали порой до пары суток для одной точки. В этих делах mathematica хорошо параллелит. Сейчас у меня новый комп с 16 физ ядрями. Параллелит на все 32, скорость возрастает существенно.

rustamych ★★★
()
Ответ на: комментарий от Gonzo

Как правило, только на ЛОРе.

Ну да. грамматически-то все правильно, а по сути — издевательство, так как сообщество, все-таки, ИМХО «с радостью сообщает».

Gukl ★★★
()
Ответ на: комментарий от Pinux001

Причём тут неосиляторы? С чего ты взял, что возмущённые не осилили загуглить? Они возмущены тем, что вынуждены тратить на это время, при том, что можно было один раз указать кратко в самом тексте.

CrX ★★★
()

Интересно, насколько сейчас актуален MPI. Насколько я понял из давних университетских лаб, там в модель вычислений заложена структура решетки нод кластера, в которых обмен происходит быстрее с соседними узлами. В реальности же сейчас кластеры соединяют коммутаторами, где такой большой разницы нет, и обмен можно делать с произвольной нодой. Вероятно имеет смысл только на особых конфигурациях железа, заточенных под MPI.

snizovtsev ★★★★★
()
Последнее исправление: snizovtsev (всего исправлений: 2)
Ответ на: комментарий от snizovtsev

MPI прежде всего заточен под обмен данными между узлами с рапределённой памятью. Разумеется, что сейчас многие системы имеет смешанный тип, когда внутри узла память между процессорами и ядрами общая, но выделенная для каждого узла.

Насколько он актуален? Если зайти на любой сайт посвящённый HPC, то там обязательно будет раздел посвящённый MPI. Вот найти информацию об альтернативах, особенно для x86, да ещё и их открытых реализациях, сложнее.

grem ★★★★★
()
Ответ на: комментарий от snizovtsev

Интересно, насколько сейчас актуален MPI.

Де-факто MPI сейчас безальтернативен, если хочется считать на нескольких узлах.

Можно конечно пытаться наколхозить че то свое, но выйдет не лучше. Я встречал сакральные реализации MPI с профитом в 10% что ли от обычного, об этом говорилось с придыханием и гордостью. Предлагали даже купить.

AntonI ★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.