Автоматическое распараллеливание (Gfmkbgmncyvtky jgvhgjgllylnfguny)

Перейти к навигации Перейти к поиску

Автоматическое распараллеливание — оптимизация программы компилятором, состоящая в автоматическом её преобразовании в форму, работающую на параллельной вычислительной системе, например, на SMP или NUMA машине. Целью автоматического распараллеливания является освобождение программиста от трудоемкого и подверженного ошибкам процесса ручного распараллеливания. Несмотря на то, что качество автоматического распараллеливания улучшалось последние годы, полное распараллеливание последовательных программ остается слишком сложной задачей, требующей сложнейших видов анализа программ.

Автоматический параллелизатор обычно фокусируется на таких управляющих конструкциях, как циклы, обрабатывающие массивы, поскольку, в общем случае, большая часть выполнения программы проходит внутри каких-то циклов. Распараллеливающий компилятор пытается разделить цикл на части так, чтобы его отдельные итерации могли исполняться на разных вычислительных узлах одновременно.

Анализ программ

[править | править код]

Компиляторы проводят анализ перед проведением распараллеливания, чтобы ответить на следующие вопросы:

  • Безопасно ли распараллеливать данный цикл? Требуется аккуратный анализ зависимостей[англ.] и анализ псевдонимов[англ.]. Итерации цикла не должны иметь зависимостей по данным.[1]
  • Стоит ли распараллеливать цикл?[1] Ответ на этот вопрос требует надежной оценки (моделирования) работы программы и учёта свойств параллельной системы.

Автоматическое распараллеливание сложно для компиляторов по причинам:

  • Анализ зависимостей сложен для кода, использующего косвенную адресацию, указатели, рекурсию, вызовы функций[1], особенно вызовы по косвенности (например, виртуальные функции заранее неизвестного класса).
  • Циклы могут иметь неизвестное заранее либо сложно варьирующееся количество итераций.[1] Из-за этого усложняется выбор циклов, требующих распараллеливания.
  • Доступ к глобальным ресурсам тяжело координировать в терминах выделения памяти, ввода-вывода, разделяемых переменных.

Из-за сложности полного автоматического распараллеливания существует несколько подходов для его упрощения:

  • Дать программистам возможность добавлять к программе подсказки компилятору, чтобы влиять на процесс распараллеливания (либо чтобы упростить анализы, пометив указатели как непересекающиеся (restrict[1]), либо указав «горячие» циклы). Среди решений, требующих достаточно подробные инструкции для компилятора, можно указать High Performance Fortran для систем с распределенной памятью и OpenMP для систем с общей памятью.
  • Создать интерактивную систему компиляции, в работе которой принимал бы участие человек. Такие системы созданы в рамках подпроекта «SUIF Explorer», в компиляторах Polaris и ParaWise (среда CAPTools).
  • Добавить в аппаратуру спекулятивную многопоточность.

Ранние распараллеливающие компиляторы

[править | править код]

Многие ранние распараллеливающие компиляторы работали с программами, написанными на Фортране, из-за его более строгих ограничений на пересечение указателей (aliasing) по сравнению с Си. Кроме того, на Фортране написано большое количество программ вычислительной математики, требующих больших ресурсов для своей работы. Примеры компиляторов:

  • Rice Fortran D compiler
  • Vienna Fortran compiler
  • Paradigm compiler
  • Polaris compiler
  • SUIF compiler

Современные компиляторы с поддержкой распараллеливания

[править | править код]
  • Sun studio[1]
  • Intel C++ Compiler[1][2]
  • gcc[1][2]
  • GHC[источник не указан 4017 дней]

Примечания

[править | править код]
  1. 1 2 3 4 5 6 7 8 Patrick Lam. Lecture 12. We'll talk about automatic parallelization today. ECE459: Programming for Performance (10 февраля 2011). Дата обращения: 17 ноября 2013. Архивировано из оригинала 27 мая 2015 года.
  2. 1 2 Robert van Engelen. High-Performance Computing and Scientific Computing. HPC @ Florida State University (3 октября 2012). Дата обращения: 17 ноября 2013. Архивировано 27 мая 2015 года.