Автоматическое распараллеливание
Автоматическое распараллеливание — оптимизация программы компилятором, состоящая в автоматическом её преобразовании в форму, работающую на параллельном компьютере, например, на SMP или NUMA машине. Целью автоматизации распараллеливания является освобождение программиста от трудоемкого и подверженного ошибкам процесса ручного распараллеливания. Несмотря на то, что качество автоматического распараллеливания улучшалось последние годы, полное распараллеливание последовательных программ остается слишком сложной задачей, требующей сложнейших видов анализа программ.
Автоматический параллелизатор обычно фокусируется на таких управляющих конструкциях, как циклы, обрабатывающие массивы, поскольку, в общем случае, большая часть выполнения программы проходит внутри каких-то циклов. Распараллеливающий компилятор пытается разделить цикл на части так, чтобы его отдельные итерации могли исполняться на разных процессорах одновременно.
Анализ программ
Компиляторы проводят анализ перед проведением распараллеливания, чтобы ответить на следующие вопросы:
- Безопасно ли распараллеливать данный цикл? Требуется аккуратный анализ зависимостей и анализ независимости указателей или алиасов (en:alias analysis). Итерации цикла не должны иметь зависимостей по данным.[1]
- Стоит ли распараллеливать цикл?[1] Ответ на этот вопрос требует надежной оценки (моделирования) работы программы и учёта свойств параллельной системы.
Сложности
Автоматическое распараллеливание сложно для компиляторов по причинам:
- Анализ зависимостей сложен для кода, использующего косвенную адресацию, указатели, рекурсию, вызовы функций[1], особенно вызовы по косвенности (например, виртуальные функции заранее неизвестного класса).
- Циклы могут иметь неизвестное заранее либо сложно варьирующееся количество итераций.[1] Из-за этого усложняется выбор циклов, требующих распараллеливания.
- Доступ к глобальным ресурсам тяжело координировать в терминах выделения памяти, ввода-вывода, разделяемых переменных.
Из-за сложности полного автоматического распараллеливания существует несколько подходов для его упрощения:
- Дать программистам возможность добавлять к программе подсказки компилятору, чтобы влиять на процесс распараллеливания (либо чтобы упростить анализы, пометив указатели как непересекающиеся (restrict[1]), либо указав «горячие» циклы). Среди решений, требующих достаточно подробные инструкции для компилятора, можно указать High Performance Fortran для систем с распределенной памятью и OpenMP для систем с общей памятью.
- Создать интерактивную систему компиляции, в работе которой принимал бы участие человек. Такие системы созданы в рамках подпроекта «SUIF Explorer» (проект SUIF — The Stanford University Intermediate Format compiler, http://suif.stanford.edu/), в компиляторах Polaris и ParaWise (среда CAPTools).
- Добавить в аппаратуру спекулятивную многопоточность (speculative multithreading).
Ранние распараллеливающие компиляторы
Многие ранние распараллеливающие компиляторы работали с программами, написанными на Фортране, из-за его более строгих ограничений на пересечение указателей (aliasing) по сравнению с Си. Кроме того, на Фортране написано большое количество программ вычислительной математики, требующих больших ресурсов для своей работы. Примеры компиляторов:
- Rice Fortran D compiler
- Vienna Fortran compiler
- Paradigm compiler
- Polaris compiler
- SUIF compiler
Современные компиляторы с поддержкой распараллеливания
Примечания
- Patrick Lam. Lecture 12. We'll talk about automatic parallelization today (недоступная ссылка). ECE459: Programming for Performance (10 февраля 2011). Дата обращения: 17 ноября 2013. Архивировано 27 мая 2015 года.
- Robert van Engelen. High-Performance Computing and Scientific Computing . HPC @ Florida State University (3 октября 2012). Дата обращения: 17 ноября 2013.
Ссылки
- Lecture 08 — Automatic Parallelization (недоступная ссылка) // ECE 459: Programming for Performance, Jon Eyolfson, University of Waterloo, January 20, 2012