Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах
Рассмотрены вопросы повышения производительности расчета синтетических сейсмограмм методом конечно-разностного моделирования распространения упругих волн в неоднородной среде с использованием компьютерных кластеров и GPU....
Gespeichert in:
| Datum: | 2017 |
|---|---|
| Hauptverfasser: | , |
| Sprache: | Russian |
| Veröffentlicht: |
Інститут кібернетики ім. В.М. Глушкова НАН України
2017
|
| Schriftenreihe: | Компьютерная математика |
| Schlagworte: | |
| Online Zugang: | https://nasplib.isofts.kiev.ua/handle/123456789/168450 |
| Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
| Назва журналу: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Zitieren: | Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах / В.Г. Тульчинский, Р.А. Ющенко // Компьютерная математика. — 2017. — № 2. — С. 10-20. — Бібліогр.: 13 назв. — рос. |
Institution
Digital Library of Periodicals of National Academy of Sciences of Ukraine| id |
nasplib_isofts_kiev_ua-123456789-168450 |
|---|---|
| record_format |
dspace |
| spelling |
nasplib_isofts_kiev_ua-123456789-1684502025-02-09T17:17:20Z Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах Прискорення кінцево-різницевого моделювания розповсюдження пружних хвиль на паралельних комп’ютерах Acceleration of finite-difference simulation of elastic wave propagation on parallel computers Тульчинский, В.Г. Ющенко, Р.А. Математическое моделирование Рассмотрены вопросы повышения производительности расчета синтетических сейсмограмм методом конечно-разностного моделирования распространения упругих волн в неоднородной среде с использованием компьютерных кластеров и GPU. Розглянуто питання підвищення продуктивності розрахунку синтетичних сейсмограм методом кінцево-різницевого моделювання розповсюдження пружних хвиль у неоднорідному середовищі з використанням комп’ютерних кластерів і GPU. The problem of seismic data synthesis performance increasing for the finite-difference simulation of elastic wave propagation in inhomogeneous media on parallel computers and GPU is studied 2017 Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах / В.Г. Тульчинский, Р.А. Ющенко // Компьютерная математика. — 2017. — № 2. — С. 10-20. — Бібліогр.: 13 назв. — рос. 2616-938Х https://nasplib.isofts.kiev.ua/handle/123456789/168450 004.4, 004.9, 004.42, 004.67, 004.915, 004.427 ru Компьютерная математика application/pdf Інститут кібернетики ім. В.М. Глушкова НАН України |
| institution |
Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| collection |
DSpace DC |
| language |
Russian |
| topic |
Математическое моделирование Математическое моделирование |
| spellingShingle |
Математическое моделирование Математическое моделирование Тульчинский, В.Г. Ющенко, Р.А. Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах Компьютерная математика |
| description |
Рассмотрены вопросы повышения производительности расчета синтетических сейсмограмм методом конечно-разностного моделирования распространения упругих волн в неоднородной среде с использованием компьютерных кластеров и GPU. |
| author |
Тульчинский, В.Г. Ющенко, Р.А. |
| author_facet |
Тульчинский, В.Г. Ющенко, Р.А. |
| author_sort |
Тульчинский, В.Г. |
| title |
Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах |
| title_short |
Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах |
| title_full |
Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах |
| title_fullStr |
Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах |
| title_full_unstemmed |
Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах |
| title_sort |
ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах |
| publisher |
Інститут кібернетики ім. В.М. Глушкова НАН України |
| publishDate |
2017 |
| topic_facet |
Математическое моделирование |
| url |
https://nasplib.isofts.kiev.ua/handle/123456789/168450 |
| citation_txt |
Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах / В.Г. Тульчинский, Р.А. Ющенко // Компьютерная математика. — 2017. — № 2. — С. 10-20. — Бібліогр.: 13 назв. — рос. |
| series |
Компьютерная математика |
| work_keys_str_mv |
AT tulʹčinskijvg uskoreniekonečnoraznostnogomodelirovaniârasprostraneniâuprugihvolnnaparallelʹnyhkompʹûterah AT ûŝenkora uskoreniekonečnoraznostnogomodelirovaniârasprostraneniâuprugihvolnnaparallelʹnyhkompʹûterah AT tulʹčinskijvg priskorennâkíncevoríznicevogomodelûvaniârozpovsûdžennâpružnihhvilʹnaparalelʹnihkompûterah AT ûŝenkora priskorennâkíncevoríznicevogomodelûvaniârozpovsûdžennâpružnihhvilʹnaparalelʹnihkompûterah AT tulʹčinskijvg accelerationoffinitedifferencesimulationofelasticwavepropagationonparallelcomputers AT ûŝenkora accelerationoffinitedifferencesimulationofelasticwavepropagationonparallelcomputers |
| first_indexed |
2025-11-28T12:21:23Z |
| last_indexed |
2025-11-28T12:21:23Z |
| _version_ |
1850036708789190656 |
| fulltext |
10 Компьютерная математика. 2017, № 2
Рассмотрены вопросы повышения
производительности расчета син-
тетических сейсмограмм мето-
дом конечно-разностного модели-
рования распространения упругих
волн в неоднородной среде с ис-
пользованием компьютерных кла-
стеров и GPU.
© В.Г. Тульчинский,
Р.А. Ющенко, 2017
УДК 004.4, 004.9, 004.42, 004.67, 004.915, 004.427
В.Г. ТУЛЬЧИНСКИЙ, Р.А. ЮЩЕНКО
УСКОРЕНИЕ КОНЕЧНО-РАЗНОСТНОГО
МОДЕЛИРОВАНИЯ
РАСПРОСТРАНЕНИЯ УПРУГИХ ВОЛН
НА ПАРАЛЛЕЛЬНЫХ КОМПЬЮТЕРАХ
Введение. Запасы нефти и газа сосре-
доточены в пористых пластах-коллекторах,
изолированных плотными покрышками. По-
этому граница нефтегазового пласта обычно
хорошо отражает упругую (акустическую)
волну. Основанные на анализе отраженных и
проходящих упругих волн геофизические
методы сейсморазведки являются самым
распространенным способом построения и
уточнения геологической модели нефтегазо-
вых месторождений. Они также используют-
ся при поиске и оценке подземных водных
ресурсов, исследовании соляных и угольных
отложений. Акустические волны также ис-
пользуются в промысловой геофизике как
один из методов изучения качества цементи-
рования колонны, структуры прискважинно-
го пространства, трещиноватости горных по-
род, в инженерной геофизике – для разведки
геологических условий перед проектирова-
нием построек, для поиска коммуникацион-
ных и коммунальных сетей в густонаселен-
ных районах. Благодаря большой глубине
зондирования и возможности использовать
естественные сейсмические сигналы в каче-
стве источника информации, сейсморазведка
является одним из главных инструментов
изучения глубинного строения земной коры.
Численное моделирование результатов
сейсмо-акустических исследований для за-
данной геологической модели и расстановки
источников/приемников служит надежным
инструментом планирования измерений.
Численный эксперимент дает априорную
оценку разрешающей способности и глубины
УСКОРЕНИЕ КОНЕЧНО-РАЗНОСТНОГО МОДЕЛИРОВАНИЯ РАСПРОСТРАНЕНИЯ ...
Компьютерная математика. 2017, № 2 11
зондирования, способствует повышению информативности измерений, оптими-
зации процедур обработки. В случае синтетических сейсмограмм альтернативы
численному моделированию нет из-за масштабов исследуемых объектов
и отсутствия точных сведений об их строении.
Актуальность моделирования упругих волн связана с исчерпанием традици-
онных месторождений углеводородов. В частности, исследования перспектив-
ных украинских месторождений газа затруднены очень большой глубиной зале-
гания. Для их сейсморазведки необходимы специальные технологии глубинного
зондирования, эффективность которых еще предстоит оценить. Аналогично эф-
фективность добычи сланцевого газа, запасы которого в Украине значительны,
зависти от точности контроля за процессом разработки, которую также необхо-
димо оценивать на основе численного моделирования измерений.
Трудность практического применения такого моделирования связана
с огромной вычислительной сложностью и размером задачи. Например, в ти-
пичной трехмерной сейсморазведке речь идет о тысячах и десятках тысяч
источников и многокилометровых расстановках, но цель – это объекты
толщиной в несколько десятков метров, а то и метры. Поэтому прогресс в этой
области напрямую связан с прогрессом высокопроизводительных вычислений.
1. Методы моделирования распространения упругих волн
Для синтеза сейсмограмм по заданной модели геологической среды и рас-
становке применяют методы, основанные на упрощенных физических моделях.
Для планирования трехмерных наблюдений широко внедрено лучевое трассиро-
вание. Этот метод основан на высокочастотном приближении и использует из-
вестные из оптики законы преломления и отражения продольных и поперечных
волн на скоростной границе [1]. Метод лучевого трассирования достаточно эф-
фективен для оценки освещенности целевой поверхности в зависимости от ее
геометрии, скоростей над ней и расстановки [2]. Его преимуществом является
возможность идентификации типа каждой волны, в частности, построения сейс-
мограмм без кратных и преобразованных волн, или с ограниченной кратностью.
Однако синтезированные сейсмограммы достаточно далеки от реальных, так как
не учитывают изменение формы и расщепление сигнала на неоднородностях,
размер которых сопоставим с длиной волны. Помимо этого лучевое трассирова-
ние непригодно для моделирования отражений, возникающих в градиентных
средах, и плохо приспособлено к условиям резких границ и точек дифракции,
так как использует интерполяцию лучей и амплитуд. C развитием высокоточной
широкополосной сейсмологической аппаратуры появились факты регистрации
«нелучевых» сейсмических волн, которые не описываются нулевым членом луче-
вого ряда, и для их вычисления необходимо учесть последующие члены ряда [3].
Альтернативой лучевому трассированию является моделирование процесса
изменения волнового поля во времени. Его основу составляет система гипербо-
лических дифференциальных уравнений в частных производных, полученная
подстановкой закона упругости Гука, в формулу второго закона Ньютона:
, , , ,t t t x s x Σ x f x (1)
В.Г. ТУЛЬЧИНСКИЙ, Р.А. ЮЩЕНКО
12 Компьютерная математика. 2017, № 2
где , tx – точка в пространстве-времени, – плотность породы, s – вектор
смещений, Σ – тензор напряжений, f – внешняя сила (сигнал). Оператор « »
обозначает дивергенцию в пространстве, а штрих – производную по времени.
Тензор напряжений Σ – это квадратная симметричная матрица km mk ,
причем kk – напряжение сжатия/растяжения вдоль оси ,k а если ,k m
то km – это напряжение сдвига в плоскости .km Внешняя сила f в задачах
моделирования сейсморазведки прилагается в точку источника, ее можно выра-
зить через δ-функцию Кронекера: 0, F .t t f x x x
Конкретизация системы (1) зависит от характера физической модели. В эла-
стическом изотропном приближении [4]:
T
, , , , ,t t t t Σ x x s x I x s x s x (2)
где I – это единичная матрица: ;kmI k m модель среды представляют
коэффициенты Ламе 2
SV x x x и 2 2 ;PV x x x x опера-
тор обозначает градиент в пространстве, а TM – транспонированную матри-
цу M : mk
T
km MM . Таким образом, в трехмерном изотропном эластическом
случае состояние поля описывается девятью массивами параметров: 3 компо-
нента s и 6 разных компонент .Σ Модель задается тремя массивами параметров
(коэффициенты Ламе и ), что в сумме дает 12 массивов.
Для самого простого акустического приближения (идеальной жидкости)
0, x и тензор напряжений Σ можно сократить до единственной скалярной
компоненты . В этом случае состояние поля описывается четырьмя массивами
параметров: 3 компонента s и , а для модели достаточно двух параметров
(всего – 6 массивов). Акустическое приближение используется для ускорения
вычислений. Однако в силу отсутствия поперечных, преобразованных волн,
поверхностных волн Релея и т. п., полученные синтетические сейсмограммы
имеют ограниченную сферу применения.
В более полном эластическом анизотропном приближении [5] тензор на-
пряжений выражается через тензор жесткости Λ и может включать компоненты
пары сил (диполей) :M
, , , .k
mn mnkq mn
k q q
st t M t
x
x x x x (3)
Состояние поля описывается девятью массивами параметров: 3 компонента
s и 6 компонент .Σ В общем анизотропном случае модель включает до 22 ко-
эффициентов ( Λ и ) в каждой точке, что в сумме дает 31 массив. Анизотро-
пия возникает в реальных данных в местах переслаивания тонких пластов,
в зонах трещиноватости, аномально высокого порового давления и т. п. Эти
явления характерны для большинства месторождений нефти и газа.
УСКОРЕНИЕ КОНЕЧНО-РАЗНОСТНОГО МОДЕЛИРОВАНИЯ РАСПРОСТРАНЕНИЯ ...
Компьютерная математика. 2017, № 2 13
Еще более точным является вязкоупругое приближение, поскольку для
высоких частот и слабых сигналов, характерных, например, для сейсмологии,
линейный закон Гука перестает выполняться [6]. Но для моделирования поле-
вых сейсмических наблюдений упругое приближение можно считать достаточно
точным.
Исторически первый и самый распространенный метод численного решения
системы (3) – явная схема метода конечных разностей [5, 7, 8]. Поскольку сейс-
мические наблюдения проводятся с большими удалениями источник-приемник
и на большую глубину зондирования, размеры сетки измеряются в сотнях длин
волн. Для сохранения формы сигнала необходимо иметь примерно 10 точек на
длину волны. Поэтому сетка конечных разностей при моделировании сейсмиче-
ских наблюдений в 3D состоит из миллиардов узлов. Учитывая, что в эластиче-
ском анизотропном случае необходимо хранить 31 такой массив, и что число
с одинарной точностью занимает 4 байта, получаем, что на каждой итерации
нужно обрабатывать сотни гигабайт. Это больше, чем объем оперативной памя-
ти большинства современных кластерных узлов и многопроцессорных серверов.
Для сокращения необходимого объема памяти и ускорения вычислений
применяется широкий спектр методов: конечно-разностные с аппроксимацией
производных схемами высокого порядка, неравномерные сетки, метод конечных
элементов, спектральные и псевдо-спектральные подходы [3]. Но поскольку
размер неоднородностей среды обычно гораздо меньше длины волны, а времен-
ной шаг решения практически ограничен шагом дискретизации выходных сейс-
мограмм (обычно 2 мс), эффект от применения сложных методов к детальным
моделям редко перекрывает дополнительные вычислительные затраты.
Трехмерное моделирование может быть упрощено, если зафиксировать
свойства среды вдоль одного направления ( 2x ). Модели такого типа (рис. 1)
называются «двух с половиной мерными» (2.5D). Ограничение 2.5D не дает
возможность синтезировать сейсмограммы, соответствующие реальным объек-
там. Следовательно, 2.5D не позволяет оптимизировать расстановку с точки зре-
ния освещенности целевых горизонтов (для чего используется лучевое трасси-
рование). Однако 2.5D позволяет исследовать влияние многокомпонентных на-
блюдений и плотности расстановки на интерпретацию результатов сейсмораз-
ведки сложных сред с учетом тонкослоистости, трещиноватости, и анизотропии,
что недоступно лучевому трассированию. Поскольку в 2.5D-среде сейсмограмма
не меняется, если источники и приемники одинаковым образом переместить
вдоль оси 2Y ,x в такой модели достаточно моделировать только одну линию
источников, а остальные получать копированием данных с заменой координат
трасс. Благодаря этому в случае 2.5D общий объем вычислений можно снизить
в десятки, иногда – в сотни раз.
Для решения задачи полноволнового сейсмического моделирования
в 2.5D-постановке целесообразно выполнить ее Фурье-преобразование вдоль
пространственной оси 2.x Для линеаризации систему (1) – (3) переписывают
через скорости смещения .u s Ее скалярное представление имеет следующий
вид (по повторяющимся индексам выполняется суммирование):
В.Г. ТУЛЬЧИНСКИЙ, Р.А. ЮЩЕНКО
14 Компьютерная математика. 2017, № 2
РИС. 1. Пример скоростной модели 2.5D: скорость вдоль оси Y постоянна
1 2 3 1 2 3
1 2 3 1 2 3
1 2 3 1 2 3 1 2 3
1 2 3
, , , , , ,
, , , , ,
.
, , , , , , , , ,
, ,
n nk
n
k
mn k mn
mnkq
q
u x x x t x x x t
x x x f x x x t
t x
x x x t u x x x t M x x x t
x x x
t x t
(4)
В 2.5D-среде 31321 ,0,,, xxxxx mnkqmnkq и 1 2 3 1 3, , ,0, ,x x x x x
поэтому Фурье-преобразование (4) вдоль оси 2x дает [9]:
1 31 3
1 3
2 1 3 1 3
1 3 1 3
1 3
1 3
2 1 3 2 1 3
, , ,, , ,
,0,
, , , , , , ;
, , , , , ,
,0,
, , ,
,0, , , , ,
nqn
q
n n
mn k
mnkq
q
mn
mnk
x x tu x x t
x x
t x
j x x t f x x t
x x t u x x t
x x
t x
M x x t
x x j u x x t
t
(5)
где 1,j ,m n и k принимают значения {1, 2, 3}, a q – значения {1, 3},
1 2 3 1 3, , , , , , ,j y
n nu x x x t u x x t e dy
1 2 3 1 3, , , , , , .j y
mn mnx x x t x x t e dy
УСКОРЕНИЕ КОНЕЧНО-РАЗНОСТНОГО МОДЕЛИРОВАНИЯ РАСПРОСТРАНЕНИЯ ...
Компьютерная математика. 2017, № 2 15
Сравнительная оценка сложности конечно-разностных вычислительных
схем 2.5D и 3D в 2.5D-среде дана в [10]. Основной вывод состоит в том, что при
равной области моделирования квадратичная вычислительная сложность
2.5D-моделирования возрастает быстрее 3D-моделирования:
Ускорение 2.5D относительно max max
max
3 2 1 ,V tD W
y
(6)
где 15..5W – минимальное число точек сетки на длину волны, maxy – мак-
симальное удаление приемников в направлении 2 ,x maxV – максимальная ско-
рость в среде, maxt – время записи (модельное время).
Поэтому при достижении некоторого модельного времени для расчета
2.5D-сейсмограммы требуется больше вычислений, чем для полного 3D модели-
рования, что подтверждается экспериментально (рис. 2).
0
500
1000
1500
2000
2500
3000
3500
4000
0 0,5 1 1,5 2 2,5 3 3,5 4 4,5 5
Модельное время, с
В
ре
м
я
ра
сч
ет
а,
с
2.5D-моделирование
3D-моделирование
РИС. 2. Пример результатов экспериментов для модели 2x2x2 км
Эксперименты также показали, что точка, в которой время 2.5D моделиро-
вания и 3D моделирования совпадают (на рис. 2 это 3 с) смещается при увеличе-
нии области в сторону больших времен (рис. 3).
С другой стороны, декомпозиция на независимые пространственные часто-
ты полностью решает проблему объемов памяти. 2.5D-схема использует
160 байт на ячейку двумерной сетки для хранения как модели, так и состояния
волнового поля. Процесс моделирования для отдельных пространственных час-
тот выполняется полностью независимо, без обменов данными. Это позволяет
В.Г. ТУЛЬЧИНСКИЙ, Р.А. ЮЩЕНКО
16 Компьютерная математика. 2017, № 2
0
0,5
1
1,5
2
2,5
3
3,5
0 500 1000 1500 2000 2500
Длина грани модельного куба, м
М
од
ел
ьн
ое
в
ре
м
я,
с
Равное время вычислений
для 2.5D и 3D
РИС. 3. Модельное время, на котором совпадает время вычислений для 2.5D и 3D
разделить 3D-моделирование на сотни или тысячи независимых 2D-подзадач,
которые можно выполнять в распределенной вычислительной среде, в частно-
сти, в гриде. Полученные в результате моделирования 2D-файлы объединяются
в синтетические 3D-сейсмограммы с помощью обратного преобразования
Фурье. Особенно эффективным метод 2.5D оказался для графических ускорителей,
так как позволил отказаться от обменов в процессе решения 2D-подзадачи (рис. 4).
Тем не менее, для задач с большим временем записи, и для случаев, когда
упрощение геометрии неприемлемо с практической точки зрения, проблема
ускорения решения задачи сейсмического моделирования в 3D-постановке
по прежнему актуальна.
3-walls
0
20
40
60
80
100
120
G
eF
or
ce
G
TX
8
80
0
G
eF
or
ce
G
TX
2
60
G
eF
or
ce
G
TX
4
80
Te
sl
a
M
20
50
Time (min)
Speedup
Marmousi
0
20
40
60
80
100
120
G
eF
or
ce
G
TX
8
80
0
G
eF
or
ce
G
TX
2
60
G
eF
or
ce
G
TX
4
80
Te
sl
a
M
20
50
Time (min)
Speedup
Fracture
0
20
40
60
80
100
120
G
eF
or
ce
G
TX
8
80
0
G
eF
or
ce
G
TX
2
60
G
eF
or
ce
G
TX
4
80
Te
sl
a
M
20
50
Time (hrs)
Speedup
CPU time:
20 hrs
CPU time: 25 hrs CPU time:
14 days
РИС. 4. Примеры ускорение 2.5D моделирования на NVIDIA CUDA
УСКОРЕНИЕ КОНЕЧНО-РАЗНОСТНОГО МОДЕЛИРОВАНИЯ РАСПРОСТРАНЕНИЯ ...
Компьютерная математика. 2017, № 2 17
2. Особенности программной реализации 3D-моделирования
Как известно, производительность программы на центральном процессоре
обуславливается прежде всего правильным использованием кэш-памяти разных
уровней [11], а также использованием векторных операций (например, SSE3).
Подходы к ускорению программы на GPU совсем другие [12].
В отличие от многоядерных процессоров, в которых потоки выполняются
асинхронно (MIMD), графические ускорители (SIMD) рамках одного ядра вы-
полняют потоки синхронно. В результате наличие любых условных операторов
и циклов в вычислительном ядре значительно замедляют расчет. В частности,
проверку на выход за границы вычислительной решетки заменяет расширение
решетки (рис. 5).
2.1. Расширение решетки вместо условных операторов
(0,0)
Блоки
(0,0)
Блоки
Расширение решетки для кратности размера блока
Расширение решетки для допустимости вычислений на границе
РИС. 5. Исходная решетка расширена для устранения проверок выхода за границы
2.2. Расчет по блокам
Тривиальный подход к распараллеливанию – это создание максимально
возможного блока таким образом, что каждая нить считает свой участок (рис. 6,
а). Другой подход – создание сетки блоков таким образом, что каждая нить бу-
дет рассчитывать только один элемент (рис. 6, б). В результате внутренний цикл
в ядре исчезает.
2.3. Выравнивание памяти
Выравнивание памяти ускоряет векторные операции. В частности, архитек-
тура x86 требует выравнивания памяти для выполнения операций SSE [13].
В CUDA для выравнивания памяти с учетом размерности решетки используется
функция cuMallocPitch.
В.Г. ТУЛЬЧИНСКИЙ, Р.А. ЮЩЕНКО
18 Компьютерная математика. 2017, № 2
а – разбиение по нитям
Область вычисления одной нити
б – разбиение по блокам
РИС. 6. Сравнение способов разбиения решетки
2.4. Использование раздельных буферов для компонентов
Для ускорения программы на процессорах, как правило, требуется, чтобы
связанные данные были расположены по возможности рядом. Отличие графиче-
ских ускорителей состоит в том, что обращение разных ядер к близким адресам
может создать конфликт и замедлить вычисление. С другой стороны, практиче-
ски все операции в графических ускорителях – векторные и позволяют работать
с ячейками, расположенными «далеко» друг от друга, лишь бы на одном и том
же расстоянии между собой.
2.5. Использование отдельных ядер для разных вариантов оператора
Расчет анизотропного эластического моделирования можно существенно
упростить в изотропных и орторомбически-анизотропных зонах модели. По-
скольку в SIMD (GPU) условия не эффективны, вместо проверки внутри ядра
CUDA целесообразно использовать отдельные ядра для каждого варианта расче-
та. То же самое касается реализации поглощения на краях модели.
2.6. Копирование данных в локальные переменные
Поскольку при расчете одной выходной ячейки некоторые входные ячейки
используются многократно, можно предварительно записывать значения этих
входных ячеек в локальной памяти ядра.
2.7. Отсечение лишней области расчета
Поскольку волны распространяются от источника с ограниченной скоро-
стью среды, в начале расчета можно ограничивать зону вычислений, а не обсчи-
тывать всю решетку сразу (рис. 7, а). Аналогично в конце, нет смысла рассчиты-
вать в тех местах, откуда волны не успеют дойти до приемников (рис. 7, б).
УСКОРЕНИЕ КОНЕЧНО-РАЗНОСТНОГО МОДЕЛИРОВАНИЯ РАСПРОСТРАНЕНИЯ ...
Компьютерная математика. 2017, № 2 19
а – расширение расчетной области б – сужение расчетной области
РИС. 7. Участки решетки, где необходим расчет
2.8. Сравнение подходов к ускорению на GPU и на CPU
ТАБЛИЦА. Индексы ускорения для разных преобразований программы
Устройство NVIDIA
GTX 680 NVIDIA M2090 Intel Core I7 3770K
Набор данных Средний Средний Большой Средний Большой
2.2. По блокам + 1500 % + 1850 % + 1710 % – –
2.1. Расширение + 4 % + 8 % + 5 % < 1 % < 1 %
2.3. Выравнивание + 5 % + 3 % < 1 % – –
2.4. Раздел решетки + 130 % + 180 % + 202 % – 10 % – 10 %
2.5. По операциям + 9 % + 12 % + 29 % < 1 % < 1 %
2.6. Копирование + 18 % + 21% + 25 % < 1 % < 1 %
2.7. Отсечение + 10 % + 23 % + 10 % + 25 % + 10 %
Выводы. Рассмотрены алгоритмические и программные подходы, позво-
ляющие существенно ускорить расчет трехмерных синтетических сейсмограмм
методом конечно-разностного моделирования упругого волнового поля.
В.Г. Тульчинський, Р.А. Ющенко
ПРИСКОРЕННЯ КІНЦЕВО-РІЗНИЦЕВОГО МОДЕЛЮВАНИЯ РОЗПОВСЮДЖЕННЯ
ПРУЖНИХ ХВИЛЬ НА ПАРАЛЕЛЬНИХ КОМП’ЮТЕРАХ
Розглянуто питання підвищення продуктивності розрахунку синтетичних сейсмограм мето-
дом кінцево-різницевого моделювання розповсюдження пружних хвиль у неоднорідному
середовищі з використанням комп’ютерних кластерів і GPU.
V. Tulchinsky, R. Iushchenko
ACCELERATION OF FINITE-DIFFERENCE SIMULATION OF ELASTIC WAVE
PROPAGATION ON PARALLEL COMPUTERS
The problem of seismic data synthesis performance increasing for the finite-difference simulation of
elastic wave propagation in inhomogeneous media on parallel computers and GPU is studied.
В.Г. ТУЛЬЧИНСКИЙ, Р.А. ЮЩЕНКО
20 Компьютерная математика. 2017, № 2
1. Červený V. Seismic Ray Theory. London: Cambridge University Press, 2001. 722 p.
2. Gjøystdal H., Iversen E., Laurain L., Lecomte I., Vinje V., Åstebøl, K. Review of ray theory
applications in modelling and imaging of seismic data. Studia geophysica et geodaetica. 2002.
N 46. P. 113 – 164.
3. Активная сейсмология с мощными вибрационными источниками / Отв. ред. Г.М. Ци-
бульчик. Новосибирск: ИВМиМГ СО РАН, Филиал “Гео” Издательства СО РАН, 2004.
387 с.
4. Nilsson S., Petersson N. A., Sjögreen B., Kreiss H.-O. Stable difference approximations
for the elastic wave equation in second order formulation. SIAM J. Numer. Anal. 2007. N 45.
P. 1902 – 1936.
5. Lisitsa V., Vishnevskiy D. Lebedev scheme for the numerical simulation of wave propagation
in 3D anisotropic elasticity. Geophysical Prospecting. 2010. N 58. P. 619 – 635.
6. Carcione J.M., Kosloff D., Kosloff R. Wave propagation simulation in a linear viscoelastic
medium. Geophysical Journal. 1988. N 95. P. 597 – 611.
7. Alterman Z., Karal F.C. Propagation of elastic waves in layered media by finite-difference
methods. Bull. Seism. Soc. Am. 1968. N 58. P. 367 – 398.
8. Komatitsch D., Michéa D., Erlebacher G., Göddeke D. Running 3D Finite-difference or
Spectral-element Wave Propagation Codes 25x to 50x Faster Using a GPU Cluster. Extended
Abstracts of 72th EAGE Conference & Exhibition. 2010.
9. Tulchinsky V., Iushchenko R., Roganov Y. Acceleration of 2.5D Elastic Anisotropic
Modelling. 74th EAGE Conference & Exhibition, Extended Abstracts. Copenhagen: EAGE,
2012. #B005.
10. Tulchinsky V., Iushchenko R. Undersampling to accelerate computations. Proc. Parallel and
Distributed Computing Systems (PDCS 2013), Kharkiv. 2013. P. 326 – 329.
11. LaMarca A. and Ladner R.E. The Influence of Caches on the Performance of Sorting,
Proceedings of the Eighth Annual ACM-SIAM Symposium on Discrete Algorithms. 1997.
P. 370 – 379.
12. Yu W., Mittra R., Su T. et al. Parallel Finite-Difference Time-Domain Method. – Artech
House, 2006. 262 p.
13. Strey A., Bange M. Performance Analysis of Intel’s MMX and SSE: A Case Study.
7th International Euro-Par Conference Manchester, UK, August 28–31, 2001 Proceedings.
Springer Berlin Heidelberg. Р. 142 – 147.
Получено 23.10.2017
Об авторах:
Тульчинский Вадим Григорьевич,
доктор физико-математических наук,
заведующий отделом автоматизации программирования
Института кибернетики имени В.М. Глушкова НАН Украины,
Ющенко Руслан Андреевич,
кандидат физико-математических наук,
старший научный сотрудник отдела автоматизации программирования
Института кибернетики имени В.М. Глушкова НАН Украины.
|