Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах

Рассмотрены вопросы повышения производительности расчета синтетических сейсмограмм методом конечно-разностного моделирования распространения упругих волн в неоднородной среде с использованием компьютерных кластеров и GPU....

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Datum:2017
Hauptverfasser: Тульчинский, В.Г., Ющенко, Р.А.
Sprache:Russian
Veröffentlicht: Інститут кібернетики ім. В.М. Глушкова НАН України 2017
Schriftenreihe:Компьютерная математика
Schlagworte:
Online Zugang:https://nasplib.isofts.kiev.ua/handle/123456789/168450
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Zitieren:Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах / В.Г. Тульчинский, Р.А. Ющенко // Компьютерная математика. — 2017. — № 2. — С. 10-20. — Бібліогр.: 13 назв. — рос.

Institution

Digital Library of Periodicals of National Academy of Sciences of Ukraine
id nasplib_isofts_kiev_ua-123456789-168450
record_format dspace
spelling nasplib_isofts_kiev_ua-123456789-1684502025-02-09T17:17:20Z Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах Прискорення кінцево-різницевого моделювания розповсюдження пружних хвиль на паралельних комп’ютерах Acceleration of finite-difference simulation of elastic wave propagation on parallel computers Тульчинский, В.Г. Ющенко, Р.А. Математическое моделирование Рассмотрены вопросы повышения производительности расчета синтетических сейсмограмм методом конечно-разностного моделирования распространения упругих волн в неоднородной среде с использованием компьютерных кластеров и GPU. Розглянуто питання підвищення продуктивності розрахунку синтетичних сейсмограм методом кінцево-різницевого моделювання розповсюдження пружних хвиль у неоднорідному середовищі з використанням комп’ютерних кластерів і GPU. The problem of seismic data synthesis performance increasing for the finite-difference simulation of elastic wave propagation in inhomogeneous media on parallel computers and GPU is studied 2017 Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах / В.Г. Тульчинский, Р.А. Ющенко // Компьютерная математика. — 2017. — № 2. — С. 10-20. — Бібліогр.: 13 назв. — рос. 2616-938Х https://nasplib.isofts.kiev.ua/handle/123456789/168450 004.4, 004.9, 004.42, 004.67, 004.915, 004.427 ru Компьютерная математика application/pdf Інститут кібернетики ім. В.М. Глушкова НАН України
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
collection DSpace DC
language Russian
topic Математическое моделирование
Математическое моделирование
spellingShingle Математическое моделирование
Математическое моделирование
Тульчинский, В.Г.
Ющенко, Р.А.
Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах
Компьютерная математика
description Рассмотрены вопросы повышения производительности расчета синтетических сейсмограмм методом конечно-разностного моделирования распространения упругих волн в неоднородной среде с использованием компьютерных кластеров и GPU.
author Тульчинский, В.Г.
Ющенко, Р.А.
author_facet Тульчинский, В.Г.
Ющенко, Р.А.
author_sort Тульчинский, В.Г.
title Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах
title_short Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах
title_full Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах
title_fullStr Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах
title_full_unstemmed Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах
title_sort ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах
publisher Інститут кібернетики ім. В.М. Глушкова НАН України
publishDate 2017
topic_facet Математическое моделирование
url https://nasplib.isofts.kiev.ua/handle/123456789/168450
citation_txt Ускорение конечно-разностного моделирования распространения упругих волн на параллельных компьютерах / В.Г. Тульчинский, Р.А. Ющенко // Компьютерная математика. — 2017. — № 2. — С. 10-20. — Бібліогр.: 13 назв. — рос.
series Компьютерная математика
work_keys_str_mv AT tulʹčinskijvg uskoreniekonečnoraznostnogomodelirovaniârasprostraneniâuprugihvolnnaparallelʹnyhkompʹûterah
AT ûŝenkora uskoreniekonečnoraznostnogomodelirovaniârasprostraneniâuprugihvolnnaparallelʹnyhkompʹûterah
AT tulʹčinskijvg priskorennâkíncevoríznicevogomodelûvaniârozpovsûdžennâpružnihhvilʹnaparalelʹnihkompûterah
AT ûŝenkora priskorennâkíncevoríznicevogomodelûvaniârozpovsûdžennâpružnihhvilʹnaparalelʹnihkompûterah
AT tulʹčinskijvg accelerationoffinitedifferencesimulationofelasticwavepropagationonparallelcomputers
AT ûŝenkora accelerationoffinitedifferencesimulationofelasticwavepropagationonparallelcomputers
first_indexed 2025-11-28T12:21:23Z
last_indexed 2025-11-28T12:21:23Z
_version_ 1850036708789190656
fulltext 10 Компьютерная математика. 2017, № 2 Рассмотрены вопросы повышения производительности расчета син- тетических сейсмограмм мето- дом конечно-разностного модели- рования распространения упругих волн в неоднородной среде с ис- пользованием компьютерных кла- стеров и GPU. © В.Г. Тульчинский, Р.А. Ющенко, 2017 УДК 004.4, 004.9, 004.42, 004.67, 004.915, 004.427 В.Г. ТУЛЬЧИНСКИЙ, Р.А. ЮЩЕНКО УСКОРЕНИЕ КОНЕЧНО-РАЗНОСТНОГО МОДЕЛИРОВАНИЯ РАСПРОСТРАНЕНИЯ УПРУГИХ ВОЛН НА ПАРАЛЛЕЛЬНЫХ КОМПЬЮТЕРАХ Введение. Запасы нефти и газа сосре- доточены в пористых пластах-коллекторах, изолированных плотными покрышками. По- этому граница нефтегазового пласта обычно хорошо отражает упругую (акустическую) волну. Основанные на анализе отраженных и проходящих упругих волн геофизические методы сейсморазведки являются самым распространенным способом построения и уточнения геологической модели нефтегазо- вых месторождений. Они также используют- ся при поиске и оценке подземных водных ресурсов, исследовании соляных и угольных отложений. Акустические волны также ис- пользуются в промысловой геофизике как один из методов изучения качества цементи- рования колонны, структуры прискважинно- го пространства, трещиноватости горных по- род, в инженерной геофизике – для разведки геологических условий перед проектирова- нием построек, для поиска коммуникацион- ных и коммунальных сетей в густонаселен- ных районах. Благодаря большой глубине зондирования и возможности использовать естественные сейсмические сигналы в каче- стве источника информации, сейсморазведка является одним из главных инструментов изучения глубинного строения земной коры. Численное моделирование результатов сейсмо-акустических исследований для за- данной геологической модели и расстановки источников/приемников служит надежным инструментом планирования измерений. Численный эксперимент дает априорную оценку разрешающей способности и глубины УСКОРЕНИЕ КОНЕЧНО-РАЗНОСТНОГО МОДЕЛИРОВАНИЯ РАСПРОСТРАНЕНИЯ ... Компьютерная математика. 2017, № 2 11 зондирования, способствует повышению информативности измерений, оптими- зации процедур обработки. В случае синтетических сейсмограмм альтернативы численному моделированию нет из-за масштабов исследуемых объектов и отсутствия точных сведений об их строении. Актуальность моделирования упругих волн связана с исчерпанием традици- онных месторождений углеводородов. В частности, исследования перспектив- ных украинских месторождений газа затруднены очень большой глубиной зале- гания. Для их сейсморазведки необходимы специальные технологии глубинного зондирования, эффективность которых еще предстоит оценить. Аналогично эф- фективность добычи сланцевого газа, запасы которого в Украине значительны, зависти от точности контроля за процессом разработки, которую также необхо- димо оценивать на основе численного моделирования измерений. Трудность практического применения такого моделирования связана с огромной вычислительной сложностью и размером задачи. Например, в ти- пичной трехмерной сейсморазведке речь идет о тысячах и десятках тысяч источников и многокилометровых расстановках, но цель – это объекты толщиной в несколько десятков метров, а то и метры. Поэтому прогресс в этой области напрямую связан с прогрессом высокопроизводительных вычислений. 1. Методы моделирования распространения упругих волн Для синтеза сейсмограмм по заданной модели геологической среды и рас- становке применяют методы, основанные на упрощенных физических моделях. Для планирования трехмерных наблюдений широко внедрено лучевое трассиро- вание. Этот метод основан на высокочастотном приближении и использует из- вестные из оптики законы преломления и отражения продольных и поперечных волн на скоростной границе [1]. Метод лучевого трассирования достаточно эф- фективен для оценки освещенности целевой поверхности в зависимости от ее геометрии, скоростей над ней и расстановки [2]. Его преимуществом является возможность идентификации типа каждой волны, в частности, построения сейс- мограмм без кратных и преобразованных волн, или с ограниченной кратностью. Однако синтезированные сейсмограммы достаточно далеки от реальных, так как не учитывают изменение формы и расщепление сигнала на неоднородностях, размер которых сопоставим с длиной волны. Помимо этого лучевое трассирова- ние непригодно для моделирования отражений, возникающих в градиентных средах, и плохо приспособлено к условиям резких границ и точек дифракции, так как использует интерполяцию лучей и амплитуд. C развитием высокоточной широкополосной сейсмологической аппаратуры появились факты регистрации «нелучевых» сейсмических волн, которые не описываются нулевым членом луче- вого ряда, и для их вычисления необходимо учесть последующие члены ряда [3]. Альтернативой лучевому трассированию является моделирование процесса изменения волнового поля во времени. Его основу составляет система гипербо- лических дифференциальных уравнений в частных производных, полученная подстановкой закона упругости Гука, в формулу второго закона Ньютона:        , , , ,t t t    x s x Σ x f x (1) В.Г. ТУЛЬЧИНСКИЙ, Р.А. ЮЩЕНКО 12 Компьютерная математика. 2017, № 2 где  , tx – точка в пространстве-времени,  – плотность породы, s – вектор смещений, Σ – тензор напряжений, f – внешняя сила (сигнал). Оператор «  » обозначает дивергенцию в пространстве, а штрих – производную по времени. Тензор напряжений Σ – это квадратная симметричная матрица km mk   , причем kk – напряжение сжатия/растяжения вдоль оси ,k а если ,k m то km – это напряжение сдвига в плоскости .km Внешняя сила f в задачах моделирования сейсморазведки прилагается в точку источника, ее можно выра- зить через δ-функцию Кронекера:      0, F .t t  f x x x Конкретизация системы (1) зависит от характера физической модели. В эла- стическом изотропном приближении [4]:               T , , , , ,t t t t       Σ x x s x I x s x s x (2) где I – это единичная матрица:   ;kmI k m   модель среды представляют коэффициенты Ламе      2 SV  x x x и        2 2 ;PV    x x x x опера- тор  обозначает градиент в пространстве, а TM – транспонированную матри- цу M : mk T km MM  . Таким образом, в трехмерном изотропном эластическом случае состояние поля описывается девятью массивами параметров: 3 компо- нента s и 6 разных компонент .Σ Модель задается тремя массивами параметров (коэффициенты Ламе и  ), что в сумме дает 12 массивов. Для самого простого акустического приближения (идеальной жидкости)   0, x и тензор напряжений Σ можно сократить до единственной скалярной компоненты . В этом случае состояние поля описывается четырьмя массивами параметров: 3 компонента s и , а для модели достаточно двух параметров (всего – 6 массивов). Акустическое приближение используется для ускорения вычислений. Однако в силу отсутствия поперечных, преобразованных волн, поверхностных волн Релея и т. п., полученные синтетические сейсмограммы имеют ограниченную сферу применения. В более полном эластическом анизотропном приближении [5] тензор на- пряжений выражается через тензор жесткости Λ и может включать компоненты пары сил (диполей) :M        , , , .k mn mnkq mn k q q st t M t x      x x x x (3) Состояние поля описывается девятью массивами параметров: 3 компонента s и 6 компонент .Σ В общем анизотропном случае модель включает до 22 ко- эффициентов ( Λ и  ) в каждой точке, что в сумме дает 31 массив. Анизотро- пия возникает в реальных данных в местах переслаивания тонких пластов, в зонах трещиноватости, аномально высокого порового давления и т. п. Эти явления характерны для большинства месторождений нефти и газа. УСКОРЕНИЕ КОНЕЧНО-РАЗНОСТНОГО МОДЕЛИРОВАНИЯ РАСПРОСТРАНЕНИЯ ... Компьютерная математика. 2017, № 2 13 Еще более точным является вязкоупругое приближение, поскольку для высоких частот и слабых сигналов, характерных, например, для сейсмологии, линейный закон Гука перестает выполняться [6]. Но для моделирования поле- вых сейсмических наблюдений упругое приближение можно считать достаточно точным. Исторически первый и самый распространенный метод численного решения системы (3) – явная схема метода конечных разностей [5, 7, 8]. Поскольку сейс- мические наблюдения проводятся с большими удалениями источник-приемник и на большую глубину зондирования, размеры сетки измеряются в сотнях длин волн. Для сохранения формы сигнала необходимо иметь примерно 10 точек на длину волны. Поэтому сетка конечных разностей при моделировании сейсмиче- ских наблюдений в 3D состоит из миллиардов узлов. Учитывая, что в эластиче- ском анизотропном случае необходимо хранить 31 такой массив, и что число с одинарной точностью занимает 4 байта, получаем, что на каждой итерации нужно обрабатывать сотни гигабайт. Это больше, чем объем оперативной памя- ти большинства современных кластерных узлов и многопроцессорных серверов. Для сокращения необходимого объема памяти и ускорения вычислений применяется широкий спектр методов: конечно-разностные с аппроксимацией производных схемами высокого порядка, неравномерные сетки, метод конечных элементов, спектральные и псевдо-спектральные подходы [3]. Но поскольку размер неоднородностей среды обычно гораздо меньше длины волны, а времен- ной шаг решения практически ограничен шагом дискретизации выходных сейс- мограмм (обычно 2 мс), эффект от применения сложных методов к детальным моделям редко перекрывает дополнительные вычислительные затраты. Трехмерное моделирование может быть упрощено, если зафиксировать свойства среды вдоль одного направления ( 2x ). Модели такого типа (рис. 1) называются «двух с половиной мерными» (2.5D). Ограничение 2.5D не дает возможность синтезировать сейсмограммы, соответствующие реальным объек- там. Следовательно, 2.5D не позволяет оптимизировать расстановку с точки зре- ния освещенности целевых горизонтов (для чего используется лучевое трасси- рование). Однако 2.5D позволяет исследовать влияние многокомпонентных на- блюдений и плотности расстановки на интерпретацию результатов сейсмораз- ведки сложных сред с учетом тонкослоистости, трещиноватости, и анизотропии, что недоступно лучевому трассированию. Поскольку в 2.5D-среде сейсмограмма не меняется, если источники и приемники одинаковым образом переместить вдоль оси 2Y ,x в такой модели достаточно моделировать только одну линию источников, а остальные получать копированием данных с заменой координат трасс. Благодаря этому в случае 2.5D общий объем вычислений можно снизить в десятки, иногда – в сотни раз. Для решения задачи полноволнового сейсмического моделирования в 2.5D-постановке целесообразно выполнить ее Фурье-преобразование вдоль пространственной оси 2.x Для линеаризации систему (1) – (3) переписывают через скорости смещения .u s Ее скалярное представление имеет следующий вид (по повторяющимся индексам выполняется суммирование): В.Г. ТУЛЬЧИНСКИЙ, Р.А. ЮЩЕНКО 14 Компьютерная математика. 2017, № 2 РИС. 1. Пример скоростной модели 2.5D: скорость вдоль оси Y постоянна                 1 2 3 1 2 3 1 2 3 1 2 3 1 2 3 1 2 3 1 2 3 1 2 3 , , , , , , , , , , , . , , , , , , , , , , , n nk n k mn k mn mnkq q u x x x t x x x t x x x f x x x t t x x x x t u x x x t M x x x t x x x t x t                  (4) В 2.5D-среде    31321 ,0,,, xxxxx mnkqmnkq  и    1 2 3 1 3, , ,0, ,x x x x x   поэтому Фурье-преобразование (4) вдоль оси 2x дает [9]:                       1 31 3 1 3 2 1 3 1 3 1 3 1 3 1 3 1 3 2 1 3 2 1 3 , , ,, , , ,0, , , , , , , ; , , , , , , ,0, , , , ,0, , , , , nqn q n n mn k mnkq q mn mnk x x tu x x t x x t x j x x t f x x t x x t u x x t x x t x M x x t x x j u x x t t                                        (5) где 1,j   ,m n и k принимают значения {1, 2, 3}, a q – значения {1, 3},    1 2 3 1 3, , , , , , ,j y n nu x x x t u x x t e dy          1 2 3 1 3, , , , , , .j y mn mnx x x t x x t e dy         УСКОРЕНИЕ КОНЕЧНО-РАЗНОСТНОГО МОДЕЛИРОВАНИЯ РАСПРОСТРАНЕНИЯ ... Компьютерная математика. 2017, № 2 15 Сравнительная оценка сложности конечно-разностных вычислительных схем 2.5D и 3D в 2.5D-среде дана в [10]. Основной вывод состоит в том, что при равной области моделирования квадратичная вычислительная сложность 2.5D-моделирования возрастает быстрее 3D-моделирования: Ускорение 2.5D относительно max max max 3 2 1 ,V tD W y        (6) где 15..5W – минимальное число точек сетки на длину волны, maxy – мак- симальное удаление приемников в направлении 2 ,x maxV – максимальная ско- рость в среде, maxt – время записи (модельное время). Поэтому при достижении некоторого модельного времени для расчета 2.5D-сейсмограммы требуется больше вычислений, чем для полного 3D модели- рования, что подтверждается экспериментально (рис. 2). 0 500 1000 1500 2000 2500 3000 3500 4000 0 0,5 1 1,5 2 2,5 3 3,5 4 4,5 5 Модельное время, с В ре м я ра сч ет а, с 2.5D-моделирование 3D-моделирование РИС. 2. Пример результатов экспериментов для модели 2x2x2 км Эксперименты также показали, что точка, в которой время 2.5D моделиро- вания и 3D моделирования совпадают (на рис. 2 это 3 с) смещается при увеличе- нии области в сторону больших времен (рис. 3). С другой стороны, декомпозиция на независимые пространственные часто- ты полностью решает проблему объемов памяти. 2.5D-схема использует 160 байт на ячейку двумерной сетки для хранения как модели, так и состояния волнового поля. Процесс моделирования для отдельных пространственных час- тот выполняется полностью независимо, без обменов данными. Это позволяет В.Г. ТУЛЬЧИНСКИЙ, Р.А. ЮЩЕНКО 16 Компьютерная математика. 2017, № 2 0 0,5 1 1,5 2 2,5 3 3,5 0 500 1000 1500 2000 2500 Длина грани модельного куба, м М од ел ьн ое в ре м я, с Равное время вычислений для 2.5D и 3D РИС. 3. Модельное время, на котором совпадает время вычислений для 2.5D и 3D разделить 3D-моделирование на сотни или тысячи независимых 2D-подзадач, которые можно выполнять в распределенной вычислительной среде, в частно- сти, в гриде. Полученные в результате моделирования 2D-файлы объединяются в синтетические 3D-сейсмограммы с помощью обратного преобразования Фурье. Особенно эффективным метод 2.5D оказался для графических ускорителей, так как позволил отказаться от обменов в процессе решения 2D-подзадачи (рис. 4). Тем не менее, для задач с большим временем записи, и для случаев, когда упрощение геометрии неприемлемо с практической точки зрения, проблема ускорения решения задачи сейсмического моделирования в 3D-постановке по прежнему актуальна. 3-walls 0 20 40 60 80 100 120 G eF or ce G TX 8 80 0 G eF or ce G TX 2 60 G eF or ce G TX 4 80 Te sl a M 20 50 Time (min) Speedup Marmousi 0 20 40 60 80 100 120 G eF or ce G TX 8 80 0 G eF or ce G TX 2 60 G eF or ce G TX 4 80 Te sl a M 20 50 Time (min) Speedup Fracture 0 20 40 60 80 100 120 G eF or ce G TX 8 80 0 G eF or ce G TX 2 60 G eF or ce G TX 4 80 Te sl a M 20 50 Time (hrs) Speedup CPU time: 20 hrs CPU time: 25 hrs CPU time: 14 days РИС. 4. Примеры ускорение 2.5D моделирования на NVIDIA CUDA УСКОРЕНИЕ КОНЕЧНО-РАЗНОСТНОГО МОДЕЛИРОВАНИЯ РАСПРОСТРАНЕНИЯ ... Компьютерная математика. 2017, № 2 17 2. Особенности программной реализации 3D-моделирования Как известно, производительность программы на центральном процессоре обуславливается прежде всего правильным использованием кэш-памяти разных уровней [11], а также использованием векторных операций (например, SSE3). Подходы к ускорению программы на GPU совсем другие [12]. В отличие от многоядерных процессоров, в которых потоки выполняются асинхронно (MIMD), графические ускорители (SIMD) рамках одного ядра вы- полняют потоки синхронно. В результате наличие любых условных операторов и циклов в вычислительном ядре значительно замедляют расчет. В частности, проверку на выход за границы вычислительной решетки заменяет расширение решетки (рис. 5). 2.1. Расширение решетки вместо условных операторов (0,0) Блоки (0,0) Блоки Расширение решетки для кратности размера блока Расширение решетки для допустимости вычислений на границе РИС. 5. Исходная решетка расширена для устранения проверок выхода за границы 2.2. Расчет по блокам Тривиальный подход к распараллеливанию – это создание максимально возможного блока таким образом, что каждая нить считает свой участок (рис. 6, а). Другой подход – создание сетки блоков таким образом, что каждая нить бу- дет рассчитывать только один элемент (рис. 6, б). В результате внутренний цикл в ядре исчезает. 2.3. Выравнивание памяти Выравнивание памяти ускоряет векторные операции. В частности, архитек- тура x86 требует выравнивания памяти для выполнения операций SSE [13]. В CUDA для выравнивания памяти с учетом размерности решетки используется функция cuMallocPitch. В.Г. ТУЛЬЧИНСКИЙ, Р.А. ЮЩЕНКО 18 Компьютерная математика. 2017, № 2 а – разбиение по нитям Область вычисления одной нити б – разбиение по блокам РИС. 6. Сравнение способов разбиения решетки 2.4. Использование раздельных буферов для компонентов Для ускорения программы на процессорах, как правило, требуется, чтобы связанные данные были расположены по возможности рядом. Отличие графиче- ских ускорителей состоит в том, что обращение разных ядер к близким адресам может создать конфликт и замедлить вычисление. С другой стороны, практиче- ски все операции в графических ускорителях – векторные и позволяют работать с ячейками, расположенными «далеко» друг от друга, лишь бы на одном и том же расстоянии между собой. 2.5. Использование отдельных ядер для разных вариантов оператора Расчет анизотропного эластического моделирования можно существенно упростить в изотропных и орторомбически-анизотропных зонах модели. По- скольку в SIMD (GPU) условия не эффективны, вместо проверки внутри ядра CUDA целесообразно использовать отдельные ядра для каждого варианта расче- та. То же самое касается реализации поглощения на краях модели. 2.6. Копирование данных в локальные переменные Поскольку при расчете одной выходной ячейки некоторые входные ячейки используются многократно, можно предварительно записывать значения этих входных ячеек в локальной памяти ядра. 2.7. Отсечение лишней области расчета Поскольку волны распространяются от источника с ограниченной скоро- стью среды, в начале расчета можно ограничивать зону вычислений, а не обсчи- тывать всю решетку сразу (рис. 7, а). Аналогично в конце, нет смысла рассчиты- вать в тех местах, откуда волны не успеют дойти до приемников (рис. 7, б). УСКОРЕНИЕ КОНЕЧНО-РАЗНОСТНОГО МОДЕЛИРОВАНИЯ РАСПРОСТРАНЕНИЯ ... Компьютерная математика. 2017, № 2 19 а – расширение расчетной области б – сужение расчетной области РИС. 7. Участки решетки, где необходим расчет 2.8. Сравнение подходов к ускорению на GPU и на CPU ТАБЛИЦА. Индексы ускорения для разных преобразований программы Устройство NVIDIA GTX 680 NVIDIA M2090 Intel Core I7 3770K Набор данных Средний Средний Большой Средний Большой 2.2. По блокам + 1500 % + 1850 % + 1710 % – – 2.1. Расширение + 4 % + 8 % + 5 % < 1 % < 1 % 2.3. Выравнивание + 5 % + 3 % < 1 % – – 2.4. Раздел решетки + 130 % + 180 % + 202 % – 10 % – 10 % 2.5. По операциям + 9 % + 12 % + 29 % < 1 % < 1 % 2.6. Копирование + 18 % + 21% + 25 % < 1 % < 1 % 2.7. Отсечение + 10 % + 23 % + 10 % + 25 % + 10 % Выводы. Рассмотрены алгоритмические и программные подходы, позво- ляющие существенно ускорить расчет трехмерных синтетических сейсмограмм методом конечно-разностного моделирования упругого волнового поля. В.Г. Тульчинський, Р.А. Ющенко ПРИСКОРЕННЯ КІНЦЕВО-РІЗНИЦЕВОГО МОДЕЛЮВАНИЯ РОЗПОВСЮДЖЕННЯ ПРУЖНИХ ХВИЛЬ НА ПАРАЛЕЛЬНИХ КОМП’ЮТЕРАХ Розглянуто питання підвищення продуктивності розрахунку синтетичних сейсмограм мето- дом кінцево-різницевого моделювання розповсюдження пружних хвиль у неоднорідному середовищі з використанням комп’ютерних кластерів і GPU. V. Tulchinsky, R. Iushchenko ACCELERATION OF FINITE-DIFFERENCE SIMULATION OF ELASTIC WAVE PROPAGATION ON PARALLEL COMPUTERS The problem of seismic data synthesis performance increasing for the finite-difference simulation of elastic wave propagation in inhomogeneous media on parallel computers and GPU is studied. В.Г. ТУЛЬЧИНСКИЙ, Р.А. ЮЩЕНКО 20 Компьютерная математика. 2017, № 2 1. Červený V. Seismic Ray Theory. London: Cambridge University Press, 2001. 722 p. 2. Gjøystdal H., Iversen E., Laurain L., Lecomte I., Vinje V., Åstebøl, K. Review of ray theory applications in modelling and imaging of seismic data. Studia geophysica et geodaetica. 2002. N 46. P. 113 – 164. 3. Активная сейсмология с мощными вибрационными источниками / Отв. ред. Г.М. Ци- бульчик. Новосибирск: ИВМиМГ СО РАН, Филиал “Гео” Издательства СО РАН, 2004. 387 с. 4. Nilsson S., Petersson N. A., Sjögreen B., Kreiss H.-O. Stable difference approximations for the elastic wave equation in second order formulation. SIAM J. Numer. Anal. 2007. N 45. P. 1902 – 1936. 5. Lisitsa V., Vishnevskiy D. Lebedev scheme for the numerical simulation of wave propagation in 3D anisotropic elasticity. Geophysical Prospecting. 2010. N 58. P. 619 – 635. 6. Carcione J.M., Kosloff D., Kosloff R. Wave propagation simulation in a linear viscoelastic medium. Geophysical Journal. 1988. N 95. P. 597 – 611. 7. Alterman Z., Karal F.C. Propagation of elastic waves in layered media by finite-difference methods. Bull. Seism. Soc. Am. 1968. N 58. P. 367 – 398. 8. Komatitsch D., Michéa D., Erlebacher G., Göddeke D. Running 3D Finite-difference or Spectral-element Wave Propagation Codes 25x to 50x Faster Using a GPU Cluster. Extended Abstracts of 72th EAGE Conference & Exhibition. 2010. 9. Tulchinsky V., Iushchenko R., Roganov Y. Acceleration of 2.5D Elastic Anisotropic Modelling. 74th EAGE Conference & Exhibition, Extended Abstracts. Copenhagen: EAGE, 2012. #B005. 10. Tulchinsky V., Iushchenko R. Undersampling to accelerate computations. Proc. Parallel and Distributed Computing Systems (PDCS 2013), Kharkiv. 2013. P. 326 – 329. 11. LaMarca A. and Ladner R.E. The Influence of Caches on the Performance of Sorting, Proceedings of the Eighth Annual ACM-SIAM Symposium on Discrete Algorithms. 1997. P. 370 – 379. 12. Yu W., Mittra R., Su T. et al. Parallel Finite-Difference Time-Domain Method. – Artech House, 2006. 262 p. 13. Strey A., Bange M. Performance Analysis of Intel’s MMX and SSE: A Case Study. 7th International Euro-Par Conference Manchester, UK, August 28–31, 2001 Proceedings. Springer Berlin Heidelberg. Р. 142 – 147. Получено 23.10.2017 Об авторах: Тульчинский Вадим Григорьевич, доктор физико-математических наук, заведующий отделом автоматизации программирования Института кибернетики имени В.М. Глушкова НАН Украины, Ющенко Руслан Андреевич, кандидат физико-математических наук, старший научный сотрудник отдела автоматизации программирования Института кибернетики имени В.М. Глушкова НАН Украины.