Конечно-разностная миграция в трехмерном варианте с распараллеливанием процесса вычислений

Переход сейсморазведки на трехмерные или площадные системы наблюдений ведет к значительному увеличению объема зарегистрированных волновых полей, которые необходимо обработать в кратчайшие сроки. При этом необходимо учитывать постоянно возрастающие требования к детальности результата и сложность стро...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Veröffentlicht in:Геоінформатика
Datum:2016
Hauptverfasser: Верпаховская, А.О., Пилипенко, В.Н., Пилипенко, Е.В.
Format: Artikel
Sprache:Russisch
Veröffentlicht: Центр менеджменту та маркетингу в галузі наук про Землю ІГН НАН України 2016
Schlagworte:
Online Zugang:https://nasplib.isofts.kiev.ua/handle/123456789/144697
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Zitieren:Конечно-разностная миграция в трехмерном варианте с распараллеливанием процесса вычислений / А.О. Верпаховская, В.Н. Пилипенко, Е.В. Пилипенко // Геоінформатика. — 2016. — № 4. — С. 29-38. — Бібліогр.: 11 назв. — рос.

Institution

Digital Library of Periodicals of National Academy of Sciences of Ukraine
_version_ 1860244199866105856
author Верпаховская, А.О.
Пилипенко, В.Н.
Пилипенко, Е.В.
author_facet Верпаховская, А.О.
Пилипенко, В.Н.
Пилипенко, Е.В.
citation_txt Конечно-разностная миграция в трехмерном варианте с распараллеливанием процесса вычислений / А.О. Верпаховская, В.Н. Пилипенко, Е.В. Пилипенко // Геоінформатика. — 2016. — № 4. — С. 29-38. — Бібліогр.: 11 назв. — рос.
collection DSpace DC
container_title Геоінформатика
description Переход сейсморазведки на трехмерные или площадные системы наблюдений ведет к значительному увеличению объема зарегистрированных волновых полей, которые необходимо обработать в кратчайшие сроки. При этом необходимо учитывать постоянно возрастающие требования к детальности результата и сложность строения изучаемой площади. В то же время, несмотря на быстрый прогресс в области развития вычислительной техники, появляется проблема недостаточности ресурсов для обработки трехмерных сейсмических наблюдений на отдельно взятом компьютере. Поэтому задача программной реализации существующих процедур обработки с привлечением кластера становится чрезвычайно актуальной в современной сейсморазведке. Рассмотрены разработанные алгоритм и программная реализация трехмерной конечно-разностной миграции после суммы с распараллеливанием процесса вычислений. Перехід сейсморозвідки на тривимірні або площові системи спостережень приводить до значного збільшення обсягу зареєстрованих хвильових полів, які необхідно обробити у найкоротші терміни. При цьому потрібно враховувати постійно зростаючі вимоги до детальності результату і складність будови досліджуваної площі. Водночас, незважаючи на швидкий прогрес у сфері розвитку обчислювальної техніки, з’являється проблема недостатності ресурсів для обробки тривимірних сейсмічних спостережень на окремо взятому комп’ютері. Тому задача програмної реалізації існуючих процедур обробки із залученням кластера стає надзвичайно актуальною в сучасній сейсморозвідці. Розглянуто розроблені алгоритм і програмну реалізацію тривимірної скінченнорізницевої міграції після суми з розпаралелюванням процесу обчислень. The purpose of the paper is to develop a three-dimensional post stack finite-difference migration with parallelization of computing process to process 3D seismic observations on a separate computer, taking into account the ever-increasing requirements for detailed results and the complexity of the structure of the study area. The effectiveness of the developed version of the post stack finite-difference migration is proved with practical examples, in particular, for the structure of medium complicated by the presence of the salt body.
 Design/methodology/approach. Algorithm of a three-dimensional post stack migration is based on reverse full-wave field continuation in the medium that is carried out by solving the differential wave equation using a finite difference method. In this case the differential wave equation is approximated by the difference one in the four-dimensional space-time grid. In this approach, the coordinate system is converted according to the seismic wave propagation from the depths to the surface, ensuring optimal finite-difference wave field continuation. Parallelization of computations process is on time slices which are defined with a queue. The calculation of the previous slice is stored in the intermediate memory cube. In parallelizing we used library pthread, which is present in all modern versions of the Linux system and allows you to control the execution of the task in the separation calculations on several processors. The software was developed according to the proposed algorithm of a three-dimensional post stack finite-difference migration with parallelization of the computing process for processing.
 Findings. The developed three-dimensional post stack full-wave finite-difference migration with parallelization of computing process for processing has been tested in a model and real mode. The obtained results confirm the applicability of the developed method of migration in studding the geological environment of deep structure with different degrees of complexity. To demonstrate the effectiveness of this method we compared the results obtained with those obtained using standard software migration system ProMAX and the developed program with parallelization of computing process on the cluster, developed at the Institute of Geophysics. The comparison of the results allows us to emphasize a general similarity of the results and the difference in some of the particular parts of the image (larger extension of reflecting horizons in the direction of the salt body as a result of applying the proposed variant of post stack full-wave finite-difference migration), which may be attributed to a more accurate migration transformation in the developed program.
 Practical value/implications. The developed version of a three-dimensional post stack full-wave finite-difference migration with parallelization of computing process allows on to carry out high-quality processing of large volumes of spatial seismic data in a short time, which depend on the number of processors in the cluster. The results of the testing of developed programs as in model and real data areal seismic survey, prove accuracy and efficiency even in the structure of the medium complicated by the presence of salt body, which is important for oil and gas companies,
 exploration activities.
first_indexed 2025-12-07T18:34:11Z
format Article
fulltext 29ISSN 1684-2189 ГЕОІНФОРМАТИКА, 2016, № 4 (60) © А.О. Верпаховская, В.Н. Пилипенко, Е.В. Пилипенко УДК 550.834 Конечно-разностная миграция в трехмерном варианте с распараллеливанием процесса вычислений а.о. верпаховская, в.н. пилипенко, е.в. пилипенко Институт геофизики им.С.И. Субботина НАН Украины, просп. Акад. Палладина, 32, г. Киев, 03680, Украина, e-mail: alversim@gmail.com, vpylypenko@gmail.com, lenasloboda@gmail.com Переход сейсморазведки на трехмерные или площадные системы наблюдений ведет к значительному увеличению объема зарегистрированных волновых полей, которые необходимо обработать в кратчайшие сроки. При этом необходимо учитывать постоянно возрастающие требования к детальности результата и сложность строения изучаемой площади. В то же время, несмотря на быстрый прогресс в области развития вычислительной техники, появляется проблема недостаточности ресурсов для обработки трехмерных сейсмических наблюдений на отдельно взятом компьютере. Поэтому задача программной реализации существующих процедур обработки с привлечением кластера становится чрезвычайно актуальной в современной сейсморазведке. Рассмотрены разработанные алгоритм и программная реализация трехмерной конечно-разностной миграции после суммы с распараллеливанием процесса вычислений. Ключевые слова: сейсморазведка, волновое поле, моделирование, конечно-разностный метод, трехмерная миграция после суммы, вычислительная техника, алгоритм, кластер, обработка данных, распараллеливание процесса вычислений. введение. В современной обработке сейсми- ческих данных процедура миграции является за- ключительным этапом перед интерпретацией, по- скольку предоставляет наглядную информацию о строении изучаемого разреза в виде его глубинного изображения в динамических характеристиках на- блюденного волнового поля. В то же время при обработке трехмерных сейсмических наблюдений процедура миграции является не только более сложной, по сравнению с двумерным вариантом, но и самой объемной по вычислениям. Прежде всего, это связано с огромным количеством ис- ходного материала трехмерной сейсморазведки, с теоретической базой конечно-разностного продол- жения волнового поля в трехмерной среде, а также с постоянно растущим требованием к повышению детальности результативного изображения. В 1989 г. А. Гейст разработал специальное про- граммное обеспечение для объединения нескольких однотипных процессоров в единый кластер, что по- ложило начало новому витку разработки методов, которые предусматривают обработку объемных дан- ных [12]. Появление кластерных вычислений также значительно упростило обработку больших объемов сейсмической информации. К таким данным отно- сятся профильные наблюдения, которые рассчитаны на детальное изучение района исследований и имеют очень плотную систему наблюдений, моделирование волновых полей как в двумерном, так и трехмерном варианте, а также площадные наблюдения. Однако привлечение в процесс расчетов кла- стерных технологий независимо от выбранного метода обработки сейсмических данных требует доработки его алгоритмов и их программных реа- лизаций с учетом распараллеливания вычислений на произвольном количестве процессоров. Распараллеливание на кластере при моделиро- вании волнового поля с использованием библиотек Message Passing Interface (MPI) хорошо освещено в литературе [11, 13]. Широко представлена также реализация на кластере метода миграции Кирхгоф- фа с помощью графических процессоров – Graphic Processing Unit (GPU) и Compute Unified Device Architecture (CUDA) [6, 8, 9]. Но, как правило, гра- фические процессоры стоят очень дорого, поэтому такие подходы требуют значительных затрат при их реализации. В Институте геофизики им. С.И. Субботина НАН Украины уже несколько лет разрабатываются алгоритмы и программы конечно-разностных ме- тодов миграции и моделирования волнового поля для их адаптации при работе на кластере. При рас- параллеливании используется библиотека pthread, которая имеется во всех современных версиях сис- темы Linux и позволяет контролировать выполне- ние поставленной задачи при разделении расчетов на несколько процессоров. В частности, таким об- разом реализованы методы миграции в двумерной среде и моделирование волнового поля в трехмер- ном пространстве с распараллеливанием [1, 2, 4]. В то же время с ростом использования в сейсмо- разведке трехмерных систем наблюдений возникла необходимость реализовать распараллеливание про- цесса вычислений и в случае трехмерной конечно- разностной миграции после суммы. В связи с тем что вариант миграции после суммы является стан- дартной процедурой при обработке данных метода отраженных волн многократными перекрытиями в 30 ISSN 1684-2189 GEOINFORMATIKA, 2016, № 4 (60) © А.О. Верпаховская, В.Н. Пилипенко, Е.В. Пилипенко геофизических производственных объединениях, со- кращение времени обработки при этом играет важ- ную роль. Разработан алгоритм, который предусма- тривает распараллеливание внутри программы, а не по пунктам возбуждения, как это было реализовано раньше. Такое распараллеливание является более сложным в реализации, поскольку требует привле- чения других системных библиотек и инструментов. Вместе с тем указанный подход имеет свои преиму- щества, которые заключаются в возможности раз- бивать большие объемы использующихся в расчетах данных с распараллеливанием вычислений по вре- менным слоям при продолжении волнового поля. Разработанная в Институте геофизики им. С.И. Субботина НАН Украины трехмерная полно- волновая миграция после суммы показала высокую эффективность при изучении сложного геологиче- ского строения шахтных полей по данным трехмер- ной сейсморазведки. Таким образом, теоретические основы данного варианта трехмерной миграции рассматривались ранее [5]. В связи с тем что при обработке реальных данных возникли трудности с оборотом объемных волновых полей на отдельно взятом компьютере, было предложено рассмотреть возможность привлечения к этому процессу кла- стерных вычислений. Цель данной статьи – разработка алгоритма и программной реализации трехмерной полноволно- вой миграции после суммы с распараллеливанием расчетов при использовании нескольких процес- соров. Предлагаемый вариант трехмерной полновол- новой миграции после суммы с распараллелива- нием процесса вычислений на кластере позволяет формировать изображение среды без ограничений на угол наклона отражающих границ, что созда- ет благоприятные условия для выявления тонких особенностей строения среды, скоростная мо- дель которого может быть неоднородной по всем пространственным координатам. Эффективность предложенной миграции демонстрируется на мо- дельных примерах и реальных данных площадной сейсморазведки. алгоритм трехмерной конечно-разностной ми- грации после суммы с распараллеливанием процесса вычислений. Как и в случае основных конечно- разностных методов миграции [1, 4], алгоритм полноволновой трехмерной миграции после суммы основан на обратном продолжении волнового поля в среде, которое выполняется с помощью реше- ния дифференциального волнового уравнения. В трехмерном варианте дифференциальное волновое уравнение имеет вид где x, y, z – пространственные координаты; V (x, y, z) – переменная скорость; t – время; u (x, y, z) – амплитуда временного поля. Поскольку теоретические основы трехмерной миграции полноволнового продолжения поля уже представлялись [5], остановимся на некоторых наиболее важных аспектах. Система координат в данном подходе преобразуется согласно распро- странению сейсмических волн с глубины к земной поверхности, что гарантирует оптимальное конечно- разностное продолжение волнового поля. Преоб- разование пространственно-временных координат при этом позволяет избежать ограничения на угол подхода волн, достичь соответствия линий разност- ной сетки основному направлению распространения волн при обратном продолжении волнового поля, что, в свою очередь, дает возможность получить удовлетворительную аппроксимацию дифференци- альных операторов разностными при относительно больших сеточных шагах по глубине. Таким образом, конечно-разностная сетка для полноволнового трехмерного обратного продолже- ния волнового поля формируется сеточными ли- ниями, которые соответствуют осям новой системы координат x', y', t', τ' со значениями поля в узле сетки . Так как при конечно-разностном продолжении волнового поля важно определить область решения, получаем следующую область расчетов: где i = 1 ÷ n; j = 1 ÷ m; k = 1 ÷ p; l = 1 ÷ q – сеточ- ные координаты; n, m, p, q – количество сеточных узлов по направлениям осей x', y', t', τ'. Проекции расчетной сетки на отдельные пло- скости показаны на рис. 1. Каждому узлу на линии оси t отвечает двумерный срез входного куба волно- вого поля ОГТ в определенный момент времени. Выбор конечно-разностной схемы диктуется необходимостью придерживаться следующих тре- бований: - конечно-разностное решение должно быть абсолютно устойчивым, а значит, не зависеть от соотношения сеточных шагов и иметь квадратич- ную сходимость к дифференциальному решению волнового уравнения; - конечно-разностная схема должна быть фак- торизованной, экономичной, что позволяет вести расчеты с минимальным объемом вычислений. Данным требованиям полностью отвечает конечно-разностная аппроксимация дифференци- ального волнового уравнения на предложенной че- тырехмерной пространственно-временной сетке [5]. В результате факторизации, которая в данном случае заключается в расщеплении оператора при , решение происходит в два этапа методом прогонки. Сначала рассчитываются коэффициенты прогонки, а затем выполняется рекуррентный расчет неизвест- , , 31ISSN 1684-2189 ГЕОІНФОРМАТИКА, 2016, № 4 (60) © А.О. Верпаховская, В.Н. Пилипенко, Е.В. Пилипенко ных в обратном порядке, что в случае волнового поля означает вычисление от uN, uN–1 до u1, u0 [3]. Миграционный куб изображения по оконча- нии продолжения волнового поля формируется в сеточных узлах, которым на проекции сетки на плоскость t τ отвечает линия τ. Продолжение поля происходит последовательно на временных срезах начиная с максимального N в обратном направле- нии до 1 уровня. При этом на каждом временном уровне поле пересчитывается в глубину от земной поверхности (ось t) и заканчивается при достиже- нии узлов на оси τ. Распараллеливание процесса вычислений про- изводится по временным срезам, которые задаются очередью. В промежуточном кубе памяти сохраня- ется расчет по предыдущему срезу. Каждый срез в очереди на единицу меньше предыдущего. Дальше проверяется номер этапа расчетов. На каждом этапе выполняется согласование работы с потоками, ко- торые ведут расчеты на предыдущем и следующем временных срезах, так как очередной срез может продолжать расчеты по глубине только тогда, когда необходимый глубинный уровень на предыдущем временном срезе уже рассчитан другим потоком. Аналогично очередной поток по завершении расче- тов на каждом глубинном уровне дает разрешение на использование этих данных другому потоку, который ведет вычисления на следующем временном срезе. Результат вычислений на каждом шаге по глу- бине сохраняется в промежуточном кубе памяти данного потока до окончания всех глубинных шагов временного среза, но во время завершения цикла глубинных шагов освобождается аналогичная па- мять потока, который вел расчеты предыдущего временного среза. Результат вычисления последнего глубинного шага на первом этапе запоминается в промежуточной дисковой памяти, а на втором этапе заносится на диск как фрагмент результативного ми- грационного изображения. Таким образом, из фраг- ментов формируется общий результативный куб. программная реализация полноволновой трех- мерной миграции суммы огт с распараллеливанием процесса вычислений. Миграционное преобразо- вание суммы ОГТ в изображение среды конечно- разностным методом желательно выполнять одно- временно для всей площади работ, в связи с чем реализация этого процесса с использованием па- раллельной схемы вычислений имеет свои особен- ности по сравнению с миграцией по исходным дан- ным и моделированием волнового поля, которые рассматривались ранее [1, 2, 4]. Остановимся более подробно на реализации распараллеливания процесса конечно-разностных вычислений с помощью процедур MUTEX и SEMAPНORES, что позволит организовать одно- временное конечно-разностное обратное продол- жение волнового поля по его временным срезам. Количество одновременно рассчитываемых срезов будет отвечать количеству задействованных процессоров. Рис. 1. Проекция конечно-разностной сетки на плоскость tτ, а также две проекции четырехмерного сеточного шаблона на плоскости t'τ' и xy Fig. 1. The projection of the finite-difference grid onto a plane tτ, and also two pro- jection of four-dimensional grid pattern onto the plane t'τ' and xy 32 ISSN 1684-2189 GEOINFORMATIKA, 2016, № 4 (60) © А.О. Верпаховская, В.Н. Пилипенко, Е.В. Пилипенко На рис. 2 показана общая блок-схема вычис- лительного процесса, основной составляющей ко- торого является обратное продолжение волнового поля ОГТ. Рассмотрим более подробно некоторые этапы разработанной блок-схемы. Введение и подготовка входных параметров. Входные параметры: данные о размерах входного куба суммы ОГТ, значения шагов по координатам x и y, размеры шагов по глубине и времени, а также количество процессоров, которые будут исполь- зованы в вычислениях. Размеры куба скорости, входного куба сейсмотрасс ОГТ и результативного миграционного куба совпадают. Подготовка входных данных для конечно-разнос т- ных вычислений. Входные данные отвечают стандарт- ному сейсмическому формату SEGY. В программе производится переход к формату данных, который функционирует на кластере, а дальше – переход от трассопоследовательного во временнопоследо- вательный формат данных, так как на разностной сетке необходимо вести последовательный во вре- мени расчет волнового поля. Аналогично на диске готовится файл скоростных данных в последова- тельности срезов куба скорости по глубине. Срезы волнового поля и скорости по краям дополняются узлами для минимизации влияния помех, обуслов- ленных отражением волнового поля от краев сеточ- ной области. Инициализация MUTEX процедуры. Перед нача- лом работы потоков готовятся к запуску процедур MUTEX (входят в комплекс программ библиотеки pthread.h системы LINUX), которые используются при создании файлов и записи информации от- дельным потоком для блокирования в этот момент работы других потоков посредством двух команд: pthread_mutex_lock и pthread_mutex_unlock. Старт первого и второго этапов сеточных вы- числений. Процесс формирования изображения среды выполняется обратным продолжением во - лнового поля ОГТ по сейсмическим наблюдени- Рис. 2. Общая блок-схема вычислительного процесса при трехмерной конечно-разностной миграции после суммы с распараллеливанием на нескольких процессорах Fig. 2. General block diagram of the computing process for the three-dimensional post stack finite-difference migration with parallelization on multiple processors 33ISSN 1684-2189 ГЕОІНФОРМАТИКА, 2016, № 4 (60) © А.О. Верпаховская, В.Н. Пилипенко, Е.В. Пилипенко ям. Положению земной поверхности соответствует линия оси времени t на проекції t τ разностной сетки. Каждому узлу на этой линии отвечает дву- мерный срез входного куба волнового поля ОГТ в определенный момент времени. Результативный куб изображения формируется в сеточных узлах на линии τ проекции t τ. В программе процесс продолжения поля разбит на 2 этапа (см. рис. 1): 1 – переход с земной поверх- ности (ось t) на промежуточную поверхность – ли- ния ОМ (ось t'); 2 – заключительный этап – процесс продолжения поля с промежуточной поверхности на вертикальную (проекция оси τ). Инициализация процедур SEMAPНORE. Перед стартом потоков происходит инициализация про- цедур SEMAPНORE (входят в комплекс программ библиотеки semaphore.h), которые используются в программе для организации обмена данными между отдельными потоками. Число семафоров определяется количеством временных срезов поля, перед началом вычислений по каждому из этапов все семафоры приводятся в замкнутое положение. Подготовка потоковой информации. Запуск каждого из потоков сопровождается набором па- раметров, которые формируются в виде отдельной структуры и используются при исполнении пото- ком потоковой функции: файл семафоров; файл адреса с промежуточными данными для временных срезов поля; номер потока; общее количество вы- численных временных срезов; номер временного среза, стоящего первым в очереди. Выполнение вычислений в потоковом режиме. Последовательный старт потоков выполняется про- граммой pthread_create, которая запускает процесс выполнения потоковой функции, обеспечиваю- щей последовательный и организованный расчет поля по всем временным срезам. Распределение временных срезов для потоков определяется очере- дью. Блок-схема выполнения потоковой функции показана на рис. 3. Завершение работы каждого потока контроли- руется командой pthread_join, по окончании работы всех потоков работа семафоров прекращается ко- мандой sem_destroy. Рис. 3. Блок-схема выполнения потоковой функции отдельным процессором Fig. 3. Block diagram of the implementation of the streaming function a separate processor 34 ISSN 1684-2189 GEOINFORMATIKA, 2016, № 4 (60) © А.О. Верпаховская, В.Н. Пилипенко, Е.В. Пилипенко Приведение результативного миграционного куба к стандартному формату сейсмических данных. По- сле завершения работы второго этапа вычислений полученные результаты в виде временных срезов мигрированного куба изображения среды перево- дятся из временноформатного в трассоформатный вид и затем в стандартный формат сейсмических данных SEGY. Блок-схема выполнения функции потока. Для каждого отдельного потока стартует своя копия функции, которая предполагает: создание в кон- трольной директории текстового файла с номером потока, в котором будет храниться информация о работе процессора; под защитой команд MUTEX выделение оперативной памяти для промежуточных расчетов, а также памяти для девяти двумерных мат- риц коэффициентов, которые входят в разностное уравнение; выполнение цикла по временным сре- зам: вначале проверяется очередь временных срезов (пустая – работа прекращается, не пустая – под защитой MUTEX выделяется куб промежуточной памяти с номером временного среза, который на данный момент был первым в очереди). В дальней- шем в кубе будет храниться результативное поле для данного потока. Промежуточный куб памяти с номером на единицу больше используется этим потоком как источник исходной информации для разностных расчетов. В очереди временных сре- зов следующий срез будет по номеру на единицу меньше. Дальше проверяется номер этапа расчетов, каждый из которых выполняется путем разностного продолжения волнового поля в цикле по сменному числу глубинных шагов. На первом этапе выпол- няется чтение входного волнового поля с земной поверхности (ось t) и пересчет на промежуточный уровень (линия ОМ), на втором – волновое поле продолжается с промежуточного уровня на срез сетки (ось τ'), где формируется результативный куб миграционного изображения. На каждом этапе семафорами проверяется ра- бота с потоками, которые выполняют расчеты на предыдущем и следующем временных срезах. Оче- Рис. 4. Модельный пример применения трехмерной конечно-разностной полноволновой миграции после суммы с распараллеливанием процесса вычислений: а – скоростная модель среды; б – смоделированное волновое поле; в – глубинное изображение среды Fig. 4. Model example of the application of three-dimensional post stack full-wave finite-difference migration with parallelization of the computing process: a – velocity model; б – the modeled wave field; в – depth image of the medium 35ISSN 1684-2189 ГЕОІНФОРМАТИКА, 2016, № 4 (60) © А.О. Верпаховская, В.Н. Пилипенко, Е.В. Пилипенко редной временной срез может продолжать расчеты по глубине, когда необходимый глубинный уровень на предыдущем временном срезе будет рассчитан другим потоком. Аналогично очередной поток по окончании расчета на каждом глубинном уровне дает разрешение на использование этих результатов потоку, который ведет вычисления на следующем временном срезе. Результат вычислений на каждом шаге по глу- бине сохраняется в промежуточном кубе памяти очередного потока и по окончании всех глубинных шагов временного среза, но в момент окончания цикла глубинных шагов освобождается аналогичная память потока, который вел расчеты предыдущего временного среза. По окончании глубинных шагов результат последнего вычисления запоминается в промежуточной дисковой памяти (на первом этапе) или заносится на диск как фрагмент результативно- го миграционного изображения (на втором этапе). модельный пример применения трехмерной конечно-разностной полноволновой миграции после суммы с распараллеливанием процесса вычислений. Разработанная трехмерная конечно-разностная полноволновая миграция после суммы с распарал- леливанием процесса вычислений была протести- рована на модельном примере. Выбранная для при- мера двухслойная скоростная модель и один из ее срезов показаны на рис. 4, а. Данная модель имеет границу раздела с разного вида нарушениями, что дало возможность оценить эффективность разрабо- танной программы в условиях сложного строения изучаемой среды. На рис. 4, б показан куб смоделированного вол- нового поля, а на рис. 4, в демонстрируются резуль- таты применения трехмерной конечно-разностной полноволновой миграции после суммы с распарал- леливанием процесса вычислений. Сравнение за- данной модели (рис. 4, а) и полученного в резуль- тате миграции изображения (рис. 4, в) позволяет подтвердить возможности разработанного метода миграции при исследовании геологической среды с глубинным строением разной степени сложности. пример применения трехмерной конечно- разностной полноволновой миграции после суммы с распараллеливанием процесса вычислений при обра- ботке реальных данных площадной сейсморазведки. Разработанная программа трехмерной конечно- разностной полноволновой миграции после суммы с распараллеливанием процесса вычислений была апробирована при обработке реальных наблюдений площадной сейсморазведки, проведенных с целью определения геологического строения структуры с Рис. 5. Сравнение срезов результативных кубов изображений, полученных: а – стандартной программой в системе Pro- MAX (в ГГП “Укргеофизика”); б – предложенным вариантом трехмерной полноволновой миграции после суммы с распараллеливанием процесса вычислений Fig. 5. Comparison of images of resultative cubes slices obtained: a – with the standard program in ProMAX system (GGP “Ukrgeofizika”); б – with the proposed version of three-dimensional post stack full-wave migration with parallelization of computing process 36 ISSN 1684-2189 GEOINFORMATIKA, 2016, № 4 (60) © А.О. Верпаховская, В.Н. Пилипенко, Е.В. Пилипенко наличием соляного тела. В Технологическом цен- тре ГГП “Укргеофизика” была выполнена обработ- ка этих данных в системе ProMAX с применением временной миграции Кирхгоффа после суммы. В свою очередь, нами осуществлена предложенная процедура трехмерной полноволновой конечно- разностной миграции с распараллеливанием про- цесса вычислений. Для сравнения результатов применения разных вариантов миграционных преобразований были использованы идентичные исходные данные: куб распределения скорости в среде и исходный куб сейсмических данных после применения процедуры суммирования трасс мето- дом общей глубинной точки (ОГТ). На рис. 5 демонстрируется сравнение срезов кубов, полученных с использованием стандартной программы миграции в системе ProMAX и про- граммы с распараллеливанием процесса вычисле- ний на кластере, разработанной в Институте гео- физики НАН Украины. Сравнение результатов позволяет подчеркнуть общую схожесть результатов. Разница видна в не- которых отдельных деталях изображения. На вы- деленном прямоугольником участке изображения наблюдается большее продление реперных отра- жающих горизонтов в сторону соляного тела на результате, полученном при использовании раз- работанного варианта конечно-разностной полно- волновой миграции, в сравнении с результатом стандартной миграции Кирхгоффа. Соляное тело прогнозируется при отсутствии протяженных от- ражающих горизонтов. Это отличие может быть объяснено более точным миграционным преобра- зованием в разработанной программе. Экспериментальные тесты показали, что сокра- щение времени вычислений в этой программе пря- мо пропорционально количеству задействованных процессоров. В данном примере к обработке был привлечен кластер с 32 процессорами. Времени для расчетов потребовалось примерно в 30 раз мень- ше, чем необходимо для вычислений на отдельном компьютере. выводы. Так как при обработке больших объемов сейсмических наблюдений важное значение имеют время и ресурсы, которые при этом затрачиваются, актуальной задачей современной сейсморазведки выступает разработка алгоритмов и программных реализаций методов обработки с учетом привлече- ния к расчетам кластеров. Особенно это касается процедуры миграции, которая нацелена на воссо- здание изображения глубинного строения района исследований по наблюденному волновому полю с требованием повышения детальности результата. Разработанный вариант конечно-разностной трехмерной полноволновой миграции после суммы с распараллеливанием процесса вычислений позво- ляет выполнять качественную обработку больших объемов данных пространственной сейсморазведки в сжатые сроки, что связано с количеством процес- соров в кластере. Согласно результатам испытаний, разработанные программы имеют достаточную точ- ность и эффективность даже в условиях геологи- ческого строения среды, осложненного наличием соляного тела. 1. Верпаховская А.О. Миграция исходных сейсмограмм и моделирование волнового поля с распараллеливанием процесса вычислений на кластере / А.О. Верпа ховская, В.Н. Пилипенко, Е.В. Пилипенко, Г.Д. Си до ренко // Геоінформатика. – 2013. – № 3. – C. 47–58. 2. Верпаховская А.О. 3D конечно-разностное моделиро- вание волнового поля с распараллеливанием вычисли- тельного процесса / А.О. Верпаховская, В.Н. Пилипен- ко // 2-я междунар. науч.-практ. конф. “Современные методы сейсморазведки при поисках месторождений нефти и газа в условиях сложнопостроенных структур (Сейсмо-2011)”, 18–24 сент. 2011 г., Украина, АР Крым, г. Феодосия, пгт Курортное: тез. докл. – К., 2011. – 1 електрон. опт. диск (CD-ROM). – 5 с. 3. Годунов С.К. Разностные схемы / С.К. Годунов, В.С. Рябенький. – М. : Наука, 1977. –440 с. 4. Пилипенко В.Н. Миграция исходных сейсмограмм об- щего пункта взрыва во временной области конечно- разностным методом / В.Н. Пилипенко, А.О. Верпа- ховская, Е.В. Пилипенко // 2-я междунар. науч.-практ. конф. “Современные методы сейсморазведки при по- исках месторождений нефти и газа в условиях слож- нопостроенных структур (Сейсмо-2011)”, 18–24 сент. 2011 г., Украина, АР Крым, г. Феодосия, пгт Курорт- ное: тез. докл. – К., 2011. – 1 електрон. опт. диск (CD-ROM). – 5 с. 5. Пилипенко В.Н. Формирование трехмерного изображе- ния среды по сумме ОГТ для изучения геологичес- кого строения шахтных полей / В.Н. Пилипенко, А.О. Верпаховская, В.Б. Будкевич, Е.В. Пилипенко // Геофизический журнал. – 2015. – Т. 37, № 4. – C. 104–113. 6. A Parallel Algorithm of Kirchhoff Pre-stack Depth Migra- tion Based on GPU / Y. Wang, C. Li, Y. Tian, H. Yan, C. Zhao, J. Zhang // 14th Inter. conf. proceed. P. 2, “Algo- rithms and Architectures for Parallel Processing”, august, 24–27, 2014. – Dalian, China, 2014. – P. 207–218. 7. Claebout J.F. Downward continuation of moveout- corrected seismograms / J.F. Claebout, S.M. Doherty // Geophysics. – 1972. – V. 37, iss. 5. – P. 741–768. 8. Computing prestack Kirchhoff time migration on general purpose GPU / X. Shi, C. Li, S. Wang, H. Wang // Computers & Geosciences. – 2011. – V. 37, iss. 10. – P. 1702–1710. 9. GPU-accelerated direct sampling method for multiple- point statistical simulation / T. Huang, X. Li., T. Zhang, D. Lu // Computers & Geosciences. – 2013. – V. 57. – P. 13–23. 10. Li Z. Wave-field extrapolation by the linearly transformed wave equation // Geophysics. – 1986. – V. 51, iss. 8. – P. 1538–1551. 11. Parallelization Strategies for Seismic Modeling Algo - rithms / S. Chakraborty, S. Yerneni, S. Phadke, D. Bhard- waj // J. Ind. Geophys. Union. – 2003. – V. 7, no. 1. – P. 11–14. 37ISSN 1684-2189 ГЕОІНФОРМАТИКА, 2016, № 4 (60) © А.О. Верпаховская, В.Н. Пилипенко, Е.В. Пилипенко 12. PVM: Parallel Virtual Marchine: A Users’ Guide and Tu- torial for Networked Parallel Computing / A. Geist, A. Begu- elin, J. Dongarra, W. Jiang, R. Manchek, V. Sunderam. – Cambridge: The MIT Press, England, 1994. – 298 p. 13. Sun W. Parallel Seismic Propagation Simulation in Anisotropic Media by Irregular Grids Finite Difference Method on PC Cluster / W. Sun, J. Shu, W. Zheng // Intern. Conf. “Computational Science and Its Applica- tions – ICCSA”, Singapore, May 9–12, 2005. Proceed. P. 4. – Singapore, 2005. – P. 762–771. Поступила в редакцию 06.09.2016 г. сКІнченнорІзницева мІграцІя У тривимІрномУ варІантІ з розпаралелюванням процесУ обчислень О.О. Верпаховська, В.М. Пилипенко, О.В. Пилипенко Інститут геофізики ім. С.І. Субботіна НАН України, просп. Акад. Палладіна, 32, м. Київ, 03680, Україна, e-mail: alversim@gmail.com, vpylypenko@gmail.com, lenasloboda@gmail.com Перехід сейсморозвідки на тривимірні або площові системи спостережень приводить до значного збільшення обсягу зареєстрованих хвильових полів, які необхідно обробити у найкоротші терміни. При цьому потрібно враховувати постійно зростаючі вимоги до детальності результату і складність будови досліджуваної площі. Водночас, незважаючи на швидкий прогрес у сфері розвитку обчислювальної техніки, з’являється проблема недостатності ресурсів для обробки тривимірних сейсмічних спостережень на окремо взятому комп’ютері. Тому задача програмної реалізації існуючих процедур обробки із залученням кластера стає надзвичайно актуальною в сучасній сейсморозвідці. Розглянуто розроблені алгоритм і програмну реалізацію тривимірної скінченнорізницевої міграції після суми з розпаралелюванням процесу обчислень. Ключові слова: сейсморозвідка, хвильове поле, моделювання, скінченнорізницевий метод, тривимірна міграція після суми, алгоритм, обчислювальна техніка, кластер, обробка даних, розпаралелювання процесу обчислень. 3D FINITE-DIFFERENCE MIGRATION WITH PARALLELIZATION OF COMPUTING PROCESS O.O. Verpakhovska, N.V. Pylypenko, O.V. Pylypenko 1Institute of Geophysics, National Academy of Science of Ukraine, 32, Palladin Ave., Kiev, 03680, Ukraine, e-mail: alversim@gmail.com, vpylypenko@gmail.com, lenasloboda@gmail.com The purpose of the paper is to develop a three-dimensional post stack finite-difference migration with parallelization of computing process to process 3D seismic observations on a separate computer, taking into account the ever- increasing requirements for detailed results and the complexity of the structure of the study area. The effectiveness of the developed version of the post stack finite-difference migration is proved with practical examples, in particular, for the structure of medium complicated by the presence of the salt body. Design/methodology/approach. Algorithm of a three-dimensional post stack migration is based on reverse full-wave field continuation in the medium that is carried out by solving the differential wave equation using a finite difference method. In this case the differential wave equation is approximated by the difference one in the four-dimensional space-time grid. In this approach, the coordinate system is converted according to the seismic wave propagation from the depths to the surface, ensuring optimal finite-difference wave field continuation. Parallelization of computa- tions process is on time slices which are defined with a queue. The calculation of the previous slice is stored in the intermediate memory cube. In parallelizing we used library pthread, which is present in all modern versions of the Linux system and allows you to control the execution of the task in the separation calculations on several processors. The software was developed according to the proposed algorithm of a three-dimensional post stack finite-difference migration with parallelization of the computing process for processing. Findings. The developed three-dimensional post stack full-wave finite-difference migration with parallelization of com- puting process for processing has been tested in a model and real mode. The obtained results confirm the applicability of the developed method of migration in studding the geological environment of deep structure with different degrees of complexity. To demonstrate the effectiveness of this method we compared the results obtained with those obtained using standard software migration system ProMAX and the developed program with parallelization of computing process on the cluster, developed at the Institute of Geophysics. The comparison of the results allows us to emphasize a general similarity of the results and the difference in some of the particular parts of the image (larger extension of reflecting ho- rizons in the direction of the salt body as a result of applying the proposed variant of post stack full-wave finite-difference migration), which may be attributed to a more accurate migration transformation in the developed program. Practical value/implications. The developed version of a three-dimensional post stack full-wave finite-difference migration with parallelization of computing process allows on to carry out high-quality processing of large volumes of spatial seismic data in a short time, which depend on the number of processors in the cluster. The results of the 38 ISSN 1684-2189 GEOINFORMATIKA, 2016, № 4 (60) © А.О. Верпаховская, В.Н. Пилипенко, Е.В. Пилипенко testing of developed programs as in model and real data areal seismic survey, prove accuracy and efficiency even in the structure of the medium complicated by the presence of salt body, which is important for oil and gas companies, exploration activities. Keywords: seismic survey, seismic wave propagation, wave field, modeling, full-wave field continuation, finite-dif- ference method, three-dimensional post stack migration, space-time grid, computer technology, algorithm, cluster, data processing, parallelization of computing process. References: 1. Verpakhovska A.O., Sydorenko G.D., Pylypenko V.N., Pylypenko E.V. A Finite-Deference Method of Pre-Stack Migration Procedures and Modeling of the Wave Field with Parallelizing of Calculation on Cluster. Geoinformatika, 2013, no. 3, pp. 47-58 (in Russian). 2. Verpakhovska A.O., Pylypenko V.N. 3-D finite-difference modeling of wave field with parallelization of computing pro- cess. Sovremennye metody seysmorazvedki pri poiskakh mestorozhdeniy nefti i gaza v usloviyakh slozhnopostroennykh struktur (Seysmo-2011), 2 mezhdunarodnaya nauchno-prakticheskaya konferentsiya, 18-24 sentyabrya 2011, Ukraina, AR Krym, Feodosiya, Kurortnoe: tezisy dokladov. CD-ROM, Kiev, 2011, 5 p. (in Russian). 3. Godunov S.K., Ryaben’kiy V.S. Raznostnye skhemy. Moscow: Nauka, 1977, 440 p. (in Russian) 4. Pylypenko V.N., Verpakhovska A.O., Pylypenko O.V. The migration of common shot seismograms in the time domain using finite-difference method. Sovremennye metody seysmorazvedki pri poiskakh mestorozhdeniy nefti i gaza v usloviyakh slozhnopostroennykh struktur (Seysmo-2011), 2 mezhdunarodnaya nauchno-prakticheskaya konferentsiya, 18-24 sentyabrya 2011, Ukraina, AR Krym, Feodosiya, Kurortnoe: tezisy dokladov. CD-ROM. Kiev, 2011, 5 p. (in Russian). 5. Pylypenko V.N., Verpakhovska A.O., Budkevych V.B., Pylypenko O.V. The formation of three-dimensional image of the medium on the CDP sum to study the geological structure of the mine fields. Geofizicheskiy zhurnal, 2015, vol. 37, no. 4, pp. 104-113 (in Russian). 6. Wang Y., Li C., Tian Y., Yan H., Zhao C., Zhang J. A Parallel Algorithm of Kirchhoff Pre-stack Depth Migration Based on GPU. Algorithms and Architectures for Parallel Processing, 14th International Conference. Proceedings. Part II, august, 24-27, 2014. Dalian, China, 2014, pp. 207-218. 7. Claebout J.F., Doherty S.M. Downward continuation of moveout-corrected seismograms. Geophysics, 1972, vol. 37, iss. 5, pp. 741-768. 8. Shi X., Li C., Wang S., Wang H. Computing prestack Kirchhoff time migration on general purpose GPU. Computers & Geosciences, 2011, vol. 37, iss. 10, pp.1702-1710. 9. Huang T., Li X., Zhang T., Lu D. GPU-accelerated Direct Sampling method for multiple-point statistical simulation. Computers & Geosciences, 2013, 57, рp. 13-23. 10. Li Z. Wave-field extrapolation by the linearly transformed wave equation. Geophysics, 1986, vol. 51, iss. 8, pp. 1538- 1551. 11. Chakraborty S., Yerneni S., Phadke S., Bhardwaj D. Parallelization Strategies for Seismic Modelling Algorithms. Journal of Indian Geophysical Union, 2003, vol. 7, no.1, pp. 11-14. 12. Geist A., Beguelin A., Dongarra J., Jiang W., Manchek R., Sunderam V. Parallel Virtual Machine: A Users’ Guide and Tutorial for Networked Parallel Computing. Cambridge: The MIT Press, England, 1994, 298p. 13. Sun W., Shu J., Zheng W. Parallel Seismic Propagation Simulation in Anisotropic Media by Irregular Grids Finite Dif- ference Method on PC Cluster. Computational Science and Its Applications - ICCSA, 2005: International Conference, Singapore, May 9-12, 2005. Proceedings. Part IV, pp. 762-771. Received 06/09/2016
id nasplib_isofts_kiev_ua-123456789-144697
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
issn 1684-2189
language Russian
last_indexed 2025-12-07T18:34:11Z
publishDate 2016
publisher Центр менеджменту та маркетингу в галузі наук про Землю ІГН НАН України
record_format dspace
spelling Верпаховская, А.О.
Пилипенко, В.Н.
Пилипенко, Е.В.
2019-01-01T21:32:21Z
2019-01-01T21:32:21Z
2016
Конечно-разностная миграция в трехмерном варианте с распараллеливанием процесса вычислений / А.О. Верпаховская, В.Н. Пилипенко, Е.В. Пилипенко // Геоінформатика. — 2016. — № 4. — С. 29-38. — Бібліогр.: 11 назв. — рос.
1684-2189
https://nasplib.isofts.kiev.ua/handle/123456789/144697
550.834
Переход сейсморазведки на трехмерные или площадные системы наблюдений ведет к значительному увеличению объема зарегистрированных волновых полей, которые необходимо обработать в кратчайшие сроки. При этом необходимо учитывать постоянно возрастающие требования к детальности результата и сложность строения изучаемой площади. В то же время, несмотря на быстрый прогресс в области развития вычислительной техники, появляется проблема недостаточности ресурсов для обработки трехмерных сейсмических наблюдений на отдельно взятом компьютере. Поэтому задача программной реализации существующих процедур обработки с привлечением кластера становится чрезвычайно актуальной в современной сейсморазведке. Рассмотрены разработанные алгоритм и программная реализация трехмерной конечно-разностной миграции после суммы с распараллеливанием процесса вычислений.
Перехід сейсморозвідки на тривимірні або площові системи спостережень приводить до значного збільшення обсягу зареєстрованих хвильових полів, які необхідно обробити у найкоротші терміни. При цьому потрібно враховувати постійно зростаючі вимоги до детальності результату і складність будови досліджуваної площі. Водночас, незважаючи на швидкий прогрес у сфері розвитку обчислювальної техніки, з’являється проблема недостатності ресурсів для обробки тривимірних сейсмічних спостережень на окремо взятому комп’ютері. Тому задача програмної реалізації існуючих процедур обробки із залученням кластера стає надзвичайно актуальною в сучасній сейсморозвідці. Розглянуто розроблені алгоритм і програмну реалізацію тривимірної скінченнорізницевої міграції після суми з розпаралелюванням процесу обчислень.
The purpose of the paper is to develop a three-dimensional post stack finite-difference migration with parallelization of computing process to process 3D seismic observations on a separate computer, taking into account the ever-increasing requirements for detailed results and the complexity of the structure of the study area. The effectiveness of the developed version of the post stack finite-difference migration is proved with practical examples, in particular, for the structure of medium complicated by the presence of the salt body.
 Design/methodology/approach. Algorithm of a three-dimensional post stack migration is based on reverse full-wave field continuation in the medium that is carried out by solving the differential wave equation using a finite difference method. In this case the differential wave equation is approximated by the difference one in the four-dimensional space-time grid. In this approach, the coordinate system is converted according to the seismic wave propagation from the depths to the surface, ensuring optimal finite-difference wave field continuation. Parallelization of computations process is on time slices which are defined with a queue. The calculation of the previous slice is stored in the intermediate memory cube. In parallelizing we used library pthread, which is present in all modern versions of the Linux system and allows you to control the execution of the task in the separation calculations on several processors. The software was developed according to the proposed algorithm of a three-dimensional post stack finite-difference migration with parallelization of the computing process for processing.
 Findings. The developed three-dimensional post stack full-wave finite-difference migration with parallelization of computing process for processing has been tested in a model and real mode. The obtained results confirm the applicability of the developed method of migration in studding the geological environment of deep structure with different degrees of complexity. To demonstrate the effectiveness of this method we compared the results obtained with those obtained using standard software migration system ProMAX and the developed program with parallelization of computing process on the cluster, developed at the Institute of Geophysics. The comparison of the results allows us to emphasize a general similarity of the results and the difference in some of the particular parts of the image (larger extension of reflecting horizons in the direction of the salt body as a result of applying the proposed variant of post stack full-wave finite-difference migration), which may be attributed to a more accurate migration transformation in the developed program.
 Practical value/implications. The developed version of a three-dimensional post stack full-wave finite-difference migration with parallelization of computing process allows on to carry out high-quality processing of large volumes of spatial seismic data in a short time, which depend on the number of processors in the cluster. The results of the testing of developed programs as in model and real data areal seismic survey, prove accuracy and efficiency even in the structure of the medium complicated by the presence of salt body, which is important for oil and gas companies,
 exploration activities.
ru
Центр менеджменту та маркетингу в галузі наук про Землю ІГН НАН України
Геоінформатика
Математичні методи та комп'ютерні технології геолого-геофізичних досліджень Землі
Конечно-разностная миграция в трехмерном варианте с распараллеливанием процесса вычислений
Скінченнорізницева міграція у тривимірному варіанті з розпаралелюванням процесу обчислень
3D finite-difference migration with parallelization of computing process
Article
published earlier
spellingShingle Конечно-разностная миграция в трехмерном варианте с распараллеливанием процесса вычислений
Верпаховская, А.О.
Пилипенко, В.Н.
Пилипенко, Е.В.
Математичні методи та комп'ютерні технології геолого-геофізичних досліджень Землі
title Конечно-разностная миграция в трехмерном варианте с распараллеливанием процесса вычислений
title_alt Скінченнорізницева міграція у тривимірному варіанті з розпаралелюванням процесу обчислень
3D finite-difference migration with parallelization of computing process
title_full Конечно-разностная миграция в трехмерном варианте с распараллеливанием процесса вычислений
title_fullStr Конечно-разностная миграция в трехмерном варианте с распараллеливанием процесса вычислений
title_full_unstemmed Конечно-разностная миграция в трехмерном варианте с распараллеливанием процесса вычислений
title_short Конечно-разностная миграция в трехмерном варианте с распараллеливанием процесса вычислений
title_sort конечно-разностная миграция в трехмерном варианте с распараллеливанием процесса вычислений
topic Математичні методи та комп'ютерні технології геолого-геофізичних досліджень Землі
topic_facet Математичні методи та комп'ютерні технології геолого-геофізичних досліджень Землі
url https://nasplib.isofts.kiev.ua/handle/123456789/144697
work_keys_str_mv AT verpahovskaâao konečnoraznostnaâmigraciâvtrehmernomvariantesrasparallelivaniemprocessavyčislenii
AT pilipenkovn konečnoraznostnaâmigraciâvtrehmernomvariantesrasparallelivaniemprocessavyčislenii
AT pilipenkoev konečnoraznostnaâmigraciâvtrehmernomvariantesrasparallelivaniemprocessavyčislenii
AT verpahovskaâao skínčennoríznicevamígracíâutrivimírnomuvaríantízrozparalelûvannâmprocesuobčislenʹ
AT pilipenkovn skínčennoríznicevamígracíâutrivimírnomuvaríantízrozparalelûvannâmprocesuobčislenʹ
AT pilipenkoev skínčennoríznicevamígracíâutrivimírnomuvaríantízrozparalelûvannâmprocesuobčislenʹ
AT verpahovskaâao 3dfinitedifferencemigrationwithparallelizationofcomputingprocess
AT pilipenkovn 3dfinitedifferencemigrationwithparallelizationofcomputingprocess
AT pilipenkoev 3dfinitedifferencemigrationwithparallelizationofcomputingprocess