Оптимизация обработки больших масcивов данных в кластерных системах

Для задач параллельной обработки больших наборов данных узким местом, как правило, оказывается файловое хранилище. Рассмотрено влияние упаковки данных на скорость вычислений. На основе ранее разработанной модели получены оценки минимального времени выполнения программ с учетом времени упаковки/распа...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Datum:2010
Hauptverfasser: Назаренко, Е.В., Тульчинский, В.Г., Тульчинский, П.Г.
Format: Artikel
Sprache:Russisch
Veröffentlicht: Інститут програмних систем НАН України 2010
Schlagworte:
Online Zugang:https://nasplib.isofts.kiev.ua/handle/123456789/14689
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Zitieren:Оптимизация обработки больших масcивов данных в кластерных системах / Е.В. Назаренко, В.Г. Тульчинский, П.Г. Тульчинский// Пробл. програмув. — 2010. — № 2-3. — С. 149-154. — Бібліогр.: 34 назв. — рос.

Institution

Digital Library of Periodicals of National Academy of Sciences of Ukraine
_version_ 1859993794376630272
author Назаренко, Е.В.
Тульчинский, В.Г.
Тульчинский, П.Г.
author_facet Назаренко, Е.В.
Тульчинский, В.Г.
Тульчинский, П.Г.
citation_txt Оптимизация обработки больших масcивов данных в кластерных системах / Е.В. Назаренко, В.Г. Тульчинский, П.Г. Тульчинский// Пробл. програмув. — 2010. — № 2-3. — С. 149-154. — Бібліогр.: 34 назв. — рос.
collection DSpace DC
description Для задач параллельной обработки больших наборов данных узким местом, как правило, оказывается файловое хранилище. Рассмотрено влияние упаковки данных на скорость вычислений. На основе ранее разработанной модели получены оценки минимального времени выполнения программ с учетом времени упаковки/распаковки и коэффициента сжатия данных. Полученные оценки опробованы на примере сжатия временных кубов для ускорения процедуры миграции сейсмограмм. For tasks of massive dataset processing the file storage usually provided to be a bottleneck. The data compression affect on computation speed is examined. On the base of the earlier built model the minimal execution time estimates with accounting the pack/unpack time and the data compression coefficient are obtained. The obtained estimates have been verified on the sample of time cubes compression for acceleration of seismic migration procedure.
first_indexed 2025-12-07T16:33:39Z
format Article
fulltext Паралельне програмування. Розподілені системи і мережі © Е.В. Назаренко, В.Г. Тульчинский, П.Г. Тульчинский, 2010 ISSN 1727-4907. Проблеми програмування. 2010. № 2–3. Спеціальний випуск 149 УДК 004 ОПТИМИЗАЦИЯ ОБРАБОТКИ БОЛЬШИХ МАСCИВОВ ДАННЫХ В КЛАСТЕРНЫХ СИСТЕМАХ Е.В. Назаренко, В.Г. Тульчинский, П.Г. Тульчинский Институт кибернетики имени В.М. Глушкова НАН Украины, 03687, Киев, проспект Академика Глушкова, 40, т. 526 3603, pgt@ukr.net Для задач параллельной обработки больших наборов данных узким местом, как правило, оказывается файловое хранилище. Рассмотрено влияние упаковки данных на скорость вычислений. На основе ранее разработанной модели получены оценки минимального времени выполнения программ с учетом времени упаковки/распаковки и коэффициента сжатия данных. Полученные оценки опробованы на примере сжатия временных кубов для ускорения процедуры миграции сейсмограмм. For tasks of massive dataset processing the file storage usually provided to be a bottleneck. The data compression affect on computation speed is examined. On the base of the earlier built model the minimal execution time estimates with accounting the pack/unpack time and the data compression coefficient are obtained. The obtained estimates have been verified on the sample of time cubes compression for acceleration of seismic migration procedure. Введение Значительную часть научных и прикладных задач, решаемых на вычислительных кластерах, составляют задачи однородной обработки больших массивов данных. Они, как правило, легко распараллеливаются методом геометрической декомпозиции, так как обладают естественной параллельностью по данным. Такие задачи возникают, в частности, в геофизике (обработка результатов сейсмических и электромагнитных исследований земной коры), в ядерной физике, метеорологии, биологии, при обработке видео, естественно- языковых текстов, в экономических расчетах (OLAP, Data Mining и статистическая обработка больших баз данных) [1]. В связи с относительной простотой масштабирования вычислительных ресурсов в кластерной архитектуре за последние годы достигнут значительный рост числа процессорных элементов, доступных в современных кластерах. Однако возможности наращивания производительности систем хранения данных отстают от быстро растущей скорости вычислений. Для решения задач массивной обработки данных узким местом, как правило, становится система хранения. Дело в том, что для эффективного обслуживания параллельных запросов необходимо почти линейное относительно числа узлов увеличение скорости ввода- вывода, в то время, как рост производительности аппаратуры хранения данных отстает от роста скорости процессоров [2]. Влияние файловых операций на общую производительность параллельной программы исследовались еще в конце 60-х, в частности, одним из родоначальников теории параллельных вычислений Амдалом [3]. И хотя впоследствии производительность ввода-вывода ненадолго оказалась вне фокуса исследований высокопроизводительных вычислений [4, 5], так как размещение всех данных в оперативной памяти считалось обязательным условием эффективности вычислений, эта тема продолжала разрабатываться в связи с сетевыми файловыми системами [6 – 8]. В середине 90-х появление вычислительных кластеров вызвало широкий интерес к программным и аппаратным архитектурам, способным поддержать высокую степень распараллеливания при вводе-выводе данных. Уже в ранних работах [9, 10] была обнаружена главная специфика доступа к данным параллельных программ с интенсивным вводом-выводом: непоследовательное чтение небольших порций данных. Для оптимизации работы системы хранения в таком экстремальном режиме были разработаны специальные методы кэширования [11, 12]. Кэширование реализовывалось в форме параллельных файловых систем и параллельных библиотек ввода-вывода. Параллельные файловые системы оптимизируют использование аппаратуры хранения данных [13 – 17], а параллельные библиотеки ввода-вывода – управление доступом к данным внутри самой программы [18 – 25]. В [26] предложена параллельная система хранения данных для грид-систем. В [27 – 29] проблема эффективной параллельной обработки больших объемов данных рассматривалась не с системной, а с прикладной точки зрения. А именно: – оптимизации распределения ресурсов существующего кластера, т. е. подбор числа процессоров и способа размещения данных, обеспечивающих, минимальное время выполнения программы, – оценки ожидаемого эффекта от распараллеливания последовательной программы для использовании на существующем кластере, – оптимизации архитектуры кластера и аппаратно-программного решения под определенный класс задач. Продолжая тему оптимизации параллельной обработки больших объемов данных, в этой работе мы рассматриваем применение алгоритмов сжатия данных для снижения нагрузки на файловую систему. Паралельне програмування. Розподілені системи і мережі 150 Эффективность упаковки данных при интенсивном вводе-выводе В [28] предложена следующая модель синхронной параллельной обработки большого объема сейсмических данных на кластере, на котором N процессов выполняются параллельно. Работа каждого процесса может быть представлена в виде чередования расчетов продолжительностью n it и обращений к данным – чтения или записи файлов – продолжительностью n i с ожиданием продолжительностью n i . Еще S процессов или устройств обслуживают обращения к данным. Каждый из них ждет поступления запроса от одного из вычислительных процессов, затем выполняет его. Пока обслуживающий процесс выполняет запрос, на него могут поступить другие запросы. Все они ставятся в очередь неограниченной емкости и обслуживаются в порядке поступления. Коммуникационные расходы, не относящиеся к чтению/записи данных, предполагаем пренебрежимо малыми. Время завершения всех N процессов, состоящих из i шагов, обозначим  0 1 1 1 2 2 2 2 2 1.. max ...n n n n n n n n n n N i n N T t t t t                  . Пусть общие затраты на чтение/запись данных последовательной программы 1 iD  , в том числе на операции чтения приходится 1R . Обозначим суммарное время выполнения обязательных для каждого процесса (не распараллеливаемых) операций чтения R sec , записи – W sec , максимальное время одной операции чтения/записи – max , среднее время операции доступа к данным –    , средний квадрат –  2  . Все перечисленные параметры можно непосредственно измерить. Обозначим долю распараллеливаемой части расчетов 0 1  .  определяется путем небольшого числа экспериментов с параллельной программой. Доля расчетной части последовательной программы составляет  1 1 1T D T   , доля чтения – 1 1R D  . Поведение такой модели зависит от соотношения между временем расчетов и временем доступа к данным. Будем рассматривать два предельных случая: со слабой загрузкой, когда очередь запросов на доступ к данным одной операции успевает «рассосаться» до начала следующей операции доступа к данным ( i n i n n i t 1 ), и с полной загрузкой, когда эта очередь, возникнув на первом шаге, продолжает расти ( i n i n n i t 1 ). При расчленении непересекающиеся подмножества данных управляются процессами на разных узлах. В случае расчленения время выполнения зависит от распределения данных между фрагментами, но дублирование записи не требуется. Для случайного распределения можно оценить среднее значение времени работы при слабой загрузке как [29]:       2 2 2 1 2 1 1 2 4 2 N N NS N NST T C D C D                 , (1) где 1 1N N C N          ,   sec sec 1 1 1 1 W R NSD N NS T             . При полной загрузке:     const RW N t S NT S T      secsec 1 1 1   , где N iconst ttt  1 0 . (2) Отметим, что 1TCc NN  – это время «чистых» расчетов одного из N процессов, а 1TDd NSN  – это «чистое» время чтения-записи данных такого процесса. Обе величины нетрудно измерить. Перепишем (1) и (2), выразив через новые переменные:       2 2 2 2 1 1 2 4 2 N N N N NT c d c d          при слабой загрузке, (3)  N N constT Nd t   при полной загрузке. (4) Результаты опробования [28, 29] показали, что точка перегиба экспериментального графика зависимости времени выполнения программы массивной параллельной обработки данных находится вблизи точки пересечения графиков слабой и полной загрузки (см., например, рис. 1). В этой точке перегиба достигается максимальная для данной программы производительность, соответствующая среднему времени выполнения      NnNN TTNnTt   : . При уменьшении объема операций чтения-записи файлов за счет сжатия данных время выполнения программы уменьшается в результате одновременного воздействия двух факторов: уменьшения Nd и увеличения оптимального числа процессов N . В то же время, увеличение объема чистых расчетов Nc в связи с затратами на упаковку- распаковку данных ограничивает эффект от сжатия данных. Паралельне програмування. Розподілені системи і мережі 151 0 200 400 600 800 1000 1200 0 10 20 30 40 50 60 70 количество параллельных процессов в р е м я Фактическое время миграции Полная загрузка по формуле (4) Слабая загрузка по формуле (3) Рис. 1. Глубинная пре-стек миграция Кирхгофа в режиме расчленения данных (параллельная файловая система на основе винчестеров 8 узлов) Построим соотношение изоэффективности сжатия, показывающее, насколько временные затраты связанные со сжатием информации компенсируются уменьшением затрат на чтение-запись в связи с сокращением объема данных. Подставив (4) в (3) для точки пересечения получаем:     2 2 2 2 1 1 2 4 2 N const N N N NNd t c d c d          , откуда путем несложных преобразований:         2 2 1 1 2 N N N const const N d c N d t N t d           , (5) Поскольку нас интересует только случай сильного распараллеливания при значительном времени работы программы, целесообразно предположить const Nt d и 1N . В этом случае (5) можно упростить до:  1N Nc N d  . (6) Соотношение (6) действительно только в точке перегиба графика времени выполнения. При дублировании на всех или нескольких узлах расположены точные копии данных. В частном случае централизации единственная копия данных управляется одним процессом на одном узле кластера или в дисковой стойке ( 1S  ).Для стратегии дублирования при слабой загрузке время работы параллельной программы составляет [29]:   sec 1 sec max 1 1 1 1 1 1 1 R W N N S N N T T N N S N S S                                            . (7) При большом числе процессов и интенсивном обращении к файлам обслуживание чтения и записи данных почти полностью определяет время работы:       sec 1 sec 1 1 1 1 R W N const S T T N t S S                      . (8) В случае дублирования время «чистых» расчетов одного из N процессов то же, а время «чистого» чтения-записи данных отличается: sec 1 sec 1 1 1 1 R W N S N d T N S N S                    . (9) Обозначим максимальное измеренное время выполнения одной файловой операции параллельной программой max max 1S S   . (10) Перепишем (7) и (8), выразив через новые переменные (9) и (10):     max1 S N N NT c d N     при слабой загрузке, (11)  N N constT Nd t   при полной загрузке. (12) Паралельне програмування. Розподілені системи і мережі 152 Откуда для точки пересечения графиков (11) и (12) получаем:   max1 S N N constc N d t    , Из предположения долгого времени работы параллельной программы max S Nd  :  1N Nc N d  . Таким образом, независимо от стратегии распределения данных при оптимальном числе процессоров соотношение расчетов и операций доступа к данным одного процесса описывается формулой (6). Оценим влияние в результата применения алгоритма сжатия, который уменьшает объем данных, а значит и чистое время ввода-вывода, косвенно способствуя увеличению оптимального числа процессоров. Пусть коэффициент сжатия данных 1k  , Nz – дополнительное время упаковки и распаковки данных, ввод- вывод которых при реализации алгоритма без сжатия – Nd , а относительная скорость распаковки N Nv z d . Рассмотрим условие, при котором программа со сжатием данных работает на *N процессорах быстрее, чем исходная программа на N процессорах:              k d N N c N N z NNN 1 11 ** . (13) Путем несложных преобразований из (13) получается: * 1 N N N N k c N k d E cN v d      . (14) Назовем E изоэффективностью сжатия данных. В случае, если N – оптимальное число процессоров для исходной программы, согласно (6) выражение для E можно переписать как: 1 1    rN k N E . (15) Если 1E  , сжатие эффективно уже для *N N , т. е. обеспечивает ускорение без увеличения числа процессоров. Это – самый лучший вариант. Если максимально доступное число процессоров кластера – maxN и maxE N N , на этом кластере рассмотренный алгоритм сжатия не даст ускорения. Это – самый плохой вариант. В остальных случаях сжатие ускоряет расчет при условии увеличения числа задействованных процессоров. В целом изоэффективность позволяет характеризовать ожидаемый эффект ускорения параллельной программы от применения некоторого метода сжатия данных на основе анализа ее текущей производительности и обычных характеристик алгоритма сжатия – коэффициента сжатия и времени работы. Применение сжатия при миграции сейсмических данных Сейсмические исследования – основной поверхностный метод зондирования земных недр в поисках месторождений нефти и газа. Кроме того сейсмические исследования выполняются в связи с изучением землетрясений и в инженерной геологии. Данные сейсмических исследований современными методами могут достигать 100 терабайт на один объект [30]. Сжатие сейсмических данных традиционно применяется в связи с их хранением и передачей по сети. Разработаны методы сжатия сейсмических данных с потерями (прежде всего на основе вейвлет преобразования и его модификаций, а также адаптивных локальных дискретных косинус и синус преобразованиях, преобразовании Уолша, линейных преобразованиях с перекрытиями) и без потерь, т. е. с точным восстановлением исходных данных (на основе битовых масок, предсказывающего кодирования, модификаций LZW), а также двухэтапные процедуры, состоящие из преобразования с потерями и обработки остатков [31]. Однако при исследовании производительности пре-стек миграций Кирхгофа 3D мы обнаружили, что параллельная файловая система обеспечивает достаточно эффективное чтение сейсмограмм. Ее производительности недостаточно на этапе суммирования, когда для обработки одной трассы необходимо использовать два набора времен: от источника и от приемника. При регулярной схеме наблюдений разные координаты источников и приемников измеряются тысячами, а число трасс – миллионами. Поскольку загрузка готового файла времен занимает на нашем кластере значительно меньше времени, чем его расчет, один файл времен приходится подгружать вместе с трассой. Типичный объем файла времен – десятки МБ, что создает предпосылки для применения сжатия. Паралельне програмування. Розподілені системи і мережі 153 Времена прихода падающей волны плавно возрастают в стороны от источника или приемника, с которым связан файл. Эта форма сильно отличается от типичной волновой формы сейсмических сигналов, поэтому для сжатия мы пробовали другие методы: упаковка приращения (УП), линейные альтернансные сплайны Чебышева (ЛАС) [32], наилучшая Чебышевская аппроксимация полиномами (НЧА) [33] и их сочетание с LZW (zip). Выбор методов определился соображениями гарантированной точности: времена используются для переноса сигнала с трассы, поэтому можно использовать алгоритм сжатия с потерями, однако он должен гарантировать выбор той же точки трассы, что и при использовании несжатых данных. Как правило, для этого достаточна точность аппроксимации 1–2 мс. Условию минимизации максимального отклонения отвечают методы НЧА и ЛАС. УП – простой эвристический метод. Его идея заключается в том, что при нормальной пространственной густоте сетки (до сотни метров) и типичных скоростях (от тысячи м/с) приращение времени прихода волны между соседними узлами не превысит 128 мс. УП хранит в узлах не значения времен, а их приращения в мс в виде коротких целых чисел (один байт на точку). УП – базовый формат хранения времен в нашей программе миграции обеспечивает сжатие в 4 раза и пренебрежимо быструю упаковку-распаковку (одно сложение на точку). Остальные методы сравниваются с УП. Исходные данные для расчета получены путем экспериментов на кластере Инпарком [34]. В оптимальном режиме миграция выполнялась на 15 узлах. Для простоты мы ограничились собственно миграцией, предполагая, что расчет временных кубов уже выполнен. (Запись временных кубов на этапе расчетов выполнялась в 520 раз реже, чем чтение на этапе миграции). Для тестирования выбранных алгоритмов сжатия мы использовали 10 случайно выбранных файлов времен. Среднее время чтения всех десяти кубов данных составило 26 с. Остальные данные сведены в таблицу. Таблица. Сравнение алгоритмов сжатия данных Алгоритм сжатия Время упаковки 10 файлов (с) Коэффициент сжатия r Время распаковки 10 файлов (с) Изоэффектив- ность сжатия E LZW 112 7,0 30 0,980 ЛАС 185 2,8 5 1,032 ЛАС +LZW 224 10,7 9 1,039 НЧА 1320 1,9 17 0,988 НЧА+LZW 1370 2,9 29 0,970 Два алгоритма сжатия получили оценку изоэффективности сжатия 1E  , которая означает наилучшую рекомендацию для применения. ЛАС, второй по изоэффективности, но более быстрый и простой в реализации, был выбран для реализации в программе миграции. В результате его применения было достигнуто реальное ускорение: 146 мин. счета вместо 171 мин. на том же наборе данных. Заключение В большом числе научных и технических приложений необходимо обрабатывать большие объемы данных. Несмотря на успехи в развитии аппаратуры хранения данных, параллельных файловых систем и параллельных библиотек ввода-вывода, система хранения данных часто оказывается «узким местом» при решении таких задач на вычислительных кластерах с большим числом узлов. В таких случаях время расчета не только перестает уменьшаться, но и начинает расти с увеличением числа используемых параллельных процессорных элементов. Применение сжатия данных может существенно снизить нагрузку на систему хранения данных. В результате максимально достижимое ускорение повышается не только из-за снижения «чистого» времени ввода-вывода, но и в связи с продвижением точки перегиба графика производительности в сторону большей степени распараллеливания. Благодаря этому двойному эффекту сжатие данных при параллельных вычислениях может оказаться выгодным даже тогда, когда упаковка-распаковка требуют больших вычислений. Полученные оценки позволяют оценить целесообразность внедрения того или иного алгоритма упаковки данных для оптимизации выполнения программы на кластере. Их использование в сочетании с формулами прогнозирования производительности программы позволяет находить наилучший баланс между скоростью, объемом данных и ошибкой восстановления. Паралельне програмування. Розподілені системи і мережі 154 1. Oldfield R., Kotz D. Scientific applications using parallel I/O / High Performance Mass Storage and Parallel I/O: Technologies and Applications. – New York: IEEE Computer Society Press and John Wiley & Sons. – 2001. – P. 655–666. 2. Hennessy J.L., Patterson D.A. Computer architecture: A quantitative approach. – Boston: Morgan Kaufmann Publishers. – 2006. – 696 p. 3. Amdahl G.M. Validity of the single-processor approach to achieving large scale computing capabilities // Proc. AFIPS Spring Joint Computer Conf. – Atlantic City: AFIPS Press. – 1967. – P. 483–485. 4. Kumar V., Gupta A. Analyzing Scalability of Parallel Algorithms and Architectures // J. of Parallel and Distributed Computing. – 1994. – Vol. 22. – P. 379–391. 5. Глушков В.М., Капитонова Ю.В., Летичевский А.А. К теории проектирования схеммного и программного оборудования микропроцессорных ЭВМ // Кибернетика. – 1978. – № 6. – С. 1–15. 6. Bell J., Casasent D., Bell C.G. An Investigation of Alternative Cache Organizations // IEEE Transactions on Computers. – 1974. – Vol. C-23 (4). – P. 346–351. 7. Kung H. T. Memory requirements for balanced computer architectures // Proceedings of the IEEE Symp. on Computer Architecture. – IEEE Press. – 1986. – P. 49–54. 8. Nitzberg B. Performance of the iPSC/860 Concurrent File System / Technical Report RND-92-020 of NAS Systems Division. – NASA Ames. – 1992. 9. Crandall P. E., Aydt R. A., Chien A. A., Reed. D. A. Input/output characteristics of scalable parallel applications // Proc. of Supercomputing ’95 Proc. of Supercomputing '95. – San Diego: IEEE Computer Society Press. – 1995. 10. Nieuwejaar N., Kotz D., Purakayastha A., Ellis C. S., Best M. File-access characteristics of parallel scientific workloads // IEEE Transactions on Parallel and Distributed Systems. – 1996. – No 7(10). – P. 1075–1089. 11. Фальфушинский В.В. Кэширование в кластерных системах // Компьютерная математика. – 2008. – №2. – C. 64–73. 12. Nitzberg W. J. Collective Parallel I/O. (PhD thesis). – Oregon: University of Oregon. – 1995. 13. Corbett P. F., D. G. Feitelson. The Vesta parallel file system / High Performance Mass Storage and Parallel I/O: Technologies and Applications. - New York: IEEE Computer Society Press and Wiley. – 2001. – P. 285–308. 14. Moyer S. A., Sunderam V. S. PIOUS: a scalable parallel I/O system for distributed computing environments // Proc. of Scalable High- Performance Computing Conf. – New York: IEEE Computer Society Press. – 1994. – P. 71–78. 15. Nieuwejaar N., Kotz D. The Galley parallel file system // Parallel Computing. – No 23(4). – 1997. – P. 447–476. 16. Schmuck R. L. F. B. GPFS: A shared-disk file system for large computing clusters // Proc. of 5th Conf. on File and Storage Technologies. – San Jose: IBM Almaden Research Center. – 2002. (www.usenix.org/events/fast02/full_papers/schmuck/schmuck.pdf). 17. Schwan P. Lustre : Building a file system for 1,000-node clusters. // ACM Transactions on Computer Systems (TOCS). – 2003. – Vol. 14(2). – P.200-222. (http://www.kernel.org/doc/ols/2003/ols2003-pages-380-386.pdf) 18. Lebre A., Huard G., Denneulin Y. I/O Scheduling Service for Multi-Application Clusters // IEEE Int. Conf. on Volume. – Barcelona: IEEE Computer Society Press. – 2006. – Р. 21–23. 19. Kotz D. Disk-directed I/O for MIMD multiprocessors. // Proc. of the 1994 Symp. on Operating Systems Design and Implementation. – Dartmouth: IEEE Computer Society Press. – 1994. – P. 61–74. 20. Seamons K. E., Chen Y., Jones P., Jozwiak J., Winslett M. Server-directed collective I/O in Panda. // Proc. of Supercomputing '95. – San Diego: IEEE Computer Society Press. – 1995. 21. Bennett R., Bryant K., Sussman A., Das R., Saltz J. Jovian: A framework for optimizing parallel I/O. // Proc. of Scalable Parallel Libraries Conf. - Mississippi State: IEEE Computer Society Press. – 1994. – P.10–20. 22. http://www.mcs.anl.gov/research/projects/romio/ 23. http://www.nersc.gov/nusers/resources/software/libs/io/mpiio.php 24. http://www.mpi-forum.org/docs/mpi-2.2/mpi22-report.pdf 25. http://aioli.imag.fr/ 26. Oldfield R., Kotz D. Armada: A parallel I/O framework for computational grids // Future Generation Computing Systems (FGCS). – 2002. – Vol. 18(4). – P. 501–523. 27. Гречко В.О., Гудзенко В.В. Продуктивность параллельной СУБД в кластерных системах // Компьютерная математика. – 2005. – №3. – C. 71-79. 28. Тульчинский В.Г., Чарута А.К. Оценка времени обработки данных в кластерных системах // Проблеми програмування. – 2006. – №2-3. – C. 118-123. 29. Перевозчикова О.Л., Тульчинский В.Г., Ющенко Р.А. Построение и оптимизация параллельных компьютеров для обработки больших объемов данных // Кибернетика и системный анализ. – 2006. – №4. – С. 117–129. 30. Donoho P.L. Seismic data compression: Improved data management for acquisition, transmission, storage, and processing. – Proc. Seismic. – 1998. 31. Wang W., Mishra P. A Partitioned Bitmask-based Technique for Lossless Seismic Data Compression. CISE Technical Report # 08-452. – University of Florida. – 2008. – 10 p. (http://www.cise.ufl.edu/~prabhat/Publications/seismicTR.pdf) 32. Исаев В.К., Плотников CA. Обратная задача Чебышева и сплайны Чебышева // Труды Математического института РАН. – 1995. – Т.221. – C. 164-185. 33. Каленчук-Порханова А.А., Вакал Л.П. Наилучшая чебышевская аппроксимация для сжатия численной информации // Компьютерная математика. – 2009. – № 1. – С. 99–107. 34. http://www.inparcom.com/ http://www.usenix.org/events/fast02/full_papers/schmuck/schmuck.pdf http://www.kernel.org/doc/ols/2003/ols2003-pages-380-386.pdf http://www.mcs.anl.gov/research/projects/romio/ http://www.nersc.gov/nusers/resources/software/libs/io/mpiio.php http://www.mpi-forum.org/docs/mpi-2.2/mpi22-report.pdf http://aioli.imag.fr/ http://www.cise.ufl.edu/~prabhat/Publications/seismicTR.pdf http://www.inparcom.com/
id nasplib_isofts_kiev_ua-123456789-14689
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
issn 1727-4907
language Russian
last_indexed 2025-12-07T16:33:39Z
publishDate 2010
publisher Інститут програмних систем НАН України
record_format dspace
spelling Назаренко, Е.В.
Тульчинский, В.Г.
Тульчинский, П.Г.
2010-12-27T17:03:01Z
2010-12-27T17:03:01Z
2010
Оптимизация обработки больших масcивов данных в кластерных системах / Е.В. Назаренко, В.Г. Тульчинский, П.Г. Тульчинский// Пробл. програмув. — 2010. — № 2-3. — С. 149-154. — Бібліогр.: 34 назв. — рос.
1727-4907
https://nasplib.isofts.kiev.ua/handle/123456789/14689
004
Для задач параллельной обработки больших наборов данных узким местом, как правило, оказывается файловое хранилище. Рассмотрено влияние упаковки данных на скорость вычислений. На основе ранее разработанной модели получены оценки минимального времени выполнения программ с учетом времени упаковки/распаковки и коэффициента сжатия данных. Полученные оценки опробованы на примере сжатия временных кубов для ускорения процедуры миграции сейсмограмм.
For tasks of massive dataset processing the file storage usually provided to be a bottleneck. The data compression affect on computation speed is examined. On the base of the earlier built model the minimal execution time estimates with accounting the pack/unpack time and the data compression coefficient are obtained. The obtained estimates have been verified on the sample of time cubes compression for acceleration of seismic migration procedure.
ru
Інститут програмних систем НАН України
Паралельне програмування. Розподілені системи і мережі
Оптимизация обработки больших масcивов данных в кластерных системах
Optimization of massive datasets processing on cluster systems
Article
published earlier
spellingShingle Оптимизация обработки больших масcивов данных в кластерных системах
Назаренко, Е.В.
Тульчинский, В.Г.
Тульчинский, П.Г.
Паралельне програмування. Розподілені системи і мережі
title Оптимизация обработки больших масcивов данных в кластерных системах
title_alt Optimization of massive datasets processing on cluster systems
title_full Оптимизация обработки больших масcивов данных в кластерных системах
title_fullStr Оптимизация обработки больших масcивов данных в кластерных системах
title_full_unstemmed Оптимизация обработки больших масcивов данных в кластерных системах
title_short Оптимизация обработки больших масcивов данных в кластерных системах
title_sort оптимизация обработки больших масcивов данных в кластерных системах
topic Паралельне програмування. Розподілені системи і мережі
topic_facet Паралельне програмування. Розподілені системи і мережі
url https://nasplib.isofts.kiev.ua/handle/123456789/14689
work_keys_str_mv AT nazarenkoev optimizaciâobrabotkibolʹšihmascivovdannyhvklasternyhsistemah
AT tulʹčinskiivg optimizaciâobrabotkibolʹšihmascivovdannyhvklasternyhsistemah
AT tulʹčinskiipg optimizaciâobrabotkibolʹšihmascivovdannyhvklasternyhsistemah
AT nazarenkoev optimizationofmassivedatasetsprocessingonclustersystems
AT tulʹčinskiivg optimizationofmassivedatasetsprocessingonclustersystems
AT tulʹčinskiipg optimizationofmassivedatasetsprocessingonclustersystems