Оптимизация обработки больших масcивов данных в кластерных системах
Для задач параллельной обработки больших наборов данных узким местом, как правило, оказывается файловое хранилище. Рассмотрено влияние упаковки данных на скорость вычислений. На основе ранее разработанной модели получены оценки минимального времени выполнения программ с учетом времени упаковки/распа...
Saved in:
| Date: | 2010 |
|---|---|
| Main Authors: | , , |
| Format: | Article |
| Language: | Russian |
| Published: |
Інститут програмних систем НАН України
2010
|
| Subjects: | |
| Online Access: | https://nasplib.isofts.kiev.ua/handle/123456789/14689 |
| Tags: |
Add Tag
No Tags, Be the first to tag this record!
|
| Journal Title: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Cite this: | Оптимизация обработки больших масcивов данных в кластерных системах / Е.В. Назаренко, В.Г. Тульчинский, П.Г. Тульчинский// Пробл. програмув. — 2010. — № 2-3. — С. 149-154. — Бібліогр.: 34 назв. — рос. |
Institution
Digital Library of Periodicals of National Academy of Sciences of Ukraine| _version_ | 1859993794376630272 |
|---|---|
| author | Назаренко, Е.В. Тульчинский, В.Г. Тульчинский, П.Г. |
| author_facet | Назаренко, Е.В. Тульчинский, В.Г. Тульчинский, П.Г. |
| citation_txt | Оптимизация обработки больших масcивов данных в кластерных системах / Е.В. Назаренко, В.Г. Тульчинский, П.Г. Тульчинский// Пробл. програмув. — 2010. — № 2-3. — С. 149-154. — Бібліогр.: 34 назв. — рос. |
| collection | DSpace DC |
| description | Для задач параллельной обработки больших наборов данных узким местом, как правило, оказывается файловое хранилище. Рассмотрено влияние упаковки данных на скорость вычислений. На основе ранее разработанной модели получены оценки минимального времени выполнения программ с учетом времени упаковки/распаковки и коэффициента сжатия данных. Полученные оценки опробованы на примере сжатия временных кубов для ускорения процедуры миграции сейсмограмм.
For tasks of massive dataset processing the file storage usually provided to be a bottleneck. The data compression affect on computation speed is examined. On the base of the earlier built model the minimal execution time estimates with accounting the pack/unpack time and the data compression coefficient are obtained. The obtained estimates have been verified on the sample of time cubes compression for acceleration of seismic migration procedure.
|
| first_indexed | 2025-12-07T16:33:39Z |
| format | Article |
| fulltext |
Паралельне програмування. Розподілені системи і мережі
© Е.В. Назаренко, В.Г. Тульчинский, П.Г. Тульчинский, 2010
ISSN 1727-4907. Проблеми програмування. 2010. № 2–3. Спеціальний випуск 149
УДК 004
ОПТИМИЗАЦИЯ ОБРАБОТКИ БОЛЬШИХ МАСCИВОВ ДАННЫХ
В КЛАСТЕРНЫХ СИСТЕМАХ
Е.В. Назаренко, В.Г. Тульчинский, П.Г. Тульчинский
Институт кибернетики имени В.М. Глушкова НАН Украины,
03687, Киев, проспект Академика Глушкова, 40, т. 526 3603,
pgt@ukr.net
Для задач параллельной обработки больших наборов данных узким местом, как правило, оказывается файловое хранилище.
Рассмотрено влияние упаковки данных на скорость вычислений. На основе ранее разработанной модели получены оценки
минимального времени выполнения программ с учетом времени упаковки/распаковки и коэффициента сжатия данных.
Полученные оценки опробованы на примере сжатия временных кубов для ускорения процедуры миграции сейсмограмм.
For tasks of massive dataset processing the file storage usually provided to be a bottleneck. The data compression affect on computation
speed is examined. On the base of the earlier built model the minimal execution time estimates with accounting the pack/unpack time and the
data compression coefficient are obtained. The obtained estimates have been verified on the sample of time cubes compression for
acceleration of seismic migration procedure.
Введение
Значительную часть научных и прикладных задач, решаемых на вычислительных кластерах, составляют
задачи однородной обработки больших массивов данных. Они, как правило, легко распараллеливаются
методом геометрической декомпозиции, так как обладают естественной параллельностью по данным. Такие
задачи возникают, в частности, в геофизике (обработка результатов сейсмических и электромагнитных
исследований земной коры), в ядерной физике, метеорологии, биологии, при обработке видео, естественно-
языковых текстов, в экономических расчетах (OLAP, Data Mining и статистическая обработка больших баз
данных) [1]. В связи с относительной простотой масштабирования вычислительных ресурсов в кластерной
архитектуре за последние годы достигнут значительный рост числа процессорных элементов, доступных в
современных кластерах. Однако возможности наращивания производительности систем хранения данных
отстают от быстро растущей скорости вычислений. Для решения задач массивной обработки данных узким
местом, как правило, становится система хранения. Дело в том, что для эффективного обслуживания
параллельных запросов необходимо почти линейное относительно числа узлов увеличение скорости ввода-
вывода, в то время, как рост производительности аппаратуры хранения данных отстает от роста скорости
процессоров [2].
Влияние файловых операций на общую производительность параллельной программы исследовались
еще в конце 60-х, в частности, одним из родоначальников теории параллельных вычислений Амдалом [3]. И
хотя впоследствии производительность ввода-вывода ненадолго оказалась вне фокуса исследований
высокопроизводительных вычислений [4, 5], так как размещение всех данных в оперативной памяти считалось
обязательным условием эффективности вычислений, эта тема продолжала разрабатываться в связи с сетевыми
файловыми системами [6 – 8].
В середине 90-х появление вычислительных кластеров вызвало широкий интерес к программным и
аппаратным архитектурам, способным поддержать высокую степень распараллеливания при вводе-выводе
данных. Уже в ранних работах [9, 10] была обнаружена главная специфика доступа к данным параллельных
программ с интенсивным вводом-выводом: непоследовательное чтение небольших порций данных. Для
оптимизации работы системы хранения в таком экстремальном режиме были разработаны специальные методы
кэширования [11, 12]. Кэширование реализовывалось в форме параллельных файловых систем и параллельных
библиотек ввода-вывода. Параллельные файловые системы оптимизируют использование аппаратуры хранения
данных [13 – 17], а параллельные библиотеки ввода-вывода – управление доступом к данным внутри самой
программы [18 – 25]. В [26] предложена параллельная система хранения данных для грид-систем.
В [27 – 29] проблема эффективной параллельной обработки больших объемов данных рассматривалась
не с системной, а с прикладной точки зрения. А именно:
– оптимизации распределения ресурсов существующего кластера, т. е. подбор числа процессоров и
способа размещения данных, обеспечивающих, минимальное время выполнения программы,
– оценки ожидаемого эффекта от распараллеливания последовательной программы для использовании
на существующем кластере,
– оптимизации архитектуры кластера и аппаратно-программного решения под определенный класс
задач.
Продолжая тему оптимизации параллельной обработки больших объемов данных, в этой работе мы
рассматриваем применение алгоритмов сжатия данных для снижения нагрузки на файловую систему.
Паралельне програмування. Розподілені системи і мережі
150
Эффективность упаковки данных при интенсивном вводе-выводе
В [28] предложена следующая модель синхронной параллельной обработки большого объема
сейсмических данных на кластере, на котором N процессов выполняются параллельно. Работа каждого
процесса может быть представлена в виде чередования расчетов продолжительностью
n
it и обращений к
данным – чтения или записи файлов – продолжительностью
n
i с ожиданием продолжительностью
n
i . Еще S
процессов или устройств обслуживают обращения к данным. Каждый из них ждет поступления запроса от
одного из вычислительных процессов, затем выполняет его. Пока обслуживающий процесс выполняет запрос,
на него могут поступить другие запросы. Все они ставятся в очередь неограниченной емкости и обслуживаются
в порядке поступления. Коммуникационные расходы, не относящиеся к чтению/записи данных, предполагаем
пренебрежимо малыми. Время завершения всех N процессов, состоящих из i шагов, обозначим
0 1 1 1 2 2 2 2 2
1..
max ...n n n n n n n n n n
N i
n N
T t t t t
.
Пусть общие затраты на чтение/запись данных последовательной программы 1 iD , в том числе на
операции чтения приходится 1R . Обозначим суммарное время выполнения обязательных для каждого процесса
(не распараллеливаемых) операций чтения
R
sec , записи –
W
sec , максимальное время одной операции
чтения/записи – max , среднее время операции доступа к данным – , средний квадрат – 2 . Все
перечисленные параметры можно непосредственно измерить. Обозначим долю распараллеливаемой части
расчетов 0 1 . определяется путем небольшого числа экспериментов с параллельной программой. Доля
расчетной части последовательной программы составляет 1 1 1T D T , доля чтения – 1 1R D .
Поведение такой модели зависит от соотношения между временем расчетов и временем доступа к
данным. Будем рассматривать два предельных случая: со слабой загрузкой, когда очередь запросов на доступ к
данным одной операции успевает «рассосаться» до начала следующей операции доступа к данным
( i n
i
n
n
i t 1 ), и с полной загрузкой, когда эта очередь, возникнув на первом шаге, продолжает расти
( i
n
i
n
n
i t 1 ).
При расчленении непересекающиеся подмножества данных управляются процессами на разных узлах.
В случае расчленения время выполнения зависит от распределения данных между фрагментами, но
дублирование записи не требуется. Для случайного распределения можно оценить среднее значение времени
работы при слабой загрузке как [29]:
2
2 2
1 2
1 1
2 4 2
N N NS N NST T C D C D
, (1)
где
1
1N
N
C
N
, sec sec
1
1
1 1
W R
NSD N
NS T
. При полной загрузке:
const
RW
N t
S
NT
S
T
secsec
1 1
1
, где
N
iconst ttt 1
0 . (2)
Отметим, что 1TCc NN – это время «чистых» расчетов одного из N процессов, а 1TDd NSN – это
«чистое» время чтения-записи данных такого процесса. Обе величины нетрудно измерить. Перепишем (1) и (2),
выразив через новые переменные:
2
2 2
2
1 1
2 4 2
N N N N NT c d c d
при слабой загрузке, (3)
N N constT Nd t при полной загрузке. (4)
Результаты опробования [28, 29] показали, что точка перегиба экспериментального графика зависимости
времени выполнения программы массивной параллельной обработки данных находится вблизи точки
пересечения графиков слабой и полной загрузки (см., например, рис. 1).
В этой точке перегиба достигается максимальная для данной программы производительность,
соответствующая среднему времени выполнения NnNN TTNnTt : . При уменьшении
объема операций чтения-записи файлов за счет сжатия данных время выполнения программы уменьшается
в результате одновременного воздействия двух факторов: уменьшения Nd и увеличения оптимального числа
процессов N . В то же время, увеличение объема чистых расчетов Nc в связи с затратами на упаковку-
распаковку данных ограничивает эффект от сжатия данных.
Паралельне програмування. Розподілені системи і мережі
151
0
200
400
600
800
1000
1200
0 10 20 30 40 50 60 70
количество параллельных процессов
в
р
е
м
я
Фактическое время миграции
Полная загрузка по формуле (4)
Слабая загрузка по формуле (3)
Рис. 1. Глубинная пре-стек миграция Кирхгофа в режиме расчленения данных
(параллельная файловая система на основе винчестеров 8 узлов)
Построим соотношение изоэффективности сжатия, показывающее, насколько временные затраты
связанные со сжатием информации компенсируются уменьшением затрат на чтение-запись в связи с
сокращением объема данных.
Подставив (4) в (3) для точки пересечения получаем:
2
2 2
2
1 1
2 4 2
N const N N N NNd t c d c d
,
откуда путем несложных преобразований:
2
2
1
1 2
N
N N const
const N
d
c N d t
N t d
, (5)
Поскольку нас интересует только случай сильного распараллеливания при значительном времени работы
программы, целесообразно предположить const Nt d и 1N . В этом случае (5) можно упростить до:
1N Nc N d . (6)
Соотношение (6) действительно только в точке перегиба графика времени выполнения.
При дублировании на всех или нескольких узлах расположены точные копии данных. В частном случае
централизации единственная копия данных управляется одним процессом на одном узле кластера или в
дисковой стойке ( 1S ).Для стратегии дублирования при слабой загрузке время работы параллельной
программы составляет [29]:
sec
1 sec max
1 1 1 1 1
1 1
R
W
N
N S N N
T T
N N S N S S
. (7)
При большом числе процессов и интенсивном обращении к файлам обслуживание чтения и записи
данных почти полностью определяет время работы:
sec
1 sec
1
1 1 1
R
W
N const
S
T T N t
S S
. (8)
В случае дублирования время «чистых» расчетов одного из N процессов то же, а время «чистого»
чтения-записи данных отличается:
sec
1 sec
1 1 1
1
R
W
N
S N
d T
N S N S
. (9)
Обозначим максимальное измеренное время выполнения одной файловой операции параллельной
программой
max max
1S
S
. (10)
Перепишем (7) и (8), выразив через новые переменные (9) и (10):
max1 S
N N NT c d N при слабой загрузке, (11)
N N constT Nd t при полной загрузке. (12)
Паралельне програмування. Розподілені системи і мережі
152
Откуда для точки пересечения графиков (11) и (12) получаем:
max1 S
N N constc N d t ,
Из предположения долгого времени работы параллельной программы max
S
Nd :
1N Nc N d .
Таким образом, независимо от стратегии распределения данных при оптимальном числе процессоров
соотношение расчетов и операций доступа к данным одного процесса описывается формулой (6).
Оценим влияние в результата применения алгоритма сжатия, который уменьшает объем данных, а
значит и чистое время ввода-вывода, косвенно способствуя увеличению оптимального числа процессоров.
Пусть коэффициент сжатия данных 1k , Nz – дополнительное время упаковки и распаковки данных, ввод-
вывод которых при реализации алгоритма без сжатия – Nd , а относительная скорость распаковки N Nv z d .
Рассмотрим условие, при котором программа со сжатием данных работает на
*N процессорах быстрее, чем
исходная программа на N процессорах:
k
d
N
N
c
N
N
z NNN
1
11
**
. (13)
Путем несложных преобразований из (13) получается:
*
1 N
N
N
N
k c
N k d
E
cN
v
d
. (14)
Назовем E изоэффективностью сжатия данных. В случае, если N – оптимальное число процессоров для
исходной программы, согласно (6) выражение для E можно переписать как:
1
1
rN
k
N
E . (15)
Если 1E , сжатие эффективно уже для *N N , т. е. обеспечивает ускорение без увеличения числа
процессоров. Это – самый лучший вариант.
Если максимально доступное число процессоров кластера – maxN и maxE N N , на этом кластере
рассмотренный алгоритм сжатия не даст ускорения. Это – самый плохой вариант.
В остальных случаях сжатие ускоряет расчет при условии увеличения числа задействованных
процессоров.
В целом изоэффективность позволяет характеризовать ожидаемый эффект ускорения параллельной
программы от применения некоторого метода сжатия данных на основе анализа ее текущей
производительности и обычных характеристик алгоритма сжатия – коэффициента сжатия и времени работы.
Применение сжатия при миграции сейсмических данных
Сейсмические исследования – основной поверхностный метод зондирования земных недр в поисках
месторождений нефти и газа. Кроме того сейсмические исследования выполняются в связи с изучением
землетрясений и в инженерной геологии. Данные сейсмических исследований современными методами могут
достигать 100 терабайт на один объект [30]. Сжатие сейсмических данных традиционно применяется в связи
с их хранением и передачей по сети. Разработаны методы сжатия сейсмических данных с потерями (прежде
всего на основе вейвлет преобразования и его модификаций, а также адаптивных локальных дискретных
косинус и синус преобразованиях, преобразовании Уолша, линейных преобразованиях с перекрытиями) и без
потерь, т. е. с точным восстановлением исходных данных (на основе битовых масок, предсказывающего
кодирования, модификаций LZW), а также двухэтапные процедуры, состоящие из преобразования с потерями
и обработки остатков [31].
Однако при исследовании производительности пре-стек миграций Кирхгофа 3D мы обнаружили, что
параллельная файловая система обеспечивает достаточно эффективное чтение сейсмограмм.
Ее производительности недостаточно на этапе суммирования, когда для обработки одной трассы необходимо
использовать два набора времен: от источника и от приемника. При регулярной схеме наблюдений разные
координаты источников и приемников измеряются тысячами, а число трасс – миллионами. Поскольку загрузка
готового файла времен занимает на нашем кластере значительно меньше времени, чем его расчет, один файл
времен приходится подгружать вместе с трассой. Типичный объем файла времен – десятки МБ, что создает
предпосылки для применения сжатия.
Паралельне програмування. Розподілені системи і мережі
153
Времена прихода падающей волны плавно возрастают в стороны от источника или приемника,
с которым связан файл. Эта форма сильно отличается от типичной волновой формы сейсмических сигналов,
поэтому для сжатия мы пробовали другие методы: упаковка приращения (УП), линейные альтернансные
сплайны Чебышева (ЛАС) [32], наилучшая Чебышевская аппроксимация полиномами (НЧА) [33] и их
сочетание с LZW (zip). Выбор методов определился соображениями гарантированной точности: времена
используются для переноса сигнала с трассы, поэтому можно использовать алгоритм сжатия с потерями,
однако он должен гарантировать выбор той же точки трассы, что и при использовании несжатых данных. Как
правило, для этого достаточна точность аппроксимации 1–2 мс. Условию минимизации максимального
отклонения отвечают методы НЧА и ЛАС. УП – простой эвристический метод. Его идея заключается в том, что
при нормальной пространственной густоте сетки (до сотни метров) и типичных скоростях (от тысячи м/с)
приращение времени прихода волны между соседними узлами не превысит 128 мс. УП хранит в узлах не
значения времен, а их приращения в мс в виде коротких целых чисел (один байт на точку). УП – базовый
формат хранения времен в нашей программе миграции обеспечивает сжатие в 4 раза и пренебрежимо быструю
упаковку-распаковку (одно сложение на точку). Остальные методы сравниваются с УП.
Исходные данные для расчета получены путем экспериментов на кластере Инпарком [34]. В
оптимальном режиме миграция выполнялась на 15 узлах. Для простоты мы ограничились собственно
миграцией, предполагая, что расчет временных кубов уже выполнен. (Запись временных кубов на этапе
расчетов выполнялась в 520 раз реже, чем чтение на этапе миграции). Для тестирования выбранных алгоритмов
сжатия мы использовали 10 случайно выбранных файлов времен. Среднее время чтения всех десяти кубов
данных составило 26 с. Остальные данные сведены в таблицу.
Таблица. Сравнение алгоритмов сжатия данных
Алгоритм
сжатия
Время
упаковки
10 файлов (с)
Коэффициент
сжатия r
Время
распаковки
10 файлов (с)
Изоэффектив-
ность
сжатия E
LZW 112 7,0 30 0,980
ЛАС 185 2,8 5 1,032
ЛАС +LZW 224 10,7 9 1,039
НЧА 1320 1,9 17 0,988
НЧА+LZW 1370 2,9 29 0,970
Два алгоритма сжатия получили оценку изоэффективности сжатия 1E , которая означает наилучшую
рекомендацию для применения. ЛАС, второй по изоэффективности, но более быстрый и простой в реализации,
был выбран для реализации в программе миграции. В результате его применения было достигнуто реальное
ускорение: 146 мин. счета вместо 171 мин. на том же наборе данных.
Заключение
В большом числе научных и технических приложений необходимо обрабатывать большие объемы
данных. Несмотря на успехи в развитии аппаратуры хранения данных, параллельных файловых систем и
параллельных библиотек ввода-вывода, система хранения данных часто оказывается «узким местом» при
решении таких задач на вычислительных кластерах с большим числом узлов. В таких случаях время расчета не
только перестает уменьшаться, но и начинает расти с увеличением числа используемых параллельных
процессорных элементов. Применение сжатия данных может существенно снизить нагрузку на систему
хранения данных. В результате максимально достижимое ускорение повышается не только из-за снижения
«чистого» времени ввода-вывода, но и в связи с продвижением точки перегиба графика производительности в
сторону большей степени распараллеливания. Благодаря этому двойному эффекту сжатие данных при
параллельных вычислениях может оказаться выгодным даже тогда, когда упаковка-распаковка требуют
больших вычислений.
Полученные оценки позволяют оценить целесообразность внедрения того или иного алгоритма упаковки
данных для оптимизации выполнения программы на кластере. Их использование в сочетании с формулами
прогнозирования производительности программы позволяет находить наилучший баланс между скоростью,
объемом данных и ошибкой восстановления.
Паралельне програмування. Розподілені системи і мережі
154
1. Oldfield R., Kotz D. Scientific applications using parallel I/O / High Performance Mass Storage and Parallel I/O: Technologies and Applications.
– New York: IEEE Computer Society Press and John Wiley & Sons. – 2001. – P. 655–666.
2. Hennessy J.L., Patterson D.A. Computer architecture: A quantitative approach. – Boston: Morgan Kaufmann Publishers. – 2006. – 696 p.
3. Amdahl G.M. Validity of the single-processor approach to achieving large scale computing capabilities // Proc. AFIPS Spring Joint Computer
Conf. – Atlantic City: AFIPS Press. – 1967. – P. 483–485.
4. Kumar V., Gupta A. Analyzing Scalability of Parallel Algorithms and Architectures // J. of Parallel and Distributed Computing. – 1994. – Vol.
22. – P. 379–391.
5. Глушков В.М., Капитонова Ю.В., Летичевский А.А. К теории проектирования схеммного и программного оборудования
микропроцессорных ЭВМ // Кибернетика. – 1978. – № 6. – С. 1–15.
6. Bell J., Casasent D., Bell C.G. An Investigation of Alternative Cache Organizations // IEEE Transactions on Computers. – 1974. – Vol. C-23
(4). – P. 346–351.
7. Kung H. T. Memory requirements for balanced computer architectures // Proceedings of the IEEE Symp. on Computer Architecture. – IEEE
Press. – 1986. – P. 49–54.
8. Nitzberg B. Performance of the iPSC/860 Concurrent File System / Technical Report RND-92-020 of NAS Systems Division. – NASA Ames. –
1992.
9. Crandall P. E., Aydt R. A., Chien A. A., Reed. D. A. Input/output characteristics of scalable parallel applications // Proc. of Supercomputing ’95
Proc. of Supercomputing '95. – San Diego: IEEE Computer Society Press. – 1995.
10. Nieuwejaar N., Kotz D., Purakayastha A., Ellis C. S., Best M. File-access characteristics of parallel scientific workloads // IEEE Transactions on
Parallel and Distributed Systems. – 1996. – No 7(10). – P. 1075–1089.
11. Фальфушинский В.В. Кэширование в кластерных системах // Компьютерная математика. – 2008. – №2. – C. 64–73.
12. Nitzberg W. J. Collective Parallel I/O. (PhD thesis). – Oregon: University of Oregon. – 1995.
13. Corbett P. F., D. G. Feitelson. The Vesta parallel file system / High Performance Mass Storage and Parallel I/O: Technologies and Applications.
- New York: IEEE Computer Society Press and Wiley. – 2001. – P. 285–308.
14. Moyer S. A., Sunderam V. S. PIOUS: a scalable parallel I/O system for distributed computing environments // Proc. of Scalable High-
Performance Computing Conf. – New York: IEEE Computer Society Press. – 1994. – P. 71–78.
15. Nieuwejaar N., Kotz D. The Galley parallel file system // Parallel Computing. – No 23(4). – 1997. – P. 447–476.
16. Schmuck R. L. F. B. GPFS: A shared-disk file system for large computing clusters // Proc. of 5th Conf. on File and Storage Technologies. – San
Jose: IBM Almaden Research Center. – 2002. (www.usenix.org/events/fast02/full_papers/schmuck/schmuck.pdf).
17. Schwan P. Lustre : Building a file system for 1,000-node clusters. // ACM Transactions on Computer Systems (TOCS). – 2003. – Vol. 14(2). –
P.200-222. (http://www.kernel.org/doc/ols/2003/ols2003-pages-380-386.pdf)
18. Lebre A., Huard G., Denneulin Y. I/O Scheduling Service for Multi-Application Clusters // IEEE Int. Conf. on Volume. – Barcelona: IEEE
Computer Society Press. – 2006. – Р. 21–23.
19. Kotz D. Disk-directed I/O for MIMD multiprocessors. // Proc. of the 1994 Symp. on Operating Systems Design and Implementation. –
Dartmouth: IEEE Computer Society Press. – 1994. – P. 61–74.
20. Seamons K. E., Chen Y., Jones P., Jozwiak J., Winslett M. Server-directed collective I/O in Panda. // Proc. of Supercomputing '95. – San Diego:
IEEE Computer Society Press. – 1995.
21. Bennett R., Bryant K., Sussman A., Das R., Saltz J. Jovian: A framework for optimizing parallel I/O. // Proc. of Scalable Parallel Libraries Conf.
- Mississippi State: IEEE Computer Society Press. – 1994. – P.10–20.
22. http://www.mcs.anl.gov/research/projects/romio/
23. http://www.nersc.gov/nusers/resources/software/libs/io/mpiio.php
24. http://www.mpi-forum.org/docs/mpi-2.2/mpi22-report.pdf
25. http://aioli.imag.fr/
26. Oldfield R., Kotz D. Armada: A parallel I/O framework for computational grids // Future Generation Computing Systems (FGCS). – 2002. –
Vol. 18(4). – P. 501–523.
27. Гречко В.О., Гудзенко В.В. Продуктивность параллельной СУБД в кластерных системах // Компьютерная математика. – 2005. – №3. –
C. 71-79.
28. Тульчинский В.Г., Чарута А.К. Оценка времени обработки данных в кластерных системах // Проблеми програмування. – 2006. – №2-3.
– C. 118-123.
29. Перевозчикова О.Л., Тульчинский В.Г., Ющенко Р.А. Построение и оптимизация параллельных компьютеров для обработки больших
объемов данных // Кибернетика и системный анализ. – 2006. – №4. – С. 117–129.
30. Donoho P.L. Seismic data compression: Improved data management for acquisition, transmission, storage, and processing. – Proc. Seismic. –
1998.
31. Wang W., Mishra P. A Partitioned Bitmask-based Technique for Lossless Seismic Data Compression. CISE Technical Report # 08-452. –
University of Florida. – 2008. – 10 p. (http://www.cise.ufl.edu/~prabhat/Publications/seismicTR.pdf)
32. Исаев В.К., Плотников CA. Обратная задача Чебышева и сплайны Чебышева // Труды Математического института РАН. – 1995. –
Т.221. – C. 164-185.
33. Каленчук-Порханова А.А., Вакал Л.П. Наилучшая чебышевская аппроксимация для сжатия численной информации // Компьютерная
математика. – 2009. – № 1. – С. 99–107.
34. http://www.inparcom.com/
http://www.usenix.org/events/fast02/full_papers/schmuck/schmuck.pdf
http://www.kernel.org/doc/ols/2003/ols2003-pages-380-386.pdf
http://www.mcs.anl.gov/research/projects/romio/
http://www.nersc.gov/nusers/resources/software/libs/io/mpiio.php
http://www.mpi-forum.org/docs/mpi-2.2/mpi22-report.pdf
http://aioli.imag.fr/
http://www.cise.ufl.edu/~prabhat/Publications/seismicTR.pdf
http://www.inparcom.com/
|
| id | nasplib_isofts_kiev_ua-123456789-14689 |
| institution | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| issn | 1727-4907 |
| language | Russian |
| last_indexed | 2025-12-07T16:33:39Z |
| publishDate | 2010 |
| publisher | Інститут програмних систем НАН України |
| record_format | dspace |
| spelling | Назаренко, Е.В. Тульчинский, В.Г. Тульчинский, П.Г. 2010-12-27T17:03:01Z 2010-12-27T17:03:01Z 2010 Оптимизация обработки больших масcивов данных в кластерных системах / Е.В. Назаренко, В.Г. Тульчинский, П.Г. Тульчинский// Пробл. програмув. — 2010. — № 2-3. — С. 149-154. — Бібліогр.: 34 назв. — рос. 1727-4907 https://nasplib.isofts.kiev.ua/handle/123456789/14689 004 Для задач параллельной обработки больших наборов данных узким местом, как правило, оказывается файловое хранилище. Рассмотрено влияние упаковки данных на скорость вычислений. На основе ранее разработанной модели получены оценки минимального времени выполнения программ с учетом времени упаковки/распаковки и коэффициента сжатия данных. Полученные оценки опробованы на примере сжатия временных кубов для ускорения процедуры миграции сейсмограмм. For tasks of massive dataset processing the file storage usually provided to be a bottleneck. The data compression affect on computation speed is examined. On the base of the earlier built model the minimal execution time estimates with accounting the pack/unpack time and the data compression coefficient are obtained. The obtained estimates have been verified on the sample of time cubes compression for acceleration of seismic migration procedure. ru Інститут програмних систем НАН України Паралельне програмування. Розподілені системи і мережі Оптимизация обработки больших масcивов данных в кластерных системах Optimization of massive datasets processing on cluster systems Article published earlier |
| spellingShingle | Оптимизация обработки больших масcивов данных в кластерных системах Назаренко, Е.В. Тульчинский, В.Г. Тульчинский, П.Г. Паралельне програмування. Розподілені системи і мережі |
| title | Оптимизация обработки больших масcивов данных в кластерных системах |
| title_alt | Optimization of massive datasets processing on cluster systems |
| title_full | Оптимизация обработки больших масcивов данных в кластерных системах |
| title_fullStr | Оптимизация обработки больших масcивов данных в кластерных системах |
| title_full_unstemmed | Оптимизация обработки больших масcивов данных в кластерных системах |
| title_short | Оптимизация обработки больших масcивов данных в кластерных системах |
| title_sort | оптимизация обработки больших масcивов данных в кластерных системах |
| topic | Паралельне програмування. Розподілені системи і мережі |
| topic_facet | Паралельне програмування. Розподілені системи і мережі |
| url | https://nasplib.isofts.kiev.ua/handle/123456789/14689 |
| work_keys_str_mv | AT nazarenkoev optimizaciâobrabotkibolʹšihmascivovdannyhvklasternyhsistemah AT tulʹčinskiivg optimizaciâobrabotkibolʹšihmascivovdannyhvklasternyhsistemah AT tulʹčinskiipg optimizaciâobrabotkibolʹšihmascivovdannyhvklasternyhsistemah AT nazarenkoev optimizationofmassivedatasetsprocessingonclustersystems AT tulʹčinskiivg optimizationofmassivedatasetsprocessingonclustersystems AT tulʹčinskiipg optimizationofmassivedatasetsprocessingonclustersystems |