APPROACHES TO PREDICTION OF SPECKLE REMOVAL EFFICIENCY FOR DCT-BASED FILTER
Several approaches to prediction of despeckling efficiency for DCT-based filter are presented and compared. The approaches allow predicting standard quantitative criteria as improvement of PSNR (IPSNR) as well as criteria of visual quality for filtered images. We propose and analyze rather accurate...
Збережено в:
Дата: | 2015 |
---|---|
Автори: | , , , , |
Формат: | Стаття |
Мова: | English |
Опубліковано: |
Scientific Centre for Aerospace Research of the Earth Institute of Geological Science National Academy of Sciences of Ukraine, Kyiv, Ukraine
2015
|
Онлайн доступ: | https://ujrs.org.ua/ujrs/article/view/28 |
Теги: |
Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
|
Назва журналу: | Ukrainian Journal of Remote Sensing of the Earth |
Репозитарії
Ukrainian Journal of Remote Sensing of the Earthid |
uajuacgovua-article-28 |
---|---|
record_format |
ojs |
spelling |
uajuacgovua-article-282015-03-03T09:38:00Z APPROACHES TO PREDICTION OF SPECKLE REMOVAL EFFICIENCY FOR DCT-BASED FILTER МЕТОДЫ ПРОГНОЗИРОВАНИЯ ЭФФЕКТИВНОСТИ ПОДАВЛЕНИЯ СПЕКЛ-ШУМА ДЛЯ ФИЛЬТРА НА ОСНОВЕ ДКП МЕТОДИ ПРОГНОЗУВАННЯ ЕФЕКТИВНОСТІ ПРИДУШЕННЯ СПЕКЛ-ШУМУ ДЛЯ ФІЛЬТРА НА ОСНОВІ ДКП Lukin, V. V. Rubel, O. S. Naumenko, O. V. Vozel, B. Chehdi, K. Several approaches to prediction of despeckling efficiency for DCT-based filter are presented and compared. The approaches allow predicting standard quantitative criteria as improvement of PSNR (IPSNR) as well as criteria of visual quality for filtered images. We propose and analyze rather accurate automatic procedures of prediction that exploit moments of a statistical parameter calculated in 8x8 pixel blocks of a given noisy image under condition that speckle parameters (or number of looks) are a priori known or pre-estimated with a proper accuracy. It is also shown that the prediction approaches are applicable to images with different intensity of speckle. Prediction based on neural network specially trained for multiplicative noise is demonstrated to be the most accurate. Представлено и произведено сравнение нескольких методов прогнозирования эффективности подавления спекл-шума для ДКП фильтра. Представленные методы позволяют выполнять прогнозирование значений некоторых стандартных количественных критериев, например, возрастания пикового соотношения сигнал/шум (IPSNR) благодаря фильтрации так же успешно, как и значений некоторых критериев визуального качества отфильтрованных изображений. Исследованы точные автоматические процедуры прогнозирования, использующие моменты статистических параметров. Такие параметры рассчитываются в блоках размером 8*8 пикселей на изображениях, искаженных спекл-шумом с некоторыми характеристиками (количество взглядов), которые считаются априорно известными или вычисленными заранее с приемлемой точностью. Показана возможность применения методов для искаженных изображений при разном количестве взглядов. Прогнозирование на основе нейронной сети, обученной на предварительно полученных данных со спекл-шумом, является наиболее эффективным. Представлено та проведено порівняння декількох методів прогнозування ефективності придушення спекл-шуму для ДКП фільтра. Запропоновані методи дозволяють виконувати прогнозування значень деяких стандартних кількісних критеріїв, наприклад збільшення пікового співвідношення сигнал/шум (IPSNR) так же успішно, як і значень деяких критеріїв візуальної якості відфільтрованих зображень. Досліджені точні автоматичні процедури прогнозування, що використовують моменти статистичних параметрів. Такі параметри розраховуються в блоках розміром 8*8 пікселів на зображеннях, спотворених спекл-шумом з деякими характеристиками (кількість поглядів), які вважаються апріорно відомими або обчисленими заздалегідь із прийнятною точністю. Показана можливість застосування методів для спотворених зображень при різній кількості поглядів. Прогнозування на основі нейронної мережі, навченої на заздалегідь отриманих даних зі спекл-шумом, є найбільш ефективним. Scientific Centre for Aerospace Research of the Earth Institute of Geological Science National Academy of Sciences of Ukraine, Kyiv, Ukraine 2015-02-16 Article Article application/pdf https://ujrs.org.ua/ujrs/article/view/28 Ukrainian journal of remote sensing; No. 3 (2014); 25-39 Украинский журнал дистанционного зондирования Земли; № 3 (2014); 25-39 Український журнал дистанційного зондування Землі; № 3 (2014); 25-39 2313-2132 en https://ujrs.org.ua/ujrs/article/view/28/49 Copyright (c) 2016 Ukrainian journal of remote sensing |
institution |
Ukrainian Journal of Remote Sensing of the Earth |
collection |
OJS |
language |
English |
format |
Article |
author |
Lukin, V. V. Rubel, O. S. Naumenko, O. V. Vozel, B. Chehdi, K. |
spellingShingle |
Lukin, V. V. Rubel, O. S. Naumenko, O. V. Vozel, B. Chehdi, K. APPROACHES TO PREDICTION OF SPECKLE REMOVAL EFFICIENCY FOR DCT-BASED FILTER |
author_facet |
Lukin, V. V. Rubel, O. S. Naumenko, O. V. Vozel, B. Chehdi, K. |
author_sort |
Lukin, V. V. |
title |
APPROACHES TO PREDICTION OF SPECKLE REMOVAL EFFICIENCY FOR DCT-BASED FILTER |
title_short |
APPROACHES TO PREDICTION OF SPECKLE REMOVAL EFFICIENCY FOR DCT-BASED FILTER |
title_full |
APPROACHES TO PREDICTION OF SPECKLE REMOVAL EFFICIENCY FOR DCT-BASED FILTER |
title_fullStr |
APPROACHES TO PREDICTION OF SPECKLE REMOVAL EFFICIENCY FOR DCT-BASED FILTER |
title_full_unstemmed |
APPROACHES TO PREDICTION OF SPECKLE REMOVAL EFFICIENCY FOR DCT-BASED FILTER |
title_sort |
approaches to prediction of speckle removal efficiency for dct-based filter |
title_alt |
МЕТОДЫ ПРОГНОЗИРОВАНИЯ ЭФФЕКТИВНОСТИ ПОДАВЛЕНИЯ СПЕКЛ-ШУМА ДЛЯ ФИЛЬТРА НА ОСНОВЕ ДКП МЕТОДИ ПРОГНОЗУВАННЯ ЕФЕКТИВНОСТІ ПРИДУШЕННЯ СПЕКЛ-ШУМУ ДЛЯ ФІЛЬТРА НА ОСНОВІ ДКП |
description |
Several approaches to prediction of despeckling efficiency for DCT-based filter are presented and compared. The approaches allow predicting standard quantitative criteria as improvement of PSNR (IPSNR) as well as criteria of visual quality for filtered images. We propose and analyze rather accurate automatic procedures of prediction that exploit moments of a statistical parameter calculated in 8x8 pixel blocks of a given noisy image under condition that speckle parameters (or number of looks) are a priori known or pre-estimated with a proper accuracy. It is also shown that the prediction approaches are applicable to images with different intensity of speckle. Prediction based on neural network specially trained for multiplicative noise is demonstrated to be the most accurate. |
publisher |
Scientific Centre for Aerospace Research of the Earth Institute of Geological Science National Academy of Sciences of Ukraine, Kyiv, Ukraine |
publishDate |
2015 |
url |
https://ujrs.org.ua/ujrs/article/view/28 |
work_keys_str_mv |
AT lukinvv approachestopredictionofspeckleremovalefficiencyfordctbasedfilter AT rubelos approachestopredictionofspeckleremovalefficiencyfordctbasedfilter AT naumenkoov approachestopredictionofspeckleremovalefficiencyfordctbasedfilter AT vozelb approachestopredictionofspeckleremovalefficiencyfordctbasedfilter AT chehdik approachestopredictionofspeckleremovalefficiencyfordctbasedfilter AT lukinvv metodyprognozirovaniâéffektivnostipodavleniâspeklšumadlâfilʹtranaosnovedkp AT rubelos metodyprognozirovaniâéffektivnostipodavleniâspeklšumadlâfilʹtranaosnovedkp AT naumenkoov metodyprognozirovaniâéffektivnostipodavleniâspeklšumadlâfilʹtranaosnovedkp AT vozelb metodyprognozirovaniâéffektivnostipodavleniâspeklšumadlâfilʹtranaosnovedkp AT chehdik metodyprognozirovaniâéffektivnostipodavleniâspeklšumadlâfilʹtranaosnovedkp AT lukinvv metodiprognozuvannâefektivnostípridušennâspeklšumudlâfílʹtranaosnovídkp AT rubelos metodiprognozuvannâefektivnostípridušennâspeklšumudlâfílʹtranaosnovídkp AT naumenkoov metodiprognozuvannâefektivnostípridušennâspeklšumudlâfílʹtranaosnovídkp AT vozelb metodiprognozuvannâefektivnostípridušennâspeklšumudlâfílʹtranaosnovídkp AT chehdik metodiprognozuvannâefektivnostípridušennâspeklšumudlâfílʹtranaosnovídkp |
first_indexed |
2024-04-21T19:47:35Z |
last_indexed |
2024-04-21T19:47:35Z |
_version_ |
1796974948161421312 |