Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки
В данной работе рассматривается задача распознавания состояния сельскохозяйственной раститель-ности по данным аэрофотосъемки различного пространственного разрешения. В качестве основы для рас-познавания используется классификатор, позволяющий осуществлять классификацию входного изображе-ния на три к...
Збережено в:
| Дата: | 2018 |
|---|---|
| Автори: | , |
| Формат: | Стаття |
| Мова: | Russian |
| Опубліковано: |
Інститут проблем штучного інтелекту МОН України та НАН України
2018
|
| Назва видання: | Штучний інтелект |
| Теми: | |
| Онлайн доступ: | https://nasplib.isofts.kiev.ua/handle/123456789/162449 |
| Теги: |
Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
|
| Назва журналу: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Цитувати: | Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки / В.В. Ганченко, А.А. Дудкин // Штучний інтелект. — 2018. — № 3 (81). — С. 103-110. — Бібліогр.: 22 назв. — рос. |
Репозитарії
Digital Library of Periodicals of National Academy of Sciences of Ukraine| id |
nasplib_isofts_kiev_ua-123456789-162449 |
|---|---|
| record_format |
dspace |
| spelling |
nasplib_isofts_kiev_ua-123456789-1624492025-02-09T15:15:57Z Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки Convolutional neural networks in tasks of agricultural vegetation state monitoring on aerial images Ганченко, В.В. Дудкин, А.А. Прикладні інтелектуальні технології та системи В данной работе рассматривается задача распознавания состояния сельскохозяйственной раститель-ности по данным аэрофотосъемки различного пространственного разрешения. В качестве основы для рас-познавания используется классификатор, позволяющий осуществлять классификацию входного изображе-ния на три класса: «здоровая растительность», «пораженная растительность» и «почва». Предложенный классификатор строится из двух сверточных нейронных сетей, позволяющих выполнять классификацию на два класса: «здоровая растительность» и «пораженная растительность», «растительность» и «почва». In the article a recognition task of agricultural vegetation using aerial images of different spatial resolution is considered. An image classifier is proposed that allows classifying image segments into three classes: “healthy vegeta-tion”, “diseased vegetation” and “soil”. This classifier is implemented by two convolution neural networks that previ-ously form two classes of vegetation state: “healthy vegetation”-“diseased vegetation” and “vegetation”-“soil”. 2018 Article Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки / В.В. Ганченко, А.А. Дудкин // Штучний інтелект. — 2018. — № 3 (81). — С. 103-110. — Бібліогр.: 22 назв. — рос. 1561-5359 https://nasplib.isofts.kiev.ua/handle/123456789/162449 004.93'1 ru Штучний інтелект application/pdf Інститут проблем штучного інтелекту МОН України та НАН України |
| institution |
Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| collection |
DSpace DC |
| language |
Russian |
| topic |
Прикладні інтелектуальні технології та системи Прикладні інтелектуальні технології та системи |
| spellingShingle |
Прикладні інтелектуальні технології та системи Прикладні інтелектуальні технології та системи Ганченко, В.В. Дудкин, А.А. Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки Штучний інтелект |
| description |
В данной работе рассматривается задача распознавания состояния сельскохозяйственной раститель-ности по данным аэрофотосъемки различного пространственного разрешения. В качестве основы для рас-познавания используется классификатор, позволяющий осуществлять классификацию входного изображе-ния на три класса: «здоровая растительность», «пораженная растительность» и «почва». Предложенный классификатор строится из двух сверточных нейронных сетей, позволяющих выполнять классификацию на два класса: «здоровая растительность» и «пораженная растительность», «растительность» и «почва». |
| format |
Article |
| author |
Ганченко, В.В. Дудкин, А.А. |
| author_facet |
Ганченко, В.В. Дудкин, А.А. |
| author_sort |
Ганченко, В.В. |
| title |
Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки |
| title_short |
Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки |
| title_full |
Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки |
| title_fullStr |
Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки |
| title_full_unstemmed |
Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки |
| title_sort |
сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки |
| publisher |
Інститут проблем штучного інтелекту МОН України та НАН України |
| publishDate |
2018 |
| topic_facet |
Прикладні інтелектуальні технології та системи |
| url |
https://nasplib.isofts.kiev.ua/handle/123456789/162449 |
| citation_txt |
Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки / В.В. Ганченко, А.А. Дудкин // Штучний інтелект. — 2018. — № 3 (81). — С. 103-110. — Бібліогр.: 22 назв. — рос. |
| series |
Штучний інтелект |
| work_keys_str_mv |
AT gančenkovv svertočnyenejronnyesetivzadačahmonitoringasostoâniâselʹskohozâjstvennojrastitelʹnostipodannymaérofotosʺemki AT dudkinaa svertočnyenejronnyesetivzadačahmonitoringasostoâniâselʹskohozâjstvennojrastitelʹnostipodannymaérofotosʺemki AT gančenkovv convolutionalneuralnetworksintasksofagriculturalvegetationstatemonitoringonaerialimages AT dudkinaa convolutionalneuralnetworksintasksofagriculturalvegetationstatemonitoringonaerialimages |
| first_indexed |
2025-11-27T07:34:10Z |
| last_indexed |
2025-11-27T07:34:10Z |
| _version_ |
1849928038715752448 |
| fulltext |
ISSN 1561-5359. Штучний інтелект, 2018, № 3
© В.В. Ганченко, А.А. Дудкин 103
УДК 004.93'1
В.В. Ганченко, А.А. Дудкин
Объединенный институт проблем информатики, Беларусь
ул. Сурганова, 6, г.Минск, 220012
СВЕРТОЧНЫЕ НЕЙРОННЫЕ СЕТИ В ЗАДАЧАХ
МОНИТОРИНГА СОСТОЯНИЯ СЕЛЬСКОХОЗЯЙСТВЕННОЙ
РАСТИТЕЛЬНОСТИ ПО ДАННЫМ АЭРОФОТОСЪЕМКИ
V. Ganchenko, A. Doudkin
United Institute of Informatics Problems, Belarus
6, Surganova St., Minsk, 220012
CONVOLUTIONAL NEURAL NETWORKS IN TASKS OF
AGRICULTURAL VEGETATION STATE
MONITORING ON AERIAL IMAGES
В данной работе рассматривается задача распознавания состояния сельскохозяйственной раститель-
ности по данным аэрофотосъемки различного пространственного разрешения. В качестве основы для рас-
познавания используется классификатор, позволяющий осуществлять классификацию входного изображе-
ния на три класса: «здоровая растительность», «пораженная растительность» и «почва». Предложенный
классификатор строится из двух сверточных нейронных сетей, позволяющих выполнять классификацию на
два класса: «здоровая растительность» и «пораженная растительность», «растительность» и «почва».
Ключевые слова: сверточная нейронная сеть, аэрофотосъемка, сельскохозяйственная растительность
In the article a recognition task of agricultural vegetation using aerial images of different spatial resolution is
considered. An image classifier is proposed that allows classifying image segments into three classes: “healthy vegeta-
tion”, “diseased vegetation” and “soil”. This classifier is implemented by two convolution neural networks that previ-
ously form two classes of vegetation state: “healthy vegetation”-“diseased vegetation” and “vegetation”-“soil”.
Keywords: convolutional neural networks, aerial images, agricultural vegetation
Введение
Развитие точного земледелия пред-
полагает наличие точной и оперативно
обновляемой информации о состоянии
растительности и почвы. Получение по-
добной информации возможно только
при использовании дистанционного зон-
дирования. Дистанционные методы мо-
ниторинга сельскохозяйственных полей
дают возможность оперативно выявить
пораженные болезнью участки раститель-
ности. Выявление заболевания на ранних
стадиях развития позволяет оперативно и
с минимальными затратами локализовать
и вылечить заболевание. Выделяют два
основных подхода к решению задачи вы-
явления пораженных участков – спектро-
метрический и оптический [1-7]. Спект-
рометрический подход позволяет опреде-
лять многие заболевания на ранних ста-
диях развития. Однако, этот подход тре-
бует наличия многоспектрального съе-
мочного оборудования, что не всегда
возможно.
Использование беспилотных лета-
тельных аппаратов (БПЛА) является эф-
фективным методом сбора данных на
местах. Использование БПЛА в сельском
хозяйстве быстро распространяется, т.к.
является более дешевым при более высо-
кой по сравнению со спутниками опера-
тивностью [8-9]. БПЛА предоставляют
визуальную информацию о больших пло-
щадях сельскохозяйственных культур
максимально быстро, что позволяет руко-
водителям хозяйств принимать оператив-
ные решения. Полученные изображения
затем могут быть импортированы в базу
данных геоинформационной системы для
дальнейшей обработки и анализа.
Одним из наиболее успешных мето-
дов, используемых при обработке аэро-
фотоснимков растительности, является
использование искусственных нейронных
сетей [10].
ISSN 1561-5359. Штучний інтелект, 2018, № 3
104 © В.В. Ганченко, А.А. Дудкин
В данной статье используется под-
ход, основанный на использовании свер-
точных нейронных сетей (СНС). Свер-
точные сети успешно используются при
решении различных задач точного
земледелия.
В работах [11-13] показано выделе-
ние сорняков на полях с точностью выше
90 % на данных, получаемых от робота, с
использованием СНС как для классифи-
кации объектов, так и для семантической
сегментации.
В [14] применены для классифика-
ции посевов (хотя они и составляют толь-
ко часть искомых классов) по данным вы-
сотной аэрофотосъемки. При этом авто-
рам удалось достичь точности около
89 %, что превышает аналогичные пока-
затели для SVM.
Очень широкое применение СНС
нашли и в задаче классификации заболе-
ваний растительности. Так работы [15-
18] описывают использование СНС для
классификации аномалий развития и за-
болеваний различных культурных расте-
ний с точностью, превышающей 90 %.
Однако основной проблемой этих работ
является то, что классификация, позволяя
определить заболевание, требует наличия
изображений отдельных листьев. Это
значительно ограничивает применение
результатов для получения карт пора-
женной растительности, т.к. подготовка
таких карт требует оценки состояния рас-
тительной массы, а не каждого листа в
отдельности.
Представленная работа фокусируется
на распознавании участков растительнос-
ти, состояние которой изменилось под вли-
янием заболевания. При этом классифика-
ция самого заболевания на таких участках
на данном этапе не производится.
Объектом исследования являются
цветные изображения сельскохозяйствен-
ных полей.
Цель работы состоит в разработке
алгоритмов обработки цветных изобра-
жений растительных покровов, получен-
ных с помощью цифровой съемки раз-
личного пространственного разрешения,
а также их реализации в виде програм-
мных средств для систем компьютерного
зрения.
Постановка задачи
Задачей исследования является
разработка алгоритма преобразования
, позволяющего получить
из исходного изображения сельскохо-
зяйственного поля такое изображе-
ние , каждый пиксель
которого получен из соответствующего
пикселя изображения , либо его
окрестности. Каждый пиксель изображе-
ния соответствует точке в про-
странстве RGB. Каждый пиксель
соответствует одному из трех
классов («здоровая растительность», «по-
раженная растительность» и «почва»).
Задачи классификации заболеваний
растительности и поиска сорной расти-
тельности в данном исследовании не
решались.
Материалами для исследований
явились фотографии отдельных растений
и экспериментального участка поля, заса-
женного картофелем. Последние выпол-
нялись с высоты 5, 15, 50 и 100 метров
[19-20]. Для получения данных неболь-
шой участок поля был выделен при помо-
щи четырех квадратных меток. Длина
стороны квадрата равна одному метру,
также на метку нанесены две черных ли-
нии шириной 20 см, при пересечении да-
ющие крест. Наличие этих меток позво-
ляет не только определять участок для
исследований, но и вычислять простран-
ственное разрешение снимков.
Наблюдению подвергались 3 группы
растений: растения, зараженные болезнью
из группы alternaria; растения, зараженные
бактериальной болезнью erwinia; здоро-
вые растения (контрольная группа).
Исходные данные
Съемка растений проводилась еже-
дневно в 8, 10, 12, 14 и 16 часов на протя-
жении 8 дней июля.
ISSN 1561-5359. Штучний інтелект, 2018, № 3
© В.В. Ганченко, А.А. Дудкин 105
В результате развития указанных
заболеваний происходит разрушение хло-
рофила в листьях картофеля, что приво-
дит к изменению цвета растения. Необхо-
димо отметить, что в ясную погоду созда-
ваемые солнцем блики на листьях также
создавали эффект их пожелтения. Это
вносило дополнительную ошибку при ав-
томатической обработке.
100 метров 50 метров
15 метров 5 метров
Рис. 1. Примеры исходных аэрофотоснимков
Описание проблемы
Анализ цветовых характеристик
различных типов объектов на базе их гис-
тограмм показывает заметное их разли-
чие для почвы и растительности (для всех
цветовых каналов), а также различие по
синему каналу для здоровых и больных
растений. К примеру, для изображений
здоровой, пораженной заболеванием рас-
тительности и почвы на соответствую-
щих гистограммах можно увидеть, что
гистограмма почвы отличается от гисто-
грамм растительности на каждом цвето-
вом канале, а гистограммы каналов здо-
ровой и пораженной растительности от-
личаются по форме.
Однако наличие в выделенном
участке изображений объектов несколь-
ких типов приводит к искажению норма-
лизованной редуцированной гистограм-
мы идеального типового объекта – сме-
щение и искажение пика гистограммы.
Подобные искажения, а также зна-
чительное подобие цветовых характерис-
тик здоровой и пораженной заболевания-
ми растительности требуют информации
о структуре изображений различных
классов для их распознавания. Структур-
ная информация может быть учтена при
использовании СНС в качестве основы
для алгоритма.
Классификатор «растительность–
почва»
Классификатор «растительность–
почва» представляет собой сверточ-
ную нейронную сеть (СНС) [21], осу-
ществляющую классификацию входного
изображения на два класса «раститель-
ность» и «почва». В связи со значитель-
ными различиями в цветовых характерис-
тиках этих двух классов данный класси-
фикатор не требует сложной структуры.
ISSN 1561-5359. Штучний інтелект, 2018, № 3
106 © В.В. Ганченко, А.А. Дудкин
СНС имеет следующую структуру
(параметры сети были выбраны
эмпирически):
– Размер входного слоя: .
– Сверточный слой Conv2D № 1: размер
фильтра Fs = 3, количество фильтров
Fc = 4, функция активации – ReLU.
– Conv2D № 2: Fs = 3, Fc = 8, ReLU.
– Полносвязный слой: количество
нейронов = 16, ReLU.
– Выходной слой: количество нейронов =
2 (соответствуют классам «раститель-
ность» и «почва» ),
функция активации – сигмоидная.
Функция потерь (loss) – softmax
cross entropy [22].
Обучение:
– Размер обучающей выборки: 110528
изображений.
– Размер валидационной выборки: 27632
изображений (20 % общей базы).
– Результирующая точность на валида-
ционной выборке: 96.9%.
Обучающая выборка была получена
путем «нарезки» имеющихся аэрофото-
снимков с размеченными участками. При
этом нарезались участки размером 32, 64
и 128 пикселей с перекрытием и добавле-
нием поворотов на углы, кратные 90.
Подготовленное изображение масштаби-
ровалось до размера, требуемого на вход
сети.
Классификатор «здоровая–пора-
женная растительность»
Классификатор «здоровая–поражен-
ная растительность» также пред-
ставляет собой СНС, осуществляющую
классификацию входного изображения на
два класса «здоровая растительность» и
«пораженная растительность». В связи со
значительными различиями в цветовых
характеристиках этих двух классов дан-
ный классификатор потребовал более
сложной структуры.
СНС имеет следующую структуру
(параметры сети также были выбраны
эмпирически):
– Размер входного слоя: .
– Conv2D № 1: Fs = 3, Fc = 32, функция
активации – ReLU.
– Conv2D № 2: Fs = 3, Fc = 32, ReLU.
– Conv2D № 3: Fs = 3, Fc = 32, ReLU.
– Conv2D № 4: Fs = 5, Fs = 64, ReLU.
– Полносвязный слой № 1: количество
нейронов = 128, ReLU.
– Полносвязный слой № 2: количество
нейронов = 128, ReLU.
– Выходной слой: количество нейронов
=2 (соответствуют классам «здоровая
растительность» и «поражен-
ная растительность»), функция актива-
ции – сигмоидная.
Функция потерь (loss) – softmax
cross entropy.
Обучение:
– Размер обучающей выборки: 22244
изображений.
– Размер валидационной выборки: 5560
изображений (20 % общей базы).
– Результирующая точность на валида-
ционной выборке: 93.8 %.
Объединение классификаторов
Т.к. требуется получить классифи-
катор на три класса, то следует объеди-
нить полученные двухклассовые класси-
фикаторы в один.
Для этого воспользуемся тем, что
классы «здоровая растительность» и
«пораженная растительность» явля-
ются подклассами класса «раститель-
ность» . Значение на выходе класси-
фикатора «растительность–почва» ,
соответствующее классу «раститель-
ность» , находится в диапазоне
[0; 1] и может быть использовано в ка-
честве коэффициента для выходов клас-
сификатора «здоровая–пораженная рас-
тительность» .
Таким образом, искомый трехклас-
совый классификатор получает вы-
ходные значения принадлежности вход-
ного изображения следующим
образом:
1. Получить выходы (расти-
тельность) и (почва) класси-
фикатора .
ISSN 1561-5359. Штучний інтелект, 2018, № 3
© В.В. Ганченко, А.А. Дудкин 107
2. Получить выходы (здоровая
растительность) и (поражен-
ная растительность) классификатора
.
3. Получить выходы классификатора
в виде:
Алгоритм распознавания
В целом алгоритм распознавания
(преобразование ) можно
представить в следующем виде:
1. Загрузить исходное цветное изобра-
жение размером .
2. Для
:
2.1. Получаем окрестность
пикселя в позиции в виде
цветного изображения размером
пикселя.
2.2. Подаем полученное изображение
на классификаторы и
.
2.3. Выходные значения классифика-
торов и используем для
вычисления выходов общего клас-
сификатора .
2.4. Получаем индекс класса:
2.5. Присваиваем пикселю выходного
изображения значение,
соответствующее псевдоцвету индекса
класса: светло-серый – здоровая расти-
тельность, белый – пораженная
растительность, темно-серый – почва.
3. Сохраняем полученное изображение
.
Тестирование
Тестирование объединения класси-
фикаторов осуществлялось на общей базе
изображений классов: обучающая + вали-
дационная выборка. При этом оценива-
лась точность классификации для каждо-
го класса в отдельности. Полученные
результаты тестирования приведены в
табл. 1.
Таблица 1. Результаты тестирования
объединения классификаторов
Класс Точность, %
Пораженная растительность 74.29
Здоровая растительность 90.16
Почва 99.03
Наибольшее количество ошибок
возникало на участках, соответствующих
границе здоровой растительности и поч-
вы (в особенности в местах, где неболь-
шие участки почвы окружены раститель-
ностью, создающей на этом участке поч-
вы тень; см. табл. 2).
Таблица 2. Оценка количества ошибок
Класс Ошибка I,
%
Ошибка II,
%
Пораженная
растительность
25.71 10.69
Здоровая
растительность
9.84 10.66
Почва 0.97 15.17
Полученная при тестировании рас-
познавания точность – 75-84 % в зависи-
мости от разрешения снимка, освещения
на нем и количества «пятен» почвы в
растительной массе.
Выводы
Предложен и реализован с исполь-
зованием библиотеки Tensorflow алго-
ритм распознавания состояния раститель-
ности на базе двух СНС по данным аэро-
фотосъемки. Предложенный алгоритм
позволяет снизить влияние шумовых
факторов (освещение, солнечные блики)
на качество получаемых карт поражен-
ной растительности за счет использова-
ния СНС. При этом использование двух
СНС позволило снизить искажение цве-
товых характеристик изображений ок-
рестностей пикселей при попадании в не-
го растительности и почвы.
Дальнейшие исследования предпо-
лагают наличие нейросетевого детекти-
рования для выделения посторонних
предметов, а также нейросетевой семан-
ISSN 1561-5359. Штучний інтелект, 2018, № 3
108 © В.В. Ганченко, А.А. Дудкин
тической сегментации для исключения
необходимости дополнительного алго-
ритма и снижения количества ошибок в
проблемных областях.
Литература
1. Беляев, Б.И. (2006) Оптическое дистанционное
зондирование. Минск: БГУ. 455 с.
2. Шовенгердт, Р.А. (2013) Дистанционное
зондирование. Модели и методы обработки
изображений. М.: Техносфера. 592 с.
3. Chao, К. (2002) Machine vision technology for
agricultural applications. Elsevier science
transactions on computers and electronics in
agriculture. Vol. 36. P. 173-191.
4. Kumar, N. (2004) Do leaf surface' characteristics
affect agrobaсterium infection in tea [camellia
sinensis (1)]. Vol. 29, № 3. P. 309-317.
5. Wu, L. (2009) Identification of weed, corn using
BP network based on wavelet features and fractal
dimension. Scientific Research and Essay.
November, 2009. – Vol. 4 (11). – P. 1194-1400.
6. Qin, Zh. (2005) Detection of rice sheath blight
for in-season disease management using
multispectral remote sensing. International
Journal of Applied Earth Observation and
Geoinformation. Vol. 7. P. 115-148.
7. Aksoy, S. (2010) Automatic mapping of linear
woody vegetation features in agricultural
landscapes using very high-resolution imagery.
IEEE Transactions on Geoscience and Remote
Sensing. № 48 (1, 2). P. 511-522.
8. Abdullahi, H.S. (2017) Advances of image
processing in Precision Agriculture: Using deep
learning convolution neural network for soil
nutrient classification. Journal of Multidisciplinary
Engineering Science and Technology (JMEST).
Vol. 4, Issue 8. P. 7981-7987.
9. Wright, D., Rasmussen, V., Ramsey, R., Baker, D.,
Ellsworth, J. (2004) Canopy Reflectance
Estimation of Wheat Nitrogen Content for Grain
Protein Management. GIScience Remote Sens.
Vol. 41, No. 4. P. 287–300.
10. Mate, K.A., Pooja, G., Kavita, S.R. (2016)
Feature Extraction Algorithm for Estimation of
Agriculture Acreage from Remote Sensing
Images. P. 5–9.
11. Huang, H., Deng, J., Lan, Y., Yang, A.,
Deng, X., Zhang, L. (2018) A fully convolutional
network for weed mapping of unmanned aerial
vehicle (UAV) imagery. PLoS ONE 13(4):
e0196302.
12. Sa, I. (2018) WeedNet: Dense Semantic Weed
Classification Using Multispectral Images and
MAV for Smart Farming. IEEE Robotics and
Automation Letters. Vol. 3(1). P. 588-595.
13. Potena, C., Nardi, D., Pretto, A. (2017) Fast and
Accurate Crop and Weed Identification with
Summarized Train Sets for Precision Agriculture:
Intelligent Autonomous Systems. P. 105-121.
14. Yao, C., Zhang, Y., Zhang, Y., Liu, H. (2017)
Application of convolutional neural network in
classification of high resolution agricultural remote
sensing images, Int. Arch. Photogramm. Remote
Sens. Spatial Inf. Sci., XLII-2/W7. P. 989-992.
15. Atole, R.R., Park, D. (2018) A Multiclass Deep
Convolutional Neural Network Classifier for
Detection of Common Rice Plant Anomalies.
IJACSA: International Journal of Advanced
Computer Science and Applications. Vol. 9,
No. 1. P. 67-70.
16. Rajmohan, R., Pajany, M., Rajesh, R.,
Raman, D.R., Prabu, U. (2018) Smart paddy crop
disease identification and management using deep
convolution neural network and SVM classifier.
International Journal of Pure and Applied
Mathematics. Vol. 118, No. 15. P. 255-264.
17. Athanikar, G., Badar, P. (2016) Potato Leaf
Diseases Detection and Classification System.
International Journal of Computer Science and
Mobile Computing. Vol. 5 Issue, 2. P. 76-88.
18. Sladojevic, S., Arsenovic, M., Anderla, A.,
Culibrk, D., Stefanovic, D. (2016) Deep Neural
Networks Based Recognition of Plant Diseases
by Leaf Image Classification. Computational
Intelligence and Neuroscience. 11 p.
19. Sobkowiak, B. (2006) Zastosowanie technik
analizy obrazu do wczesnego wykrywania
patogenow ziemniaka. Praca nie publicowana.
Poznan: PIMR.
20. Sobkowiak, B. (2007) Zastosowanie technik
analizy obrazu do wczesnego wykrywania zarazy
ziemnechanej w warynkach polowych. Praca nie
publicowana. Poznan: PIMR.
21. Николенко, С., Кадурин, А., Архангельская, Е.
(2018) Глубокое обучение. СПб.: Питер. 480 с.
22. Tensorflow API documentation. Available from:
https://www.tensorflow.org/api_docs/python/tf/n
n/softmax_cross_entropy_with_logits_v2
References
1. Belyayev, B.I. (2006) Opticheskoye distantsionnoye
zondirovaniye. Minsk: BGU. 455 s.
2. Shovengerdt, R.A. (2013) Distantsionnoye
zondirovaniye. Modeli i metody obrabotki izob-
razheniy. M.: Tekhnosfera. 592 s.
3. Chao, К. (2002) Machine vision technology for
agricultural applications. Elsevier science
transactions on computers and electronics in
agriculture. Vol. 36. P. 173-191.
4. Kumar, N. (2004) Do leaf surface' characteristics
affect agrobaсterium infection in tea [camellia
sinensis (1)]. Vol. 29, № 3. P. 309-317.
5. Wu, L. (2009) Identification of weed, corn using
BP network based on wavelet features and fractal
dimension. Scientific Research and Essay.
November, 2009. – Vol. 4 (11). – P. 1194-1400.
6. Qin, Zh. (2005) Detection of rice sheath blight for
in-season disease management using multispectral
remote sensing. International Journal of Applied
Earth Observation and Geoinformation. Vol. 7.
P. 115-148.
ISSN 1561-5359. Штучний інтелект, 2018, № 3
© В.В. Ганченко, А.А. Дудкин 109
7. Aksoy, S. (2010) Automatic mapping of linear
woody vegetation features in agricultural
landscapes using very high-resolution imagery.
IEEE Transactions on Geoscience and Remote
Sensing. № 48 (1, 2). P. 511-522.
8. Abdullahi, H.S. (2017) Advances of image
processing in Precision Agriculture: Using deep
learning convolution neural network for soil nutrient
classification. Journal of Multidisciplinary
Engineering Science and Technology (JMEST).
Vol. 4, Issue 8. P. 7981-7987.
9. Wright, D., Rasmussen, V., Ramsey, R., Baker, D.,
Ellsworth, J. (2004) Canopy Reflectance Estimation
of Wheat Nitrogen Content for Grain Protein
Management. GIScience Remote Sens. Vol. 41,
No. 4. P. 287–300.
10. Mate, K.A., Pooja, G., Kavita, S.R. (2016)
Feature Extraction Algorithm for Estimation of
Agriculture Acreage from Remote Sensing
Images. P. 5–9.
11. Huang, H., Deng, J., Lan, Y., Yang, A., Deng, X.,
Zhang, L. (2018) A fully convolutional network
for weed mapping of unmanned aerial vehicle
(UAV) imagery. PLoS ONE 13(4): e0196302.
12. Sa, I. (2018) WeedNet: Dense Semantic Weed
Classification Using Multispectral Images and
MAV for Smart Farming. IEEE Robotics and
Automation Letters. Vol. 3(1). P. 588-595.
13. Potena, C., Nardi, D., Pretto, A. (2017) Fast and
Accurate Crop and Weed Identification with
Summarized Train Sets for Precision Agriculture:
Intelligent Autonomous Systems. P. 105-121.
14. Yao, C., Zhang, Y., Zhang, Y., Liu, H. (2017)
Application of convolutional neural network in
classification of high resolution agricultural remote
sensing images, Int. Arch. Photogramm. Remote
Sens. Spatial Inf. Sci., XLII-2/W7. P. 989-992.
15. Atole, R.R., Park, D. (2018) A Multiclass Deep
Convolutional Neural Network Classifier for
Detection of Common Rice Plant Anomalies.
IJACSA: International Journal of Advanced
Computer Science and Applications. Vol. 9,
No. 1. P. 67-70.
16. Rajmohan, R., Pajany, M., Rajesh, R.,
Raman, D.R., Prabu, U. (2018) Smart paddy crop
disease identification and management using deep
convolution neural network and SVM classifier.
International Journal of Pure and Applied
Mathematics. Vol. 118, No. 15. P. 255-264.
17. Athanikar, G., Badar, P. (2016) Potato Leaf
Diseases Detection and Classification System.
International Journal of Computer Science and
Mobile Computing. Vol. 5 Issue, 2. P. 76-88.
18. Sladojevic, S., Arsenovic, M., Anderla, A.,
Culibrk, D., Stefanovic, D. (2016) Deep Neural
Networks Based Recognition of Plant Diseases by
Leaf Image Classification. Computational
Intelligence and Neuroscience. 11 p.
19. Sobkowiak, B. (2006) Zastosowanie technik
analizy obrazu do wczesnego wykrywania
patogenow ziemniaka. Praca nie publicowana.
Poznan: PIMR.
20. Sobkowiak, B. (2007) Zastosowanie technik
analizy obrazu do wczesnego wykrywania zarazy
ziemnechanej w warynkach polowych. Praca nie
publicowana. Poznan: PIMR.
21. Nikolenko, S., Kadurin, A., Arkhangel'skaya, Ye.
(2018) Glubokoye obucheniye. SPb.: Piter. 480 s.
22. Tensorflow API documentation. Available from:
https://www.tensorflow.org/api_docs/python/tf/nn
/softmax_cross_entropy_with_logits_v2
RESUME
V. Ganchenko, A. Doudkin
Convolutional neural networks in
tasks of agricultural vegetation state
monitoring on aerial images
A precision farming implies availabi-
lity of accurate and promptly updated infor-
mation about a state of vegetation and soil.
It is only possible to obtain such information
if remote sensing is used. Remote methods
of monitoring agricultural fields allow quick
identifying diseased areas of the vegetation
in the early stages of development and cure
the diseases promptly and with minimal
cost. Artificial neural networks are com-
monly used for processing of aerial photo-
graphs of vegetation, particularly convoluti-
onal neural networks in application for weed
out, classification of crops, classification of
diseases and other tasks.
This article deals with recognition of
vegetation areas, state of which has changed
under diseases influence. The task under
decision consists in the separation of images
of agricultural fields into segments of three
types (classes): soil, healthy vegetation,
diseased vegetation. Origin data are aerial
photographs of an experimental field of
agricultural vegetation of various spatial
resolutions. Analysis of color characteristics
showed significant intersection of these
characteristics for healthy and diseased
vegetation. This fact significantly compli-
cates identification and classification of
image segments of the field. A presence
different distortion on the field images (for
instance, soil segments) also reduces clas-
sification accuracy: healthy areas may be
recognized as diseased ones. At the same
ISSN 1561-5359. Штучний інтелект, 2018, № 3
110 © В.В. Ганченко, А.А. Дудкин
time, vegetation and soil can be separated by
color quite successfully.
To solve problem of classification into
three classes, it is proposed to use a hierar-
chical classifier that consists of two-class
classifiers "soil-vegetation" and "healthy
vegetation-diseased vegetation." Each of
them is a convolutional neural network with
33x33x3 inputs and an output layer with two
neurons. The first convolutional neural
network has two convolutional layers and
one hidden fully connected layer and gives
96.9 % accuracy for "soil-vegetation" clas-
sification on validation set. The second clas-
sifier has four convolutional layers and two
hidden fully connected layers. The accuracy
for "healthy vegetation-diseased vegetation"
classification is 93.8 % on validation set.
For obtaining of three classes, the classifi-
cation results are combined as follows: for
"soil" class corresponding value of the first
classifier is used; for "healthy vegetation"
and "diseased vegetation", corresponding
values of the second classifier are multiplied
by value of output "vegetation" of the first
classifier. Result accuracy for the classes is:
"diseased vegetation" – 74.29 %, "healthy
vegetation" – 90.16%, and "soil"– 99.03 %.
The classifier is implemented using
Tensorflow library.
The use of convolutional neural
networks allows reducing the influence of
noise factors (lighting, sun glare) on the
quality of maps of affected vegetation. At
the same time, the proposed hierarchical
classification reduces the distortion of the
color characteristics of images of the
neighborhoods of pixels when vegetation
and a soil get into them.
Results obtained during the research
will be further used for semantic image
segmentation based on convolutional neural
network.
Работа выполнена при поддержке
БРФФИ (проект № Ф18В-005) и ГКНТ
Республики Беларусь (проект
№ Ф18ПЛШГ-008П).
Надійшла до редакції 19.10.2018
|