Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки

В данной работе рассматривается задача распознавания состояния сельскохозяйственной раститель-ности по данным аэрофотосъемки различного пространственного разрешения. В качестве основы для рас-познавания используется классификатор, позволяющий осуществлять классификацию входного изображе-ния на три к...

Повний опис

Збережено в:
Бібліографічні деталі
Дата:2018
Автори: Ганченко, В.В., Дудкин, А.А.
Формат: Стаття
Мова:Russian
Опубліковано: Інститут проблем штучного інтелекту МОН України та НАН України 2018
Назва видання:Штучний інтелект
Теми:
Онлайн доступ:https://nasplib.isofts.kiev.ua/handle/123456789/162449
Теги: Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Цитувати:Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки / В.В. Ганченко, А.А. Дудкин // Штучний інтелект. — 2018. — № 3 (81). — С. 103-110. — Бібліогр.: 22 назв. — рос.

Репозитарії

Digital Library of Periodicals of National Academy of Sciences of Ukraine
id nasplib_isofts_kiev_ua-123456789-162449
record_format dspace
spelling nasplib_isofts_kiev_ua-123456789-1624492025-02-09T15:15:57Z Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки Convolutional neural networks in tasks of agricultural vegetation state monitoring on aerial images Ганченко, В.В. Дудкин, А.А. Прикладні інтелектуальні технології та системи В данной работе рассматривается задача распознавания состояния сельскохозяйственной раститель-ности по данным аэрофотосъемки различного пространственного разрешения. В качестве основы для рас-познавания используется классификатор, позволяющий осуществлять классификацию входного изображе-ния на три класса: «здоровая растительность», «пораженная растительность» и «почва». Предложенный классификатор строится из двух сверточных нейронных сетей, позволяющих выполнять классификацию на два класса: «здоровая растительность» и «пораженная растительность», «растительность» и «почва». In the article a recognition task of agricultural vegetation using aerial images of different spatial resolution is considered. An image classifier is proposed that allows classifying image segments into three classes: “healthy vegeta-tion”, “diseased vegetation” and “soil”. This classifier is implemented by two convolution neural networks that previ-ously form two classes of vegetation state: “healthy vegetation”-“diseased vegetation” and “vegetation”-“soil”. 2018 Article Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки / В.В. Ганченко, А.А. Дудкин // Штучний інтелект. — 2018. — № 3 (81). — С. 103-110. — Бібліогр.: 22 назв. — рос. 1561-5359 https://nasplib.isofts.kiev.ua/handle/123456789/162449 004.93'1 ru Штучний інтелект application/pdf Інститут проблем штучного інтелекту МОН України та НАН України
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
collection DSpace DC
language Russian
topic Прикладні інтелектуальні технології та системи
Прикладні інтелектуальні технології та системи
spellingShingle Прикладні інтелектуальні технології та системи
Прикладні інтелектуальні технології та системи
Ганченко, В.В.
Дудкин, А.А.
Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки
Штучний інтелект
description В данной работе рассматривается задача распознавания состояния сельскохозяйственной раститель-ности по данным аэрофотосъемки различного пространственного разрешения. В качестве основы для рас-познавания используется классификатор, позволяющий осуществлять классификацию входного изображе-ния на три класса: «здоровая растительность», «пораженная растительность» и «почва». Предложенный классификатор строится из двух сверточных нейронных сетей, позволяющих выполнять классификацию на два класса: «здоровая растительность» и «пораженная растительность», «растительность» и «почва».
format Article
author Ганченко, В.В.
Дудкин, А.А.
author_facet Ганченко, В.В.
Дудкин, А.А.
author_sort Ганченко, В.В.
title Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки
title_short Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки
title_full Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки
title_fullStr Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки
title_full_unstemmed Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки
title_sort сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки
publisher Інститут проблем штучного інтелекту МОН України та НАН України
publishDate 2018
topic_facet Прикладні інтелектуальні технології та системи
url https://nasplib.isofts.kiev.ua/handle/123456789/162449
citation_txt Сверточные нейронные сети в задачах мониторинга состояния сельскохозяйственной растительности по данным аэрофотосъемки / В.В. Ганченко, А.А. Дудкин // Штучний інтелект. — 2018. — № 3 (81). — С. 103-110. — Бібліогр.: 22 назв. — рос.
series Штучний інтелект
work_keys_str_mv AT gančenkovv svertočnyenejronnyesetivzadačahmonitoringasostoâniâselʹskohozâjstvennojrastitelʹnostipodannymaérofotosʺemki
AT dudkinaa svertočnyenejronnyesetivzadačahmonitoringasostoâniâselʹskohozâjstvennojrastitelʹnostipodannymaérofotosʺemki
AT gančenkovv convolutionalneuralnetworksintasksofagriculturalvegetationstatemonitoringonaerialimages
AT dudkinaa convolutionalneuralnetworksintasksofagriculturalvegetationstatemonitoringonaerialimages
first_indexed 2025-11-27T07:34:10Z
last_indexed 2025-11-27T07:34:10Z
_version_ 1849928038715752448
fulltext ISSN 1561-5359. Штучний інтелект, 2018, № 3 © В.В. Ганченко, А.А. Дудкин 103 УДК 004.93'1 В.В. Ганченко, А.А. Дудкин Объединенный институт проблем информатики, Беларусь ул. Сурганова, 6, г.Минск, 220012 СВЕРТОЧНЫЕ НЕЙРОННЫЕ СЕТИ В ЗАДАЧАХ МОНИТОРИНГА СОСТОЯНИЯ СЕЛЬСКОХОЗЯЙСТВЕННОЙ РАСТИТЕЛЬНОСТИ ПО ДАННЫМ АЭРОФОТОСЪЕМКИ V. Ganchenko, A. Doudkin United Institute of Informatics Problems, Belarus 6, Surganova St., Minsk, 220012 CONVOLUTIONAL NEURAL NETWORKS IN TASKS OF AGRICULTURAL VEGETATION STATE MONITORING ON AERIAL IMAGES В данной работе рассматривается задача распознавания состояния сельскохозяйственной раститель- ности по данным аэрофотосъемки различного пространственного разрешения. В качестве основы для рас- познавания используется классификатор, позволяющий осуществлять классификацию входного изображе- ния на три класса: «здоровая растительность», «пораженная растительность» и «почва». Предложенный классификатор строится из двух сверточных нейронных сетей, позволяющих выполнять классификацию на два класса: «здоровая растительность» и «пораженная растительность», «растительность» и «почва». Ключевые слова: сверточная нейронная сеть, аэрофотосъемка, сельскохозяйственная растительность In the article a recognition task of agricultural vegetation using aerial images of different spatial resolution is considered. An image classifier is proposed that allows classifying image segments into three classes: “healthy vegeta- tion”, “diseased vegetation” and “soil”. This classifier is implemented by two convolution neural networks that previ- ously form two classes of vegetation state: “healthy vegetation”-“diseased vegetation” and “vegetation”-“soil”. Keywords: convolutional neural networks, aerial images, agricultural vegetation Введение Развитие точного земледелия пред- полагает наличие точной и оперативно обновляемой информации о состоянии растительности и почвы. Получение по- добной информации возможно только при использовании дистанционного зон- дирования. Дистанционные методы мо- ниторинга сельскохозяйственных полей дают возможность оперативно выявить пораженные болезнью участки раститель- ности. Выявление заболевания на ранних стадиях развития позволяет оперативно и с минимальными затратами локализовать и вылечить заболевание. Выделяют два основных подхода к решению задачи вы- явления пораженных участков – спектро- метрический и оптический [1-7]. Спект- рометрический подход позволяет опреде- лять многие заболевания на ранних ста- диях развития. Однако, этот подход тре- бует наличия многоспектрального съе- мочного оборудования, что не всегда возможно. Использование беспилотных лета- тельных аппаратов (БПЛА) является эф- фективным методом сбора данных на местах. Использование БПЛА в сельском хозяйстве быстро распространяется, т.к. является более дешевым при более высо- кой по сравнению со спутниками опера- тивностью [8-9]. БПЛА предоставляют визуальную информацию о больших пло- щадях сельскохозяйственных культур максимально быстро, что позволяет руко- водителям хозяйств принимать оператив- ные решения. Полученные изображения затем могут быть импортированы в базу данных геоинформационной системы для дальнейшей обработки и анализа. Одним из наиболее успешных мето- дов, используемых при обработке аэро- фотоснимков растительности, является использование искусственных нейронных сетей [10]. ISSN 1561-5359. Штучний інтелект, 2018, № 3 104 © В.В. Ганченко, А.А. Дудкин В данной статье используется под- ход, основанный на использовании свер- точных нейронных сетей (СНС). Свер- точные сети успешно используются при решении различных задач точного земледелия. В работах [11-13] показано выделе- ние сорняков на полях с точностью выше 90 % на данных, получаемых от робота, с использованием СНС как для классифи- кации объектов, так и для семантической сегментации. В [14] применены для классифика- ции посевов (хотя они и составляют толь- ко часть искомых классов) по данным вы- сотной аэрофотосъемки. При этом авто- рам удалось достичь точности около 89 %, что превышает аналогичные пока- затели для SVM. Очень широкое применение СНС нашли и в задаче классификации заболе- ваний растительности. Так работы [15- 18] описывают использование СНС для классификации аномалий развития и за- болеваний различных культурных расте- ний с точностью, превышающей 90 %. Однако основной проблемой этих работ является то, что классификация, позволяя определить заболевание, требует наличия изображений отдельных листьев. Это значительно ограничивает применение результатов для получения карт пора- женной растительности, т.к. подготовка таких карт требует оценки состояния рас- тительной массы, а не каждого листа в отдельности. Представленная работа фокусируется на распознавании участков растительнос- ти, состояние которой изменилось под вли- янием заболевания. При этом классифика- ция самого заболевания на таких участках на данном этапе не производится. Объектом исследования являются цветные изображения сельскохозяйствен- ных полей. Цель работы состоит в разработке алгоритмов обработки цветных изобра- жений растительных покровов, получен- ных с помощью цифровой съемки раз- личного пространственного разрешения, а также их реализации в виде програм- мных средств для систем компьютерного зрения. Постановка задачи Задачей исследования является разработка алгоритма преобразования , позволяющего получить из исходного изображения сельскохо- зяйственного поля такое изображе- ние , каждый пиксель которого получен из соответствующего пикселя изображения , либо его окрестности. Каждый пиксель изображе- ния соответствует точке в про- странстве RGB. Каждый пиксель соответствует одному из трех классов («здоровая растительность», «по- раженная растительность» и «почва»). Задачи классификации заболеваний растительности и поиска сорной расти- тельности в данном исследовании не решались. Материалами для исследований явились фотографии отдельных растений и экспериментального участка поля, заса- женного картофелем. Последние выпол- нялись с высоты 5, 15, 50 и 100 метров [19-20]. Для получения данных неболь- шой участок поля был выделен при помо- щи четырех квадратных меток. Длина стороны квадрата равна одному метру, также на метку нанесены две черных ли- нии шириной 20 см, при пересечении да- ющие крест. Наличие этих меток позво- ляет не только определять участок для исследований, но и вычислять простран- ственное разрешение снимков. Наблюдению подвергались 3 группы растений: растения, зараженные болезнью из группы alternaria; растения, зараженные бактериальной болезнью erwinia; здоро- вые растения (контрольная группа). Исходные данные Съемка растений проводилась еже- дневно в 8, 10, 12, 14 и 16 часов на протя- жении 8 дней июля. ISSN 1561-5359. Штучний інтелект, 2018, № 3 © В.В. Ганченко, А.А. Дудкин 105 В результате развития указанных заболеваний происходит разрушение хло- рофила в листьях картофеля, что приво- дит к изменению цвета растения. Необхо- димо отметить, что в ясную погоду созда- ваемые солнцем блики на листьях также создавали эффект их пожелтения. Это вносило дополнительную ошибку при ав- томатической обработке. 100 метров 50 метров 15 метров 5 метров Рис. 1. Примеры исходных аэрофотоснимков Описание проблемы Анализ цветовых характеристик различных типов объектов на базе их гис- тограмм показывает заметное их разли- чие для почвы и растительности (для всех цветовых каналов), а также различие по синему каналу для здоровых и больных растений. К примеру, для изображений здоровой, пораженной заболеванием рас- тительности и почвы на соответствую- щих гистограммах можно увидеть, что гистограмма почвы отличается от гисто- грамм растительности на каждом цвето- вом канале, а гистограммы каналов здо- ровой и пораженной растительности от- личаются по форме. Однако наличие в выделенном участке изображений объектов несколь- ких типов приводит к искажению норма- лизованной редуцированной гистограм- мы идеального типового объекта – сме- щение и искажение пика гистограммы. Подобные искажения, а также зна- чительное подобие цветовых характерис- тик здоровой и пораженной заболевания- ми растительности требуют информации о структуре изображений различных классов для их распознавания. Структур- ная информация может быть учтена при использовании СНС в качестве основы для алгоритма. Классификатор «растительность– почва» Классификатор «растительность– почва» представляет собой сверточ- ную нейронную сеть (СНС) [21], осу- ществляющую классификацию входного изображения на два класса «раститель- ность» и «почва». В связи со значитель- ными различиями в цветовых характерис- тиках этих двух классов данный класси- фикатор не требует сложной структуры. ISSN 1561-5359. Штучний інтелект, 2018, № 3 106 © В.В. Ганченко, А.А. Дудкин СНС имеет следующую структуру (параметры сети были выбраны эмпирически): – Размер входного слоя: . – Сверточный слой Conv2D № 1: размер фильтра Fs = 3, количество фильтров Fc = 4, функция активации – ReLU. – Conv2D № 2: Fs = 3, Fc = 8, ReLU. – Полносвязный слой: количество нейронов = 16, ReLU. – Выходной слой: количество нейронов = 2 (соответствуют классам «раститель- ность» и «почва» ), функция активации – сигмоидная. Функция потерь (loss) – softmax cross entropy [22]. Обучение: – Размер обучающей выборки: 110528 изображений. – Размер валидационной выборки: 27632 изображений (20 % общей базы). – Результирующая точность на валида- ционной выборке: 96.9%. Обучающая выборка была получена путем «нарезки» имеющихся аэрофото- снимков с размеченными участками. При этом нарезались участки размером 32, 64 и 128 пикселей с перекрытием и добавле- нием поворотов на углы, кратные 90. Подготовленное изображение масштаби- ровалось до размера, требуемого на вход сети. Классификатор «здоровая–пора- женная растительность» Классификатор «здоровая–поражен- ная растительность» также пред- ставляет собой СНС, осуществляющую классификацию входного изображения на два класса «здоровая растительность» и «пораженная растительность». В связи со значительными различиями в цветовых характеристиках этих двух классов дан- ный классификатор потребовал более сложной структуры. СНС имеет следующую структуру (параметры сети также были выбраны эмпирически): – Размер входного слоя: . – Conv2D № 1: Fs = 3, Fc = 32, функция активации – ReLU. – Conv2D № 2: Fs = 3, Fc = 32, ReLU. – Conv2D № 3: Fs = 3, Fc = 32, ReLU. – Conv2D № 4: Fs = 5, Fs = 64, ReLU. – Полносвязный слой № 1: количество нейронов = 128, ReLU. – Полносвязный слой № 2: количество нейронов = 128, ReLU. – Выходной слой: количество нейронов =2 (соответствуют классам «здоровая растительность» и «поражен- ная растительность»), функция актива- ции – сигмоидная. Функция потерь (loss) – softmax cross entropy. Обучение: – Размер обучающей выборки: 22244 изображений. – Размер валидационной выборки: 5560 изображений (20 % общей базы). – Результирующая точность на валида- ционной выборке: 93.8 %. Объединение классификаторов Т.к. требуется получить классифи- катор на три класса, то следует объеди- нить полученные двухклассовые класси- фикаторы в один. Для этого воспользуемся тем, что классы «здоровая растительность» и «пораженная растительность» явля- ются подклассами класса «раститель- ность» . Значение на выходе класси- фикатора «растительность–почва» , соответствующее классу «раститель- ность» , находится в диапазоне [0; 1] и может быть использовано в ка- честве коэффициента для выходов клас- сификатора «здоровая–пораженная рас- тительность» . Таким образом, искомый трехклас- совый классификатор получает вы- ходные значения принадлежности вход- ного изображения следующим образом: 1. Получить выходы (расти- тельность) и (почва) класси- фикатора . ISSN 1561-5359. Штучний інтелект, 2018, № 3 © В.В. Ганченко, А.А. Дудкин 107 2. Получить выходы (здоровая растительность) и (поражен- ная растительность) классификатора . 3. Получить выходы классификатора в виде: Алгоритм распознавания В целом алгоритм распознавания (преобразование ) можно представить в следующем виде: 1. Загрузить исходное цветное изобра- жение размером . 2. Для : 2.1. Получаем окрестность пикселя в позиции в виде цветного изображения размером пикселя. 2.2. Подаем полученное изображение на классификаторы и . 2.3. Выходные значения классифика- торов и используем для вычисления выходов общего клас- сификатора . 2.4. Получаем индекс класса: 2.5. Присваиваем пикселю выходного изображения значение, соответствующее псевдоцвету индекса класса: светло-серый – здоровая расти- тельность, белый – пораженная растительность, темно-серый – почва. 3. Сохраняем полученное изображение . Тестирование Тестирование объединения класси- фикаторов осуществлялось на общей базе изображений классов: обучающая + вали- дационная выборка. При этом оценива- лась точность классификации для каждо- го класса в отдельности. Полученные результаты тестирования приведены в табл. 1. Таблица 1. Результаты тестирования объединения классификаторов Класс Точность, % Пораженная растительность 74.29 Здоровая растительность 90.16 Почва 99.03 Наибольшее количество ошибок возникало на участках, соответствующих границе здоровой растительности и поч- вы (в особенности в местах, где неболь- шие участки почвы окружены раститель- ностью, создающей на этом участке поч- вы тень; см. табл. 2). Таблица 2. Оценка количества ошибок Класс Ошибка I, % Ошибка II, % Пораженная растительность 25.71 10.69 Здоровая растительность 9.84 10.66 Почва 0.97 15.17 Полученная при тестировании рас- познавания точность – 75-84 % в зависи- мости от разрешения снимка, освещения на нем и количества «пятен» почвы в растительной массе. Выводы Предложен и реализован с исполь- зованием библиотеки Tensorflow алго- ритм распознавания состояния раститель- ности на базе двух СНС по данным аэро- фотосъемки. Предложенный алгоритм позволяет снизить влияние шумовых факторов (освещение, солнечные блики) на качество получаемых карт поражен- ной растительности за счет использова- ния СНС. При этом использование двух СНС позволило снизить искажение цве- товых характеристик изображений ок- рестностей пикселей при попадании в не- го растительности и почвы. Дальнейшие исследования предпо- лагают наличие нейросетевого детекти- рования для выделения посторонних предметов, а также нейросетевой семан- ISSN 1561-5359. Штучний інтелект, 2018, № 3 108 © В.В. Ганченко, А.А. Дудкин тической сегментации для исключения необходимости дополнительного алго- ритма и снижения количества ошибок в проблемных областях. Литература 1. Беляев, Б.И. (2006) Оптическое дистанционное зондирование. Минск: БГУ. 455 с. 2. Шовенгердт, Р.А. (2013) Дистанционное зондирование. Модели и методы обработки изображений. М.: Техносфера. 592 с. 3. Chao, К. (2002) Machine vision technology for agricultural applications. Elsevier science transactions on computers and electronics in agriculture. Vol. 36. P. 173-191. 4. Kumar, N. (2004) Do leaf surface' characteristics affect agrobaсterium infection in tea [camellia sinensis (1)]. Vol. 29, № 3. P. 309-317. 5. Wu, L. (2009) Identification of weed, corn using BP network based on wavelet features and fractal dimension. Scientific Research and Essay. November, 2009. – Vol. 4 (11). – P. 1194-1400. 6. Qin, Zh. (2005) Detection of rice sheath blight for in-season disease management using multispectral remote sensing. International Journal of Applied Earth Observation and Geoinformation. Vol. 7. P. 115-148. 7. Aksoy, S. (2010) Automatic mapping of linear woody vegetation features in agricultural landscapes using very high-resolution imagery. IEEE Transactions on Geoscience and Remote Sensing. № 48 (1, 2). P. 511-522. 8. Abdullahi, H.S. (2017) Advances of image processing in Precision Agriculture: Using deep learning convolution neural network for soil nutrient classification. Journal of Multidisciplinary Engineering Science and Technology (JMEST). Vol. 4, Issue 8. P. 7981-7987. 9. Wright, D., Rasmussen, V., Ramsey, R., Baker, D., Ellsworth, J. (2004) Canopy Reflectance Estimation of Wheat Nitrogen Content for Grain Protein Management. GIScience Remote Sens. Vol. 41, No. 4. P. 287–300. 10. Mate, K.A., Pooja, G., Kavita, S.R. (2016) Feature Extraction Algorithm for Estimation of Agriculture Acreage from Remote Sensing Images. P. 5–9. 11. Huang, H., Deng, J., Lan, Y., Yang, A., Deng, X., Zhang, L. (2018) A fully convolutional network for weed mapping of unmanned aerial vehicle (UAV) imagery. PLoS ONE 13(4): e0196302. 12. Sa, I. (2018) WeedNet: Dense Semantic Weed Classification Using Multispectral Images and MAV for Smart Farming. IEEE Robotics and Automation Letters. Vol. 3(1). P. 588-595. 13. Potena, C., Nardi, D., Pretto, A. (2017) Fast and Accurate Crop and Weed Identification with Summarized Train Sets for Precision Agriculture: Intelligent Autonomous Systems. P. 105-121. 14. Yao, C., Zhang, Y., Zhang, Y., Liu, H. (2017) Application of convolutional neural network in classification of high resolution agricultural remote sensing images, Int. Arch. Photogramm. Remote Sens. Spatial Inf. Sci., XLII-2/W7. P. 989-992. 15. Atole, R.R., Park, D. (2018) A Multiclass Deep Convolutional Neural Network Classifier for Detection of Common Rice Plant Anomalies. IJACSA: International Journal of Advanced Computer Science and Applications. Vol. 9, No. 1. P. 67-70. 16. Rajmohan, R., Pajany, M., Rajesh, R., Raman, D.R., Prabu, U. (2018) Smart paddy crop disease identification and management using deep convolution neural network and SVM classifier. International Journal of Pure and Applied Mathematics. Vol. 118, No. 15. P. 255-264. 17. Athanikar, G., Badar, P. (2016) Potato Leaf Diseases Detection and Classification System. International Journal of Computer Science and Mobile Computing. Vol. 5 Issue, 2. P. 76-88. 18. Sladojevic, S., Arsenovic, M., Anderla, A., Culibrk, D., Stefanovic, D. (2016) Deep Neural Networks Based Recognition of Plant Diseases by Leaf Image Classification. Computational Intelligence and Neuroscience. 11 p. 19. Sobkowiak, B. (2006) Zastosowanie technik analizy obrazu do wczesnego wykrywania patogenow ziemniaka. Praca nie publicowana. Poznan: PIMR. 20. Sobkowiak, B. (2007) Zastosowanie technik analizy obrazu do wczesnego wykrywania zarazy ziemnechanej w warynkach polowych. Praca nie publicowana. Poznan: PIMR. 21. Николенко, С., Кадурин, А., Архангельская, Е. (2018) Глубокое обучение. СПб.: Питер. 480 с. 22. Tensorflow API documentation. Available from: https://www.tensorflow.org/api_docs/python/tf/n n/softmax_cross_entropy_with_logits_v2 References 1. Belyayev, B.I. (2006) Opticheskoye distantsionnoye zondirovaniye. Minsk: BGU. 455 s. 2. Shovengerdt, R.A. (2013) Distantsionnoye zondirovaniye. Modeli i metody obrabotki izob- razheniy. M.: Tekhnosfera. 592 s. 3. Chao, К. (2002) Machine vision technology for agricultural applications. Elsevier science transactions on computers and electronics in agriculture. Vol. 36. P. 173-191. 4. Kumar, N. (2004) Do leaf surface' characteristics affect agrobaсterium infection in tea [camellia sinensis (1)]. Vol. 29, № 3. P. 309-317. 5. Wu, L. (2009) Identification of weed, corn using BP network based on wavelet features and fractal dimension. Scientific Research and Essay. November, 2009. – Vol. 4 (11). – P. 1194-1400. 6. Qin, Zh. (2005) Detection of rice sheath blight for in-season disease management using multispectral remote sensing. International Journal of Applied Earth Observation and Geoinformation. Vol. 7. P. 115-148. ISSN 1561-5359. Штучний інтелект, 2018, № 3 © В.В. Ганченко, А.А. Дудкин 109 7. Aksoy, S. (2010) Automatic mapping of linear woody vegetation features in agricultural landscapes using very high-resolution imagery. IEEE Transactions on Geoscience and Remote Sensing. № 48 (1, 2). P. 511-522. 8. Abdullahi, H.S. (2017) Advances of image processing in Precision Agriculture: Using deep learning convolution neural network for soil nutrient classification. Journal of Multidisciplinary Engineering Science and Technology (JMEST). Vol. 4, Issue 8. P. 7981-7987. 9. Wright, D., Rasmussen, V., Ramsey, R., Baker, D., Ellsworth, J. (2004) Canopy Reflectance Estimation of Wheat Nitrogen Content for Grain Protein Management. GIScience Remote Sens. Vol. 41, No. 4. P. 287–300. 10. Mate, K.A., Pooja, G., Kavita, S.R. (2016) Feature Extraction Algorithm for Estimation of Agriculture Acreage from Remote Sensing Images. P. 5–9. 11. Huang, H., Deng, J., Lan, Y., Yang, A., Deng, X., Zhang, L. (2018) A fully convolutional network for weed mapping of unmanned aerial vehicle (UAV) imagery. PLoS ONE 13(4): e0196302. 12. Sa, I. (2018) WeedNet: Dense Semantic Weed Classification Using Multispectral Images and MAV for Smart Farming. IEEE Robotics and Automation Letters. Vol. 3(1). P. 588-595. 13. Potena, C., Nardi, D., Pretto, A. (2017) Fast and Accurate Crop and Weed Identification with Summarized Train Sets for Precision Agriculture: Intelligent Autonomous Systems. P. 105-121. 14. Yao, C., Zhang, Y., Zhang, Y., Liu, H. (2017) Application of convolutional neural network in classification of high resolution agricultural remote sensing images, Int. Arch. Photogramm. Remote Sens. Spatial Inf. Sci., XLII-2/W7. P. 989-992. 15. Atole, R.R., Park, D. (2018) A Multiclass Deep Convolutional Neural Network Classifier for Detection of Common Rice Plant Anomalies. IJACSA: International Journal of Advanced Computer Science and Applications. Vol. 9, No. 1. P. 67-70. 16. Rajmohan, R., Pajany, M., Rajesh, R., Raman, D.R., Prabu, U. (2018) Smart paddy crop disease identification and management using deep convolution neural network and SVM classifier. International Journal of Pure and Applied Mathematics. Vol. 118, No. 15. P. 255-264. 17. Athanikar, G., Badar, P. (2016) Potato Leaf Diseases Detection and Classification System. International Journal of Computer Science and Mobile Computing. Vol. 5 Issue, 2. P. 76-88. 18. Sladojevic, S., Arsenovic, M., Anderla, A., Culibrk, D., Stefanovic, D. (2016) Deep Neural Networks Based Recognition of Plant Diseases by Leaf Image Classification. Computational Intelligence and Neuroscience. 11 p. 19. Sobkowiak, B. (2006) Zastosowanie technik analizy obrazu do wczesnego wykrywania patogenow ziemniaka. Praca nie publicowana. Poznan: PIMR. 20. Sobkowiak, B. (2007) Zastosowanie technik analizy obrazu do wczesnego wykrywania zarazy ziemnechanej w warynkach polowych. Praca nie publicowana. Poznan: PIMR. 21. Nikolenko, S., Kadurin, A., Arkhangel'skaya, Ye. (2018) Glubokoye obucheniye. SPb.: Piter. 480 s. 22. Tensorflow API documentation. Available from: https://www.tensorflow.org/api_docs/python/tf/nn /softmax_cross_entropy_with_logits_v2 RESUME V. Ganchenko, A. Doudkin Convolutional neural networks in tasks of agricultural vegetation state monitoring on aerial images A precision farming implies availabi- lity of accurate and promptly updated infor- mation about a state of vegetation and soil. It is only possible to obtain such information if remote sensing is used. Remote methods of monitoring agricultural fields allow quick identifying diseased areas of the vegetation in the early stages of development and cure the diseases promptly and with minimal cost. Artificial neural networks are com- monly used for processing of aerial photo- graphs of vegetation, particularly convoluti- onal neural networks in application for weed out, classification of crops, classification of diseases and other tasks. This article deals with recognition of vegetation areas, state of which has changed under diseases influence. The task under decision consists in the separation of images of agricultural fields into segments of three types (classes): soil, healthy vegetation, diseased vegetation. Origin data are aerial photographs of an experimental field of agricultural vegetation of various spatial resolutions. Analysis of color characteristics showed significant intersection of these characteristics for healthy and diseased vegetation. This fact significantly compli- cates identification and classification of image segments of the field. A presence different distortion on the field images (for instance, soil segments) also reduces clas- sification accuracy: healthy areas may be recognized as diseased ones. At the same ISSN 1561-5359. Штучний інтелект, 2018, № 3 110 © В.В. Ганченко, А.А. Дудкин time, vegetation and soil can be separated by color quite successfully. To solve problem of classification into three classes, it is proposed to use a hierar- chical classifier that consists of two-class classifiers "soil-vegetation" and "healthy vegetation-diseased vegetation." Each of them is a convolutional neural network with 33x33x3 inputs and an output layer with two neurons. The first convolutional neural network has two convolutional layers and one hidden fully connected layer and gives 96.9 % accuracy for "soil-vegetation" clas- sification on validation set. The second clas- sifier has four convolutional layers and two hidden fully connected layers. The accuracy for "healthy vegetation-diseased vegetation" classification is 93.8 % on validation set. For obtaining of three classes, the classifi- cation results are combined as follows: for "soil" class corresponding value of the first classifier is used; for "healthy vegetation" and "diseased vegetation", corresponding values of the second classifier are multiplied by value of output "vegetation" of the first classifier. Result accuracy for the classes is: "diseased vegetation" – 74.29 %, "healthy vegetation" – 90.16%, and "soil"– 99.03 %. The classifier is implemented using Tensorflow library. The use of convolutional neural networks allows reducing the influence of noise factors (lighting, sun glare) on the quality of maps of affected vegetation. At the same time, the proposed hierarchical classification reduces the distortion of the color characteristics of images of the neighborhoods of pixels when vegetation and a soil get into them. Results obtained during the research will be further used for semantic image segmentation based on convolutional neural network. Работа выполнена при поддержке БРФФИ (проект № Ф18В-005) и ГКНТ Республики Беларусь (проект № Ф18ПЛШГ-008П). Надійшла до редакції 19.10.2018