PONTIFICIA UNIVERSIDAD CATÓLICA DEL PERÚ ESCUELA DE POSGRADO CARACTERIZACIÓN DE TEXTURA EN IMÁGENES DIGITALES DE HOJAS DE PLANTAS MEDIANTE DIMENSIÓN FRACTAL MULTIESCALA Tesis para optar el grado de Magíster en Informática con mención en Ciencias de la Computación que presenta: SOFÍA KHLEBNIKOV NÚÑEZ Asesores: DR. CÉSAR ARMANDO BELTRÁN CASTAÑÓN DR. ODEMIR MARTINEZ BRUNO Jurados: DR. HECTOR ANDRÉS MELGAR SASIETA DR. HUGO ALATRISTA SALAS LIMA – PERÚ 2018 Resumen Actualmente aún existen áreas de la Amazońıa donde se puede encontrar especies de plantas que necesitan ser identificadas y estudiadas para poder conocer sus propiedades médicas, nutricionales, industriales, etc. En muchos casos, los especialistas realizan un análisis manual, confiando en sus habili- dades sensoriales y experiencia, pero eso demanda tiempo y dinero. Por eso, es importante tener una herramienta efectiva que permita hacer un rápido y eficiente reconocimiento de las plantas. Con este trabajo queremos dar un aporte al área de la investigación de reconocimiento y clasificación de plantas, presentando los resultados de la caracterización de plantas a través de la textura de la hoja. El objetivo es evaluar el método Bouligand-Minkowski basado en dimen- sión fractal multiescala, usando imágenes digitales para la caracterización de la textura de hojas de la Amazońıa del Perú, con el fin de ayudar a mejorar su identificación y catalogación. Para lograr el objetivo de la investigación se trabajó con dos bases de datos: ImageCLEF 2012, con 101 especies de plantas y PERALD de 27 espe- cies. La primera es la base de datos de validación y la segunda es objeto de la investigación. El paso inicial de este trabajo fue la aplicación de un pre- procesamiento de las imágenes de las plantas. Luego, las imágenes fueron divididas en cuadrados de 128 x 128 ṕıxeles, seleccionando los 5 mejores por i RESUMEN ii cada imagen. Este paso era necesario para facilitar la caracterización de la textura. Después se aplicó el método Bouligand-Minkowski a cada muestra para obtener los descriptores de la textura de la planta. Estos descripto- res fueron la entrada al clasificador Multilayer Perceptron generando aśı un modelo de clasificación de plantas de base de datos PERALD. Palabras claves: Plantas, ImageCLEF 2012, PERALD, procesamiento de imágenes, dimensión fractal multiescala, método Bouligand-Minkowski, tex- tura, Multilayer Perceptron Abstract Nowdays, there are areas of Amazon jungle where exist plant species that need to be identified and studied to know their properties, such as medicinal, nutritional, or industrial. In many cases, specialists perform a manual analy- sis, relying on their sensory skills and experience, but this demands time and money. For that reason, it is important to have an effective tool that allows to make a quick and efficient recognition of plants. With this work we want to give a contribution to the research area of recognition and classification of plants, presenting the results of the charac- terization of plants through the texture of the leaf. The objective is to evaluate the Bouligand-Minkowski method based on multiscale fractal dimension, using digital images for the characterization of the texture of the leaves of the Peruvian Amazon jungle, in order to help improve their identification and cataloging. To achieve the objective of the research, we worked with two databases: ImageCLEF 2012, with 101 plant species and PERALD of 27 species. The first one is the validation database and the second database is the subject of the investigation. The initial step of this work was pre-processing of the plant images. Then, the images were divided into squares of 128 x 128 pixels, selecting the best 5 for each image. This step was necessary to facilitate tex- ture characterization. Then the Bouligand-Minkowski method was applied to iii ABSTRACT iv each sample to obtain the plant’s texture descriptors. These descriptors were the input to the Multilayer Perceptron classifier, thus generating a PERALD database plant classification model. Keywords: Plants, ImageCLEF 2012, PERALD, image processing, mul- tiscale fractal dimension, Bouligand-Minkowski method, texture, Multilayer Perceptron Agradecimientos Gracias a mis asesores Dr.César Beltrán y al Dr.Odemir Martinez. A los miembros del jurado Dr.Andrés Melgar y Dr.Hugo Alatrista. Quiero agradecer a todos mis familiares y amigos que me ayudaron y apoyaron en el proceso de preparación de este trabajo, desde la etapa de escoger el tema, durante la investigación y recolección de la información, hasta el proceso de desarrollo y redacción de la tesis. Y también un enorme agradecimiento a las personas que tuvieron el tiempo y la paciencia para revisarla. Muchas gracias a todos por su tiempo y dedicación. v Índice general Resumen I Abstract III Agradecimientos V 1. Generalidades 1 1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2. Definición del problema . . . . . . . . . . . . . . . . . . . . . . 4 1.3. Objetivo general . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.4. Objetivos espećıficos . . . . . . . . . . . . . . . . . . . . . . . 6 1.5. Resultados esperados . . . . . . . . . . . . . . . . . . . . . . . 6 1.6. Fuentes de datos . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.7. Algoritmos y herramientas . . . . . . . . . . . . . . . . . . . . 8 1.8. Justificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.9. Limitaciones del proyecto . . . . . . . . . . . . . . . . . . . . . 10 1.10. Organización del documento . . . . . . . . . . . . . . . . . . . 11 2. Marco Conceptual y Metodológico 12 2.1. Conceptos generales . . . . . . . . . . . . . . . . . . . . . . . . 12 2.1.1. Imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 vi ÍNDICE GENERAL vii 2.2. Proceso de caracterización de textura mediante Dimensión Fractal Multiescala . . . . . . . . . . . . . . . . . . . . . . . . 13 2.3. Adquisición de imágenes y base de datos . . . . . . . . . . . . 14 2.4. Segmentación de imágenes . . . . . . . . . . . . . . . . . . . . 14 2.4.1. Método de Otsu . . . . . . . . . . . . . . . . . . . . . . 15 2.5. Caracterización de hojas de plantas . . . . . . . . . . . . . . . 16 2.6. Textura de la hoja . . . . . . . . . . . . . . . . . . . . . . . . 16 2.7. Dilatación exacta . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.8. Fractal y dimensión fractal . . . . . . . . . . . . . . . . . . . . 19 2.8.1. Box-counting . . . . . . . . . . . . . . . . . . . . . . . 22 2.8.2. Método Bouligand-Minkowski . . . . . . . . . . . . . . 23 2.9. Clasificación o reconocimiento del objeto . . . . . . . . . . . . 28 2.9.1. Clasificador Perceptrón Multicapa (MLP) . . . . . . . 28 3. Estado del Arte 30 3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.2. Resumen de caracteŕısticas de plantas, métodos para extraer- las y clasificadores . . . . . . . . . . . . . . . . . . . . . . . . 31 4. Desarrollo y Resultados 36 4.1. Base de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 4.1.1. ImageCLEF 2012 . . . . . . . . . . . . . . . . . . . . . 36 4.1.2. PERALD . . . . . . . . . . . . . . . . . . . . . . . . . 37 4.2. Pre-procesamiento y segmentación . . . . . . . . . . . . . . . . 40 4.3. Generación de muestras . . . . . . . . . . . . . . . . . . . . . 41 4.4. Generación del vector de caracteŕısticas por DFM . . . . . . . 42 4.4.1. Transformación volumétrica de la textura . . . . . . . . 42 ÍNDICE GENERAL viii 4.4.2. Diagrama de flujo del proceso y la explicación de la parte principal del proceso . . . . . . . . . . . . . . . . 45 4.5. Clasificación de especies de plantas con DFM . . . . . . . . . 49 4.6. Dimensión Fractal Multiescala como componente de vector de caracteŕısticas . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 4.6.1. Conjunto de datos y caracteŕısticas . . . . . . . . . . . 52 4.6.2. Combinación de caracteŕısticas . . . . . . . . . . . . . 53 4.6.3. Combinación de caracteŕısticas con MFD textura . . . 54 4.6.4. Análisis de la relevancia de clasificación . . . . . . . . . 57 5. Conclusiones y trabajos futuros 58 5.1. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 5.2. Recomendaciones y trabajos futuros . . . . . . . . . . . . . . . 60 Bibliograf́ıa 61 A. Art́ıculo presentado en CAIP2015 69 Índice de figuras 2.1. Metodoloǵıa de caracterización de textura mediante dimensión fractal multiescala para la clasificación de hojas de plantas . . 14 2.2. Hoja original y hoja segmentada por el método Otsu . . . . . 16 2.3. Hoja con muestras de textura seleccionadas y ampliación de una muestra . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.4. Ejemplo de dilatación de un contorno S de la imagen de hoja en blanco y negro . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.5. Ejemplo de un diseño fractal y la textura de una hoja que se asemeja a una estructura fractal . . . . . . . . . . . . . . . . . 20 2.6. Curva de Koch . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.7. Secuencia de dilataciones de ṕıxeles del contorno de la hoja en una imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.8. Matriz de distancias de una región de imagen de la hoja . . . 24 2.9. Curva log-log obtenida con el método Bouligand-Minkowski . . 27 2.10. Ejemplo de curvas de dimensión fractal multiescala . . . . . . 27 4.1. Ejemplos de hojas de 115 especies de ImageCLEF 2012 . . . . 37 4.2. Ejemplos de 14 especies de ImageCLEF 2012 que fueron des- cartas debido a la dificultad de extracción de muestras . . . . 38 4.3. Ejemplos de hojas (envés y haz) de 27 especies de UNIA . . . 39 ix ÍNDICE DE FIGURAS x 4.4. Pre-procesamiento de la imagen . . . . . . . . . . . . . . . . . 40 4.5. Proceso de generación de muestras . . . . . . . . . . . . . . . 41 4.6. Muestra de imágenes de textura de una hoja de PERALD (haz y envés) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 4.7. Región extráıda de la hoja que muestra la textura y su repre- sentación en volumen, generada por la dilatación de la textura 44 4.8. Curva log(V (r)) vs. log(r), representa la relación entre volu- men y distancia de dilatación . . . . . . . . . . . . . . . . . . 45 4.9. Pasos del proceso de análisis de textura de hojas . . . . . . . . 46 Índice de cuadros 4.1. Resultados de la clasificación de textura de ImageCLEF 2012 y PERALD . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 4.2. Caracteŕısticas extráıdas . . . . . . . . . . . . . . . . . . . . . 52 4.3. Resultados de clasificación de 115 especies . . . . . . . . . . . 53 4.4. Resultados de clasificación ImageCLEF 2012 sin textura . . . 54 4.5. Resultados de clasificación ImageCLEF 2012 con textura . . . 54 4.6. Resultados de clasificación PERALD sin textura (hoja haz) . . 55 4.7. Resultados de clasificación PERALD con textura (hoja haz) . 55 4.8. Resultados de clasificación PERALD sin textura (hoja envés) . 56 4.9. Resultados de clasificación PERALD con textura (hoja envés) 56 xi Caṕıtulo 1 Generalidades 1.1. Introducción Según los datos del Ministerio del Ambiente del Perú: “60 % del territorio nacional está cubierto por bosques (73,3 millones de hectáreas), ubicados en la costa, sierra y selva; lo que nos convierte en el segundo páıs de América Latina con mayor extensión de bosques tropicales, después de Brasil”1,2. De acuerdo al Ministerio de Agricultura y Riego del Perú: “Se calcula que existen unas 25 000 especies de flora (10 % del total mundial), de las cuales un 30 % son especies endémicas. Es el páıs con mayor número de especies de plantas cuyas propiedades son utilizadas por la población y primero en especies domesticadas nativas”3. Todas estas especies están concentradas en su mayoŕıa en la Amazońıa, convirtiendo a esta región en la más impor- tante del páıs en cuanto a variedad de plantas. Sin embargo, aún existen áreas poco exploradas donde se puede encontrar especies desconocidas, las 1http://www.minam.gob.pe/bosques/los-bosques-en-cifras/ 2http://www.minam.gob.pe/programa-bosques/el-peru-cuarto-pais-con-mas-bosques- tropicales/ 3http://www.minagri.gob.pe/portal/47-sector-agrario/recurso-biodiversidad/345- diversidad-de-especies 1 Caṕıtulo 1. Generalidades 2 cuales necesitan ser identificadas y estudiadas para conocer sus propiedades médicas, comestibles o como materia prima (Pinedo et al., 1997). Por tal motivo, es importante tener una herramienta efectiva que permita hacer un rápido y eficiente reconocimiento de plantas, antes de que se pierda la valiosa información debido a los factores industriales, ambientales y deforestación. Usualmente, los expertos en botánica, para realizar el reconocimiento y la caracterización de las especies de plantas, hacen un análisis visual de la morfoloǵıa de las hojas, las flores y los frutos; aśı mismo realizan un análisis sensorial del látex del árbol para una mejor precisión. Una de las formas más comunes de identificar a una planta es a través de las hojas, midiendo y analizando el tamaño y la forma, por ser un análisis sensorial simple. Otra forma de identificación de plantas es a través de la nervadura y la textura; este análisis es un buen discriminador, pero es más complejo. En la actua- lidad, la colaboración entre el conocimiento de los especialistas botánicos y las herramientas de la visión computacional, permite mejorar y simplificar el análisis de plantas a través de la nervadura, la textura y la forma, y en con- secuencia, aumenta la eficiencia del proceso de reconocimiento y clasificación de las plantas. Con este trabajo queremos dar un aporte al área de la investigación de reconocimiento y clasificación de plantas, presentando los resultados de la caracterización de plantas a través de la textura de la hoja. ¿Por qué usar la textura? La textura es una caracteŕıstica importante para el análisis de objetos en las imágenes digitales (Laine y Fan, 1993; Haralick, 1979), debido a que representa la consistencia estructural interna del objeto, este punto ayuda en proceso de reconocimiento en botánica (de las hojas vivas y de las imágenes digitales de hojas), porque mediante la textura podemos diferenciar una especie de la otra, cuando las plantas tienen formas o tamaños similares. Caṕıtulo 1. Generalidades 3 Esta caracteŕıstica vaŕıa entre especies, haciendo que también vaŕıen sus pro- piedades biológicas (Sack y Scoffoni, 2013). Además, combinando la textura con otras caracteŕısticas, tales como la nervadura, el color y la morfoloǵıa, mejoramos el análisis de determinación y clasificación de plantas (Manjunath et al., 2001; da Fontoura Costa y Cesar Jr., 2009). A pesar de ser una propiedad importante, no hay una definición única para la textura en el área de visión computacional, muchas veces es definida según el problema que se intenta resolver (Haralick, 1979; Tuceryan y Jain, 1993a; Nixon y Aguado, 2002). Por ejemplo, en Tuceryan y Jain (1993a) la textura de una imagen es definida como función de variación espacial de nivel de intensidad de ṕıxel en escala de grises que genera una combinación de patrones de repetición regular. Por ende, cada trabajo y estudio de análisis de textura aporta algo a la definición de esta. En el ámbito cient́ıfico se han propuesto diferentes métodos para el análi- sis de la textura, en la literatura Kerut et al. (2003) los dividen en dos categoŕıas: cualitativos y cuantitativos; en art́ıculo de Xie (2008) separan los métodos según el enfoque: estad́ıstico, estructural, basado en filtro, basado en fractal y en color-textura. En este trabajo usamos método basado en análisis fractal para obtener las caracteŕısticas de textura de las imágenes de hojas. La caracterización de textura será el enfoque principal del presente trabajo. La caracterización de textura con el método basado en análisis fractal ha ganado interés en la comunidad cient́ıfica. La principal atracción de este método es la habilidad de describir formas complejas e irregulares de los objetos de la naturaleza. Las hojas de las plantas tienen formas geométricas irregulares y complejas, la textura de ellas no es homogénea y las nervaduras no son ĺıneas rectas. Estas tres caracteŕısticas (forma, textura y nervadura) se asemejan a la estructura fractal. Por lo cual, el modelo de fractal es más Caṕıtulo 1. Generalidades 4 apropiado para el análisis de textura de las hojas que el modelo usado para objetos geométricos simples. El fractal, como la propiedad del objeto, es aprovechado en el análisis de identificación y clasificación de distintos tipos de objetos (Lopes y Betrouni, 2009). En la literatura encontramos algunas investigaciones previas (Martinez et al., 2008; Oncevay-Marcos et al., 2015; Backes y Bruno, 2009, 2010; Backes et al., 2009; Plotze et al., 2005; Du et al., 2013) que se enfocaron en aplicar los métodos de caracterización de plantas basados en dimensión fractal. 1.2. Definición del problema La Amazońıa es una región muy importante del Perú, por las diferentes riquezas naturales que se encuentran y que pueden ser explotadas. Como se conoce, en la Amazońıa existen diversas especies de plantas que son utili- zadas para fines médicos (Pinedo et al., 1997), existen especies que aún no tienen el registro formal de sus caracteŕısticas médicas y alimenticias, además existen áreas del bosque tropical que aún no han sido exploradas y por ende hay plantas sin descubrir. La explotación actual de recursos naturales pone en peligro la flora y la fauna del nuestro páıs. Para no perder la valiosa in- formación de estos recursos es importante rescatar, conservar y analizar el valor de los recursos forestales, para esto debemos identificar y analizar las diversas especies de plantas y establecer un registro de las mismas. El empleo de herramientas computacionales para la identificación y caracterización de plantas ayudaŕıa mucho en la conservación de la flora peruana. La identificación de las especies de la Amazońıa peruana, frecuentemente se realiza de manera tradicional, por los especialistas botánicos que, confiados en su experiencia, analizan manualmente las muestras de hojas de plantas, Caṕıtulo 1. Generalidades 5 comparándolas visualmente con las que ya tienen registradas, generalmente en sus herbarios f́ısicos. El presente trabajo se encuentra enmarcado dentro del proyecto de ge- neración de un catálogo digital para plantas endémicas de la Amazońıa4 en el cual se desarrolló un framework para la elaboración de un catálogo digi- tal de especies de plantas de la Amazońıa Peruana, aśı como se generó un sistema de recuperación de imágenes por contenido para el reconocimiento automático de especies de plantas basado en el análisis de la morfoloǵıa de las hojas de plantas. Para ello se constituyó un conjunto de imágenes de ho- jas de plantas que contiene aproximadamente 45 especies (27 especies fueron usadas en el trabajo presente debido a la buena calidad de las imágenes y las caracteŕısticas visuales de las hojas), lo cual representa una primera base de datos digital de especies nativas peruanas. Dentro del proyecto en mención, se propusieron desarrollar diferentes técnicas de caracterización; por tratarse de una nueva base de datos (PE- RALD) esta se presta para poder experimentar con diversos métodos que fueron aplicados en otras bases de datos. La pregunta a nuestro problema a resolver es cómo incrementar el nivel de diferenciación entre especies de plantas mediante el análisis de la estructura morfológica de las especies de plantas. Nuestra hipótesis es saber si el método de caracterización mediante estructuras fractales ayuda en esta diferenciación de especies. 4Proyecto financiado por INNOVATE Perú mediante contrato 183-FINCyT-IB-2013, adjudicado al Grupo de Reconocimiento de Patrones e Inteligencia Artificial, Sección Ing. Informática, PUCP. Caṕıtulo 1. Generalidades 6 1.3. Objetivo general Evaluar el método Bouligand-Minkowski basado en dimensión fractal multiescala, para la caracterización de la textura de las imágenes digita- les de las hojas de la Amazonia del Perú, con el fin de ayudar a mejorar su identificación y catalogación. 1.4. Objetivos espećıficos • Pre-procesar y segmentar dos conjuntos de imágenes digitales de plan- tas, ImageCLEF 2012 y PERALD, usando los métodos estándar en la literatura para estos dos procesos. • Implementar el algoritmo de caracterización de textura basado en Di- mensión Fractal Multiescala. • Aplicar el algoritmo implementado para extraer las caracteŕısticas de las muestras de imágenes de la base de datos generada en el primer ı́tem. • Generar un modelo de clasificación de hojas usando un algoritmo entre- nado con los descriptores extráıdos de textura y evaluar los resultados del modelo de clasificación. 1.5. Resultados esperados • Dos conjuntos de imágenes de hojas de plantas pre-procesadas y seg- mentadas. Caṕıtulo 1. Generalidades 7 • Un algoritmo basado en Dimensión Fractal Multiescala para la carac- terización de textura. • Un espacio de caracteŕısticas, constituido por los vectores extráıdos de cada muestra de imágenes que representa la textura. • Modelo de clasificación y la matriz de confusión que indica la efectivi- dad de clasificación del método propuesto. 1.6. Fuentes de datos Para el presente trabajo se utilizaron dos bases de datos, una para el proceso de validación del modelo y la segunda como objetivo del trabajo por tratarse de una base de datos inédita que se constituye en un aporte. A continuación se detalla cada una de ellas: • ImageCLEF 20125: se trata de un conjunto de imágenes de 101 espe- cies de hojas de plantas de la región mediterránea francesa, que fueron escaneadas, organizadas y compartidas a la comunidad cient́ıfica. Es- ta base de datos se constituye en un gold standard para todo trabajo que implique el reconocimiento automático de especies de plantas, me- diante el análisis estructural de las hojas (Oncevay-Marcos et al., 2015; Yanikoglu et al., 2014; Brilhador et al., 2013; Yanikoglu et al., 2012). • PERALD (Peruvian Amazon Leaves Dataset): este conjunto de imáge- nes digitales es un aporte de los botánicos de la Universidad Nacional Intercultural de la Amazońıa, el mismo que a su vez es parte del pro- yecto de generación de un catálogo digital para plantas endémicas de 5http://www.imageclef.org/2012 Caṕıtulo 1. Generalidades 8 la Amazońıa6. PERALD está constituido por 27 especies de plantas endémicas de la Amazońıa, siendo que se poseen 40 muestras de cada especie (20 del envés y 20 del haz). Las muestras de hojas fueron reco- lectadas en la región de Yarinacocha, Ucayali, por especialistas botáni- cos de la Universidad Nacional Intercultural de la Amazońıa (UNIA), entidad asociada al proyecto referido. 1.7. Algoritmos y herramientas Para el cumplimiento del objetivo general del presente trabajo se imple- mentaron y se aplicaron diversos algoritmos y técnicas que se encuentran descritos en la literatura. Las implementaciones fueron realizadas en lengua- jes Python y Mathematica. Dentro de estos algoritmos, podemos mencionar los siguientes: • Algoritmo de segmentación usando las funciones propias del lenguaje Python, una de las cuales es basada en el método Otsu, el cual nos permitió aislar la región de interés. • Algoritmo para la extracción y selección de muestreo de una imagen digital, basado en un modelo matemático descrito en el trabajo de Backes et al. (2009). Este algoritmo nos permitió generar un conjunto de muestras de textura (parches) de diferentes regiones de la imagen de una hoja de planta. • Algoritmo basado en Dimensión Fractal Multiescala para la extracción de caracteŕısticas de las muestras de textura. 6Proyecto financiado por INNOVATE Perú mediante contrato 183-FINCyT-IB-2013, adjudicado al Grupo de Reconocimiento de Patrones e Inteligencia Artificial, Sección Ing. Informática, PUCP. Caṕıtulo 1. Generalidades 9 Para la experimentación con modelo de clasificación, como Multilayer Perceptron (MLP) utilizamos plataforma WEKA; Esta herramienta fue utilizada en el articulo Oncevay-Marcos et al. (2015) que fue publi- cado como parte del proyecto de generación de un catálogo digital para plantas endémicas de la Amazońıa7. 1.8. Justificación La autora del presente trabajo fue parte del equipo cient́ıfico del proyec- to de investigación denominado “Aplicación de visión computacional en la generación de un catálogo para la conservación de la diversidad de plantas endémicas” que se desarrolló en la PUCP, y que tuvo como tarea la investi- gación sobre técnicas de extracción de caracteŕısticas para la diferenciación de especies de plantas. Al constituir una nuevo conjunto de imágenes di- gitales del proyecto (PERALD), se propone analizar la textura de la hoja mediante técnicas basada en fractales, esto debido a que la constitución de la estructura de la textura y nervadura de las hojas guardan una geometŕıa de formación fractal. Con ello se busca incorporar otro algoritmo y extender los métodos de obtención de caracteŕısticas para el proyecto de identificación y clasificación de plantas endémicas de la Amazońıa del Perú, con el fin de ayudar a mejorar el modelo de clasificación. Como hemos mencionado anteriormente trabajamos con dos bases de da- tos: ImageCLEF 2012 y PERALD. La primera fue usada como gold standard para efectos de validación del modelo propuesto, siendo caracteŕıstica de esta base de datos la de presentar imágenes digitales de buena calidad, además 7Proyecto financiado por INNOVATE Perú mediante contrato 183-FINCyT-IB-2013, adjudicado al Grupo de Reconocimiento de Patrones e Inteligencia Artificial, Sección Ing. Informática, PUCP Caṕıtulo 1. Generalidades 10 de estar organizada por especies, lo que facilita el trabajo de clasificación. PERALD es una base de datos de las imágenes digitales de las plantas que fue proporcionada por los especialistas botánicos de la Universidad Nacional Intercultural de la Amazońıa (UNIA), para su constitución se puso especial cuidado en que las imágenes tuviesen una buena calidad además de contar con un buen número de especies recolectadas. Para la caracterización de la textura se escogió trabajar con el método basado en dimensión fractal multiescala debido a que previamente se trabajó con dimensión fractal para el contorno de la hoja y se obtuvo buenos resulta- dos en Oncevay-Marcos et al. (2015), además, como se mencionó previamen- te, en la literatura se encontraron diversos trabajos basados en dimensión fractal para la textura (Backes et al., 2009; Plotze et al., 2005; Martinez et al., 2008). Otro factor para escoger este método fue el hecho de que estas investigaciones fueron realizadas con las plantas de la Amazońıa Brasileña. Por último, el modelo desarrollado en este trabajo podŕıa servir como base para otros proyectos con mayor alcance, por ejemplo, la identificación de enfermedades en las plantas, o combinarse con aspectos genéticos. 1.9. Limitaciones del proyecto En el proyecto se realizará la investigación e implementación de la técni- ca, para la caracterización de la textura de las plantas amazónicas, median- te método Bouligand-Minkowski basado en Dimensión Fractal Multiescala (DFM). Para obtener las caracteŕısticas de textura de una imagen, esta de- be pasar por un proceso previo de segmentación. Dado que el objetivo del presente trabajo es caracterizar la textura, se usarán las técnicas estándar encontradas en la literatura para el pre-procesamiento y la segmentación. En Caṕıtulo 1. Generalidades 11 caso de ser necesario la segmentación se hará manualmente usando editores gráficos. Para evaluar la efectividad de la caracterización de textura mediante frac- tal, se usan los descriptores en el proceso de clasificación e identificación de plantas con Multilayer Perceptron (MLP). Como mencionamos anteriormente el objetivo es caracterizar la textura, por lo tanto, se usa un método estándar de la clasificación encontrado en la literatura, sin dar mayor enfoque a esta etapa del proceso general. 1.10. Organización del documento El presente documento está dividido en caṕıtulos. El Caṕıtulo 1 abarca la motivación, la definición del problema, el objetivo general, objetivos es- pećıficos, limitaciones del proyecto y la organización del documento. La base teórica del proyecto se desarrollará en el Caṕıtulo 2. La revisión de estado de arte se verá en el Caṕıtulo 3. La metodoloǵıa del trabajo y los resultados se presentan en el Caṕıtulo 4. El Caṕıtulo 5 mostrará las conclusiones y los trabajos futuros. Caṕıtulo 2 Marco Conceptual y Metodológico 2.1. Conceptos generales El área de procesamiento de imágenes y reconocimiento de patrones es muy importante en la actualidad. Algunos de los propósitos de procesamien- to de imágenes es mejorar la calidad visual de imagen para el ojo humano, mejorarla para medir y analizar las caracteŕısticas de los objetos contenidos en ella. Las técnicas, herramientas aplicadas para estos propósitos, no siem- pre son iguales, dependen de varios factores. Uno de los factores es origen de la imagen (Fu y Rosenfeld, 1976; Russ, 2016). Por ejemplo, las imágenes en medicina nuclear y en astronomı́a son de origen rayos gamma; las imágenes para diagnósticos médicos son de rayos x; geoloǵıa, investigación submari- na, medicina son solo algunas de las áreas que trabajan con las imágenes de ultrasonido (Gonzalez y Woods, 2006). En este proyecto trabajamos con imágenes escaneadas que son de tipo visual. 12 Caṕıtulo 2. Marco Conceptual y Metodológico 13 2.1.1. Imagen ¿Qué es una imagen? Según Gonzalez y Woods (2006), la imagen se de- fine como una función bidimensional f(x, y), donde x e y son coordenadas espaciales (en el plano). La amplitud de f en cualquier par de coordenadas (x, y) es llamada la intensidad o nivel de gris de la imagen en este punto. Cuando las coordenadas (x, y) y los valores de intensidad de función f son valores finitos, a la imagen la llaman: imagen digital. Esta imagen digital está compuesta por un número finito de elementos, cada uno de ellos tiene localización y valor. El nombre de cada uno de estos elementos es ṕıxel. Para analizar y estudiar los objetos en las imágenes es necesario aplicar pasos de procesamiento de imagen: • Adquisición de imagen • Segmentación de imagen • Extracción de caracteŕısticas de imagen • Reconocimiento de objeto 2.2. Proceso de caracterización de textura mediante Dimensión Fractal Multiescala El procedimiento seguido se puede apreciar en la Figura 2.1. En ella podemos distinguir las bases de datos a estudiar y los procesos propuestos para este trabajo: pre-procesamiento, generación de muestras, extracción de caracteŕısticas y clasificación. Caṕıtulo 2. Marco Conceptual y Metodológico 14 Figura 2.1: Metodoloǵıa de caracterización de textura mediante dimensión fractal multiescala para la clasificación de hojas de plantas (elaboración pro- pia). 2.3. Adquisición de imágenes y base de datos En el presente trabajo hemos utilizado dos bases de datos de imágenes, ImageCLEF 2012 y PERALD (Peruvian Amazon Leaves Dataset), las cuales se describen en la Sección 4. Con el fin de validar nuestra propuesta, se tomó para experimentación la conocida base de datos ImageCLEF 2012, lo cual sirvió como referencia comparativa de los resultados que se obtuvieron con nuestro algoritmo. Luego de validado el resultado, se procede a aplicar la misma estrategia sobre la nueva base de datos denominada PERALD, siendo esta de reciente constitución y de interés en el presente trabajo para conseguir la diferenciación entre especies de plantas de la Amazońıa. 2.4. Segmentación de imágenes La segmentación es el paso importante y fundamental del área de pro- cesamiento de imágenes. Para obtener un buen resultado en el proceso de reconocimiento de objeto en una imagen, la segmentación de este objeto de- Caṕıtulo 2. Marco Conceptual y Metodológico 15 be ser muy precisa. Es necesario separar o delimitar dicho objeto del entorno. El objetivo principal de la segmentación es separar la imagen en objetos o re- giones para obtener los objetos de relevancia en una imagen. Según Gonzalez y Woods (2006), los métodos de la segmentación se basan en las propiedades básicas de intensidad de valores, de similitud y de discontinuidad. En caso de aplicar la similitud de valores de ṕıxeles, la imagen se divide en regiones con caracteŕısticas similares; en caso de discontinuidad, la imagen se parti- ciona en regiones con mayor diferencia de intensidad entre los ṕıxeles. En el presente trabajo, para segmentar el objeto de interés, se aplicó el método de Otsu, uno de los principales métodos de segmentación Otsu (1975). 2.4.1. Método de Otsu Este algoritmo usa la distribución estad́ıstica de la intensidad de colores (un histograma) para obtener un umbral, que permite dividir una imagen en las regiones. Este valor se utiliza para segmentar la imagen en dos partes, el fondo (background) y el objeto (foreground) (Otsu, 1975). El histograma de colores permite determinar el valor promedio y la varianza de cambio de intensidad para cada grupo de colores, con estos datos se obtiene un mejor resultado de la separación de objetos por colores similares. En la Figura 2.2 observamos imagen original (izquierda) y segmentada (derecha) utilizando el método Otsu. La imagen segmentada (binarizada) la podemos utilizar como máscara para obtener objeto de interés, aplicando un operador lógico entre imagen original y segmentada (binarizada). Caṕıtulo 2. Marco Conceptual y Metodológico 16 Figura 2.2: Hoja original y hoja segmentada (binarizada) por el método Otsu (elaboración propia). 2.5. Caracterización de hojas de plantas La caracterización de plantas es un proceso que permite obtener las ca- racteŕısticas tales como forma, color, textura, nervadura, morfoloǵıa, borde de las diferentes partes de la planta: hoja, tallo, flores. Es dif́ıcil encontrar un algoritmo o una técnica de caracterización que, utilizando solo una ca- racteŕıstica (forma, color o textura), clasifica o reconoce las plantas con la precisión al 100 %. Pero con la combinación de varias caracteŕısticas se puede aumentar el porcentaje de precisión. Una de las partes más usadas y repre- sentativas de la planta en el procesamiento de imágenes es la hoja. Tanto botánicos como los especialistas en visión computacional estudian esta ca- racteŕıstica para el reconocimiento y clasificación de las plantas. La hoja de la planta ofrece un buen material de estudio; la forma, el borde, la nervadura, el contorno y la textura son unas de las propiedades que identifican e indican a qué familia, género o especie pertenece cada planta. 2.6. Textura de la hoja La textura es una caracteŕıstica importante para el análisis de muchos ti- pos de imágenes (Laine y Fan, 1993; Haralick, 1979; Tuceryan y Jain, 1993a), Caṕıtulo 2. Marco Conceptual y Metodológico 17 Figura 2.3: Hoja con muestras de textura seleccionadas y ampliación de una muestra (elaboración propia). incluyendo las plantas. Según Tuceryan y Jain (1993b); Laws (1980) una ima- gen de textura ofrece muchas propiedades para describir una textura, tales como uniformidad, densidad, dirección, frecuencia y otras más. En la Figu- ra 2.3 podemos observar un ejemplo de textura de una hoja. En botánica para describir la textura de una planta generalmente analizan las hojas, pero también pueden analizar otras partes (flor, tallo) (Simpson, 2010). La textura representa la consistencia estructural interna del objeto. En el área de visión computacional la textura no tiene una definición exacta, cada investigador la define según la visión y objetivo del problema (Haralick, 1979; Tuceryan y Jain, 1993a; Nixon y Aguado, 2002). Coggins (1983) hace una compilación de definiciones de textura. Según Tuceryan y Jain (1993a), la textura en una imagen es una función de variación espacial de intensi- dad de ṕıxel (de color gris) y es una parte importante de estudio en visión computacional. Caṕıtulo 2. Marco Conceptual y Metodológico 18 ¿Por qué analizamos textura de la planta? Cuando existen ciertas simili- tudes en la forma o color de las hojas de diferentes especies, el análisis de la textura ayuda a mejorar la precisión de clasificación y reconocimiento de las plantas, pues cada especie tiene diferente patrón de textura. Además el análi- sis de textura ayuda mucho en caso de una planta dañada o fragmentada, cuando no es posible reconocerla por la forma. Existen técnicas y métodos que extraen y procesan la textura del objeto, siendo las más conocidas matriz de co-ocurrencia e histograma de colores (Kebapci et al., 2010), que analizan la frecuencia de los valores del nivel de intensidad de color en una imagen. Otra de las técnicas es el análisis fractal basado en el calculo de dimensión fractal. 2.7. Dilatación exacta Dilatación es una operación morfológica matemática que expande o dila- te interiormente y exteriormente un objeto o su contorno en una imagen. Se aplica en muchos problemas de área de procesamiento de imagen, especial- mente en el análisis de la forma de un objeto (da Fontoura Costa y Cesar Jr., 2009). Dilatación exacta es un algoritmo que permite implementar esta ope- ración morfológica. Sea S una forma (contorno) binaria bidimensional. La dilatación exacta de S es la secuencia de todas las dilataciones sucesivas, sin repetición, usando ćırculos con el radio que se incrementa con cada dilatación (da Fontoura Costa y Cesar Jr., 2009). En la Figura 2.4 vemos el ejemplo de dilatación del contorno S de una hoja. Caṕıtulo 2. Marco Conceptual y Metodológico 19 Figura 2.4: Ejemplo de dilatación (imagen derecha) de un contorno S de la imagen de hoja en blanco y negro (imagen izquierda) (elaboración propia). 2.8. Fractal y dimensión fractal Un fractal es un objeto cuya estructura en parte o total se repite a diferen- tes escalas (auto similitud). El objeto se caracteriza por tener una estructura geométrica irregular que no se puede definir con la geometŕıa tradicional (Larese et al., 2014; Mandelbrot, 1983). ¿Por qué fractal? Su principal atracción es la habilidad de describir for- mas irregulares y complejas de los objetos de la naturaleza (Lopes y Betrouni, 2009). No siempre los objetos se forman de ĺıneas rectas. Muchos objetos de la naturaleza no son figuras geométricas exactas, forman las figuras comple- jas, como ĺıneas costeras, brócoli, copos de nieve, rayos; además son objetos que tienen propiedades fractales. Las plantas tienen una forma y una estruc- tura irregular y compleja, no son un circulo u óvalo perfecto; algunas veces podemos identificar patrones de repetición en las superficies. Muchos de es- Caṕıtulo 2. Marco Conceptual y Metodológico 20 Figura 2.5: Ejemplo de un diseño fractal (izquierda)1 y la textura de una hoja que se asemeja a una estructura fractal (derecha)2. tos patrones nos recuerdan estructuras fractales. En este trabajo se quiere explorar la propiedad fractal de hoja para obtener conjunto de caracteŕısticas de texturas y analizarlo como herramienta para la identificación de plantas. En la Figura 2.5 vemos un ejemplo de fractal. Generalmente cuando vemos un objeto de formas regulares podemos defi- nir su dimensión topológica; por ejemplo, un punto es de dimensión cero, una recta es dimensión 1, el cuadrado (área) es dimensión 2 y el cubo (volumen) es dimensión 3 (Hausdorff, 1918). ¿Pero qué pasa con un objeto con forma irregular? ¿Qué dimensión tiene? En la Figura 2.6 vemos un ejemplo de figura de forma irregular. Según Jelinek y Fernandez (1998), dimensión es un número que refle- ja un aspecto particular de una forma geométrica. No siempre este número es entero. Cuando el espacio o una forma geométrica es expresado con un 1https://commons.wikimedia.org/wiki/File:Fractal fern explained.png 2http://www.allposters.es/-sp/Backlit-Close-Up-of-a-Rose-Leaf-with-Visible-Veins- Posters i6111570 .htm Caṕıtulo 2. Marco Conceptual y Metodológico 21 Figura 2.6: Curva de Koch (elaboración propia) número real, este se denomina dimensión Hausdorff (Schroeder, 2009). Esta dimensión fue renombrada como dimensión fractal, porque el valor se puede representar en forma de una fracción (en objetos irregulares) (Plotze et al., 2005). Es llamada “dimensión” porque provee la medida de cómo un objeto llena completamente un espacio. Para medir la dimensión de un objeto irre- gular, necesitamos una fórmula o una expresión. La dimensión fractal es un valor numérico que indica con cuántas unidades de fractal se puede llenar un objeto. Como menciona Plotze et al. (2005) es común el uso de concepto de dimensión fractal en el área de procesamiento de imágenes, para la cuantifi- cación de la complejidad de la forma y de la textura de los objetos. Hay varios métodos para determinar la dimensión fractal, el más cono- cido es box-counting, otro método es de Minkowski, que fue adoptado para aplicar a las estructuras no fractales (Plotze et al., 2005) y para el enfoque multiescala (más adelante explicaremos estos dos métodos). Actualmente se han desarrollado algunas técnicas que usan el concepto de dimensión fractal para el reconocimiento de plantas. Analizan el contorno de la hoja aplicando el algoritmo para calcular la dimensión fractal, y luego utilizan caracteŕısti- cas obtenidas para la clasificación de plantas (Jobin et al., 2012). Obtienen el contorno de la imagen en blanco y negro de una planta, luego calculan los va- lores de dimensión fractal del contorno. La dimensión fractal es mencionada Caṕıtulo 2. Marco Conceptual y Metodológico 22 en el trabajo de Martinez et al. (2008) donde comparan dos métodos (box- counting y multiscale Minkowski) analizando la complejidad de las plantas. Para entender mejor la definición de dimensión fractal, tomamos la des- cripción y ejemplos de Theodoridis y Koutroumbas (2009). El autor toma una recta de longitud L y la divide en N partes iguales de longitud l. Cada segmento es parte de la recta, cuya longitud disminuye (escala) por el factor f = 1 = l . Al aumentar cualquier segmento por el mismo factor, se obtiene N L la recta original. Es una propiedad de auto-similaridad, algunas partes de objeto son similares al todo (definición de fractal). Luego, usa un cuadrado de longitud L y aplica al lado del cuadrado el factor escala f = 1 N1/2 ; esto genera N cuadrados iguales, donde cada uno es igual al cuadrado original (Theodoridis y Koutroumbas, 2009). Ahora, la cantidad de elementos que se forman depende de la dimensión D y el factor f de escala; para la recta con dimensión = 1 seŕıa f 1 = N ; para el cuadrado con dimensión =2 es f 2 = N y para el cubo seŕıa f 3 = N . Podemos observar una relación entre dimen- sión (D), factor (f) y número de elementos (N), N = fD. Si despejamos D obtenemos logN = D. logf 2.8.1. Box-counting Box-counting o dimension-box es uno de los métodos que estima la di- mensión fractal, y es el más usado (Falconer, 2004; Plotze et al., 2005). La idea de este método es dividir la imagen en cuadrados de tamaño t, se forma una grilla del tamaño de la imagen. Luego se cuenta la cantidad de cuadrados que cubren al menos una parte del objeto de la imagen. N(t) es la cantidad de cuadrados que cubren al objeto. Para mayor precisión del resultado, pro- gresivamente disminuyen el tamaño t del cuadrado, por consecuencia cambia N(t). La relación de logN(t) vs. log(t) genera una curva cuya gradiente es Caṕıtulo 2. Marco Conceptual y Metodológico 23 dimensión fractal (Jelinek y Fernandez, 1998; da Fontoura Costa y Cesar Jr., 2009). Según Takayasu (1990); Peitgen et al. (1992); Falconer (2004) la re- ducción de tamaño t en cada paso es un factor que es igual a 1 . 2 2.8.2. Método Bouligand-Minkowski Otra forma de estimar la dimensión fractal es aplicar el método de Bouli- gand-Minkowski (Falconer, 2004), que está basado en espacio de Minkowski (Tricot, 1994; Jelinek y Fernandez, 1998). El espacio de Minkowski es el objeto que se genera al aplicar el proceso de dilatación a cada ṕıxel de la figura. En Plotze et al. (2005) se presenta una explicación detallada del método: la estimación de dimensión fractal con este método se basa en la relación entre el interfaz del objeto y el espacio ocupado por él. La dimensión del objeto es dada por la función que representa un proceso iterativo y que expresa la razón entre el área de dilatación y el radio de incremento de dilatación. La secuencia consecutiva de dilatación se conoce como la suma de Minkowski, la suma consiste en expansión secuencial del contorno el cual con cada dilatación incrementa su área. En la Figura 2.7 vemos la secuencia de dilataciones del contorno de una hoja. Para implementar el proceso de dilatación Plotze et al. (2005) usa Exact Distance Transform (EDT), la distancia de todos los elementos cercanos de la matriz al elemento de interés, para luego escoger la distancia mı́nima entre ṕıxel de matriz y el ṕıxel del objeto de interés. En la Figura 2.8 observamos un ejemplo de matriz de distancias de una región de imagen. Los d́ıgitos ceros representan ṕıxeles del objeto de interés (contorno de la hoja), y el resto de los valores representan la distancia entre el ṕıxel del contorno (d́ıgitos ceros) y del punto que da el valor respectivo. Caṕıtulo 2. Marco Conceptual y Metodológico 24 Figura 2.7: Secuencia de dilataciones de ṕıxeles del contorno de la hoja en una imagen. El contorno rojo (dentro del borde blanco) corresponde al borde original de la hoja (elaboración propia). Figura 2.8: Matriz de distancias de una región de imagen de la hoja. Los d́ıgitos ceros corresponden al contorno de la hoja (elaboración propia). Caṕıtulo 2. Marco Conceptual y Metodológico 25 En Plotze et al. (2005{) se representa EDT median}te un conjunto de dis-√ √ √ √ tancias euclidianas E = 0, 1, 2, 3, 2, 5, 2 2, ..., t Cada elemento de E es denominado d, donde d = (i2 + j2)1/2, i, j ∈ N • k = {0, 1, 2, 3, ..., n} , donde k es el ı́ndice que corresponde a una dis- tancia d del conjunto E. • P es el conjunto de puntos que corresponden a la imagen (objeto) a dilatar. • gk(P ) es el conjunto de ṕıxeles que están a una distancia, correspon- diente al ı́ndice k, de puntos que pertenecen a P , donde k = 0, g0(P ) = P{ } 1/2 k 6= 0, gk(P ) = (x, y), [(x− Px)2 + (y − Py)2] = E(k);x, y ∈ N • Q(k) es la cantidad de ṕıxeles de la dilatación k. • A(k) es el área de dilatación, donde ∑k A(k) = Q(i) i=1 Relacionando el área total de cada dilatación a una distancia d desde el contorno original de la hoja, el autor obtiene un gráfico log-log. El valor de dimensión fractal se calcula usando la pendiente del gráfico log(d) versus logA(d) (da Fontoura Costa y Cesar Jr., 2009). La fórmula seŕıa: df = 2− logA(d) log(d) donde A(d) es el área total que es la suma de todos los puntos que están a una distancia d de la dilatación. Caṕıtulo 2. Marco Conceptual y Metodológico 26 Como dice Plotze et al. (2005) a pesar de que dimensión fractal es usada en análisis de imágenes y reconocimiento de patrones, igual tiene sus limi- taciones: algunos objetos de naturaleza geométrica distinta pueden tener el valor equivalente o similar de dimensión fractal, además, no todos los ob- jetos son fractales y el tamaño de los objetos no es infinito, lo que implica que la complejidad tiende al valor cero al incrementar la escala del objeto de interés. Además, un solo valor numérico de dimensión fractal no es suficien- te para describir el comportamiento fractal (como ocurre con la dilatación en diferentes puntos de la figura) del objeto que muestra la curva obtenida con el método Bouligand-Minkowski (Backes y Bruno, 2012). Por tal motivo, Plotze et al. (2005); Backes y Bruno (2012) proponen la función Dimensión Fractal Multiescala (DFM), es obtenida de la derivación de curva log-log y proporciona un conjunto de valores para describir el comportamiento fractal del objeto. La función DFM es definida como: DFM = 2− du(t) dt donde du(t) es la derivada de la curva log-log de u(t) calculada con el método dt Bouligand-Minkowski. En la Figura 2.9 observamos un ejemplo de curva de log-log obtenida con el método Bouligand-Minkowski, es la relación entre la distancia de dilata- ción (d) y el área que se genera (A(d)) por la dilatación correspondiente. La pendiente de esta curva representa la dimensión fractal (df). Luego, al deri- varla se genera una nueva curva mostrada en la Figura 2.10, ah́ı observamos unos ejemplos de curvas Dimensión Fractal Multiescala. Son dos tipos que corresponden a dos especies diferentes, las curvas de color rojo representan DFM de hojas de una especie y las de color azul son DFM de otra especie, cada curva pertenece a una imagen de hoja. Luego, por cada curva se ge- Caṕıtulo 2. Marco Conceptual y Metodológico 27 Figura 2.9: Curva log-log obtenida con el método Bouligand-Minkowski (ela- boración propia). Figura 2.10: Ejemplo de curvas de dimensión fractal multiescala (elaboración propia). Caṕıtulo 2. Marco Conceptual y Metodológico 28 nera un conjunto de puntos caracteŕısticos (descriptores) para el proceso de clasificación. El enfoque de multiescala muestra el comportamiento fractal a diferentes escalas (en dilataciones a distancias distintas) y lo expresa a través de un conjunto de valores en vez de un único valor, lo que mejora la caracterización de la figura dándole una información más robusta, esto hace que sea uno de los métodos más precisos y que produce un resultado consistente (Tricot, 1994; Schroeder, 2009; da Fontoura Costa y Cesar Jr., 2009). 2.9. Clasificación o reconocimiento del objeto El reconocimiento del objeto es la parte final del procesamiento de imáge- nes. Los métodos y técnicas de clasificación se dividen en dos grupos: de decisión teórica y estructural. Los del primer grupo trabajan con los des- criptores cuantitativos, tales como longitud, textura, área. El segundo grupo usan los descriptores cualitativos (Gonzalez y Woods, 2006). En este trabajo utilizaremos los clasificadores del primer grupo. 2.9.1. Clasificador Perceptrón Multicapa (MLP) El Perceptrón Multicapa o MLP (Multilayer Perceptron) es un algoritmo de aprendizaje de red neuronal, propuesto por Rumelhart (Rumelhart et al., 1988). Como indica su nombre tiene múltiples capas, donde cada capa es un conjunto de neuronas interconectadas entre śı. La conexión entre neuronas es a través de los pesos. Las capas se dividen en tres partes: una capa de entrada, n capas ocultas y una capa de salida, donde n es una o más capas. La salida de cada neurona i es la entrada a la neurona i+1. Además, la capa de entrada debe tener la misma cantidad de neuronas que la de salida. En Caṕıtulo 2. Marco Conceptual y Metodológico 29 este trabajo se utilizó MLP utilizando la plataforma WEKA3. La razón de utilizar este clasificador es porque han trabajado con él en varios estudios de procesamiento de imágenes y de reconocimiento y clasifi- cación de plantas, tales como, Vianna y Cruz (2014); Brilhador et al. (2013), además fue utilizado en Oncevay-Marcos et al. (2015), donde la autora del trabajo presente hizo estudio con los descriptores DFM del contorno de las hojas de la base de datos ImageCLEF 2012, y el resultado (porcentaje de acierto de clasificación) de este estudio fue bueno. 3http://www.cs.waikato.ac.nz/ml/weka/ Caṕıtulo 3 Estado del Arte 3.1. Introducción En este caṕıtulo se presenta el estado de arte de procesamiento de imáge- nes, una revisión bibliográfica de los métodos y técnicas de fractal aplicadas a textura de las plantas, desarrollados y aplicados en la actualidad. Durante el proceso de revisión bibliográfica se analizaron los art́ıculos, libros obtenidos de las bases de datos como SCOPUS, IEEEXplore, Science Direct y Scholar Google. Se buscaron los trabajos relacionados con el tema del trabajo presente. Para tal propósito se formularon preguntas espećıficas para que el resultado de la búsqueda fuera más detallado y enfocado en el tema estudiado. Además se incluyeron los criterios de inclusión y exclusión para disminuir la cantidad de la bibliograf́ıa. 30 Caṕıtulo 3. Estado del Arte 31 3.2. Resumen de caracteŕısticas de plantas, métodos para extraerlas y clasificadores Revisando los trabajos de procesamiento de imágenes de plantas, se ob- servó que las caracteŕısticas más usadas en el proceso de caracterización son forma (shape), color (colour), textura (texture), debido a la facilidad para procesar y analizarlas (Du et al., 2007). Otras caracteŕısticas que encontra- mos en estado de arte y que son usadas como descriptores, fueron la nervadura (vein) (Harish et al., 2013; Martinez et al., 2008) y el borde (margin) de las hojas. Hay investigaciones que usan sólo un descriptor para la caracterización de las plantas. Rashad et al. (2011) trabaja con el contorno, Pydipati et al. (2006); Beghin et al. (2010) sólo con el color. Pero esto tiene cierta desventa- ja en las plantas que tienen fuerte similitud entre especies; extraer y analizar solo la forma de la hoja no va a dar resultado satisfactorio en la clasificación. Pero combinando las dos caracteŕısticas, color y forma, se mejora el resultado en la clasificación de plantas (Cope et al., 2012). Beghin et al. (2010) analiza la forma y la textura de las hojas y obtiene descriptores para la clasifica- ción a partir de estas dos propiedades. Kadir et al. (2012) proponen extraer caracteŕısticas de color, forma, nervadura y de textura de las hojas para el proceso de identificación de las plantas. En el mismo trabajo en la etapa de clasificación usaron Red Neuronal Probabilistic Neural Network (PNN) como clasificador, obteniendo el resultado de 93,75 % de precisión. Según Haralick et al. (1973) la textura es la distribución espacial del tono gris de los ṕıxeles en una imagen. Para analizar la textura de la hoja de la planta en una imagen analizan los valores de cada ṕıxel. Como mencionamos antes, la imagen de textura ofrece diferentes caracteŕısticas. El Haralick et al. (1973) propone obtener una matriz de niveles de grises de los ṕıxeles y Caṕıtulo 3. Estado del Arte 32 analizar la frecuencia de repetición del nivel de gris en un área respecto a sus vecinos. En Zhang et al. (2012); Kadir et al. (2012), a partir de esta matriz, ob- tienen y analizan 9 caracteŕısticas de textura para el reconocimiento de las plantas. Además de textura Zhang et al. (2012) analizan la forma de la hoja, combinando los descriptores de las dos caracteŕısticas y clasifica las 1900 ho- jas de 32 especies obteniendo 93.8 % de exactitud. Otros métodos de análisis de textura que encontramos en revisión son el filtro de Gabor (Zhang et al., 2012; Cope et al., 2012) y el análisis fractal. El análisis fractal permite analizar propiedades de textura y color del objeto y determinar la complejidad del objeto estimando la dimensión fractal. Actualmente se han desarrollado algunas técnicas que usan el fractal para el reconocimiento de plantas. Jobin et al. (2012); Martinez et al. (2008) aplican la técnica de dimensión fractal para analizar contorno y nervadura de las plantas. Al contorno de hoja de la imagen en blanco y negro aplican el algoritmo basado en dimen- sión fractal, obteniendo las caracteŕısticas. Luego aplican media y varianza para homologar los valores antes de aplicar un clasificador. El mismo proceso se aplica a la nervadura. El resultado final de clasificación mostró 84 % de coincidencia. En Oncevay-Marcos et al. (2015) trabajaron con ImageCLEF2012 la mis- ma base de datos que fue propuesta en este trabajo. Se trabajó con textura, color y forma. Para la caracterización de textura y color aplicaron el método de Haralick (Haralick et al., 1973) y momentos de color, para el contorno de hojas la dimensión fractal y redes complejas. El porcentaje de precisión fue 64,78 % usando el descriptor obtenido del contorno con dimensión fractal, pero las 3 caracteŕısticas juntas dieron un 90,41 % de precisión. El clasifica- Caṕıtulo 3. Estado del Arte 33 dor que se usó fue Perceptrón Multicapa. Otro autor que utilizó el dataset ImageCLEF 2012 fue Brilhador et al. (2013). Su enfoque fue comparar el com- portamiento de diferentes descriptores, tales como textura, color y contorno obtenidos con los métodos de Haralick, Fourier y Quantized Compound Chan- ge Histogram (QCCH) para clasificación usaron K-nearest neighbor (K-NN), Naive Bayes (NB), Multilayer Perceptron (MLP), Random Forest (RF), J4.8 y Support Vector Machines (SVM). Compararon los resultados de 3 pruebas: clasificación con todos los descriptores, clasificación con algunos descripto- res seleccionados y clasificación con descriptores seleccionados con la técnica AdaBoost. El mejor resultado fue 87,5 % con SVM usando todos los descripto- res, el segundo fue 87,1 % con RF usando todos los descriptores seleccionados por AdaBoost y el tercer resultado fue 83,9 % con MLP y algunos descriptores seleccionados. En el trabajo presente se decidió usar la textura debido a su importan- cia. En Tuceryan y Jain (1993a) la textura de una imagen es definida como función de variación espacial de nivel de intensidad de ṕıxel en escala gris. Cuando existen ciertas similitudes en la forma o en color, analizar la textura de las hojas ayuda a clasificar las plantas porque las especies tienen diferentes patrones de textura. También es útil si la planta está dañada o solo existe un fragmento de hoja. Actualmente hay bastante investigaciones que trabajan con fractales para obtener caracteŕısticas y descriptores. En el trabajo de Martinez et al. (2008) se compara dos métodos (box-counting y multiscale Minkowski) analizando la complejidad de las plantas estimando la dimensión fractal. Para tal caso analizan el contorno y la nervadura. En el estudio usaron 50 hojas de 10 especies diferentes para el experimento uno. Para el experimento dos fueron utilizados 4 especies con 20 hojas por cada una. El método multiscale Min- Caṕıtulo 3. Estado del Arte 34 kowski mostró mejores resultados, solo 2,225 % de error en la clasificación. En general, los resultados muestran un buen desempeño al aplicar el método, basado en la dimensión fractal, para generar descriptores. Backes y Bruno (2012); Backes et al. (2012) trabajan con contorno, color y textura usando el método fractal de Bouligand-Minkowski, Haralick, Gabor. Los resultados obtenidos muestran cierta ventaja de Bouligand-Minkowski respecto a otros métodos. Los métodos principales o los más usados de clasificación son: Probabilistic Neural Network (PNN), Support Virtual Machine (SVM), k-Nearest Neigh- bours (k-NN). Kadir et al. (2012) utilizan el clasificador PNN para el recono- cimiento de las especies usando color, textura y propiedades morfológicas de hojas como caracteŕısticas de las plantas. Como resultado obtiene 93,75 % de exactitud. En cambio, Wu et al. (2007), usando el mismo clasificador y la for- ma de hoja como caracteŕıstica obtuvieron 90,312 % de acierto. Para Wu et al. (2007) el clasificador PNN se demoró menos tiempo en procesar los datos que otros clasificadores que fueron aplicados a los mismos datos. Arun Pri- ya et al. (2012) procesaron las doce caracteŕısticas morfológicas digitales, y aplicaron los clasificadores SVM y k-NN; en este caso el clasificador SVM dio mayor tasa de exactitud y también fue más rápido. En dos investigaciones (Du et al., 2007; Zhang et al., 2004) propusieron el clasificador Moving Me- dian Centers Hypersphere (MMC) para las caracteŕısticas morfológicas que fueron extráıdas de la hoja. En el primer estudio (Du et al., 2007) el resul- tado de MMC fue comparado con los resultados obtenidos de clasificadores 1-NN y k-NN y la conclusión fue que MMC tuvo un tiempo menor y además necesitó un espacio menor de almacenamiento. El porcentaje de respuestas correctas para MMC fue 91 %, y para 1-NN y 4-NN fue 93 % y 92 % respec- tivamente. En el segundo estudio (Zhang et al., 2004) también hicieron las Caṕıtulo 3. Estado del Arte 35 comparaciones entre MMC, 1-NN y 4-NN, haciendo dos experimentos, para 9 y 17 tipos de plantas. En los dos casos el MMC mostró menor tiempo de ejecución y menor tamaño de almacenamiento. En cuanto al porcentaje de precisión, MMC, con 9 especies, ocupó el tercer lugar, MMC con 19 especies ocupó el segundo lugar entre 1-NN,4-NN y MMC. También se observó que menor cantidad de plantas daba mayor tasa de exactitud. De los trabajos recientes mencionaremos algunos, en Aakif y Khan (2015) usaron 817 hojas de 14 árboles distintos, extrajeron descriptores morfológicos, de Fourier y del contorno propuestos por ellos mismos. Estas caracteŕısticas fueron procesadas con el clasificador ANN (Artificial Neural Network) dando como resultado más de 95 % de acierto. En Naresh y Nagendraswamy (2016) usaron las caracteŕısticas de textura extráıdas con MLBP (Modified Local Bi- nary Patterns), que fueron procesadas con el clasificador Nearest Neighbor. Ahmed et al. (2016), trabajaron con las caracteŕısticas de contorno, ner- vadura y descriptores de Fourier sobre el data set Flavia con 32 especies de plantas. El resultado de precisión fue 87,40 % usando SVM como clasificador. En resumen, podemos señalar que hay bastantes trabajos con fractales y texturas. Se analizaron las investigaciones de 2007 hasta 2017. En los trabajos usaron la textura y el color para caracterizar al objeto en la imagen. En los 10 art́ıculos se vio el uso de contorno, nervadura y caracteŕısticas morfológicas para el análisis de reconocimiento. En los 7 trabajos hicieron análisis de dimensión fractal para caracterizar al objeto de reconocimiento. Haralick fue aplicado en 5, Gabor (Backes et al., 2012) en 5, Fourier (Backes y Bruno, 2012) en 3 y 2 de Momentos de Zernike (Khotanzad y Hong, 1990). Caṕıtulo 4 Desarrollo y Resultados 4.1. Base de datos 4.1.1. ImageCLEF 2012 ImageCLEF 2012 es una base de datos de imágenes digitales de plantas, que fue presentada en el workshop ImageCLEF en el año 2012 (por eso el nombre) y es parte de una base datos más grande ImageCLEF que se renueva cada año. Esta base de datos contiene 126 especies de plantas obtenidas de la región mediterránea de Francia, consiste de 11 572 imágenes de 3 tipos: 6 630 escaneadas, 2 726 fotograf́ıas pseudo-escaneadas (foto sobre fondo blanco) y 2 216 fotograf́ıas en ambiente natural (Goëau et al., 2013). En la Figura 4.1, podemos apreciar muestras de la base de datos, donde se coloca una imagen por cada una de las 115 especies que fueron utilizados para un trabajo anterior y cuyo resultado se menciona en este documento. Para este trabajo se utilizaron imágenes escaneadas de 101 especies de las 115 que fueron utilizados por Oncevay-Marcos et al. (2015). El resto de las imágenes escaneadas, 14 especies, fue descartado debido a la imposibilidad 36 Caṕıtulo 4. Desarrollo y Resultados 37 Figura 4.1: Ejemplos de hojas de 115 especies de ImageCLEF 2012 (elabo- ración propia). de procesarlas. En la Figura 4.2 podemos apreciar que la forma y el tamaño de las hojas no permite generar muestras de textura de 128 x 128 ṕıxeles. Como hemos mencionado antes, ImageCLEF 2012 es la base de datos de validación del modelo del presente trabajo; fue escogida por la buena calidad de imágenes escaneadas y tener buena organización por especies, lo que facilita el proceso de clasificación. 4.1.2. PERALD Base de datos de hojas de Amazońıa peruana (PERALD) es una base de datos nueva de imágenes digitales de plantas nativas. Estas plantas fueron recolectadas en Yarinacocha, región amazónica peruana. Es proporcionada para el proyecto de investigación “Aplicación de visión computacional en la Caṕıtulo 4. Desarrollo y Resultados 38 Figura 4.2: Ejemplos de 14 especies de ImageCLEF 2012 que fueron descartas debido a la dificultad de extracción de muestras (elaboración propia). generación de un catálogo para la conservación de la diversidad de plantas endémicas”. El proyecto coincid́ıa con el enfoque del presente trabajo, por tal motivo decidimos trabajar con PERALD. Contiene 45 especies de las plantas, 40 imágenes por especie (20 imágenes de haz y 20 de envés por especie), en total hay 1 800 hojas. Las hojas frescas fueron escaneadas con la resolución de 300 DPI, colores de 24 bits y con fondo blanco. Para nuestro trabajo se utilizaron 27 especies de las 45; estas 27 fueron escogidas por la calidad de imagen y el tamaño de las hojas. Las hojas dema- siado angostas no permit́ıan obtener muestras de textura de buena calidad. En la Figura 4.3, se muestra un ejemplo de imágenes que constituyen la base de datos, cada imagen es representativa de las 27 clases con las cuales se trabajó. Caṕıtulo 4. Desarrollo y Resultados 39 Figura 4.3: Ejemplos de hojas (envés y haz) de 27 especies de UNIA (elabo- ración propia). Caṕıtulo 4. Desarrollo y Resultados 40 Figura 4.4: Pre-procesamiento de la imagen (elaboración propia). 4.2. Pre-procesamiento y segmentación Para el proceso de la segmentación primero convertimos las imágenes a escala de grises con un algoritmo estándar encontrado en literatura y luego son binarizadas. Para generar una imagen binaria es necesario aplicar el um- bral (threshold) con el método de Otsu (Otsu, 1975), esto separa el fondo del objeto del interés, como se muestra en la Figura 4.4, la segunda imagen. El último paso es cambiar el objeto de interés a escala de grises, usando algoritmo de conversión de color. Anteriormente ya se trabajó con el método Otsu en el art́ıculo “Plant identication based on leaf shape, texture and color using complex networks, multi-scale fractal dimension and statistical descriptors” (Oncevay-Marcos et al., 2015) segmentando las imágenes digitales de hojas y se obtuvo buenos resultados, por tal motivo, decidimos trabajar con el mismo método en esta propuesta. Aplicamos el proceso de segmentación a las dos bases de datos. En la Figura 4.4 podemos observar imágenes generadas durante el proceso de segmentación: original, imagen obtenida al combinar original con la obtenida por método Otsu y segmentada en escala de grises. Caṕıtulo 4. Desarrollo y Resultados 41 Figura 4.5: Proceso de generación de muestras (elaboración propia). 4.3. Generación de muestras El proceso de generación de las muestras de textura de las imágenes de hojas es el siguiente: a cada imagen se aplica el algoritmo que divide la imagen en cuadrados no solapados de 128 x 128 ṕıxeles, luego se aplica un filtro que selecciona muestras que tengan 50 o menos ṕıxeles negros de fondo para un buen análisis de textura. De las muestras generadas, seleccionamos las 5 mejores por cada imagen de hoja de ImageCLEF 2012 y de PERALD (5 envés y 5 haz) para la extracción de las caracteŕısticas. Estas 5 fueron escogidas por un algoritmo implementado, que se basó en un trabajo de Backes et al. (2009). En la Figura 4.5 observamos el proceso completo de generación de muestras. La razón de escoger el tamaño de muestra 128 x 128 ṕıxeles es debido a que en la bibliograf́ıa de procesamiento de imágenes encontramos varios estudios que utilizan el mismo tamaño de muestras de textura de hojas (Backes et al., 2009; Backes y Bruno, 2010; Rashad et al., 2011; Backes et al., 2012). Otra razón es que con este tamaño obtenemos la cantidad suficiente de muestras para la generación de caracteŕısticas. La elección de la cantidad de muestras por imagen se basó en los trabajos de Backes et al. (2009); Backes y Bruno (2010) porque su enfoque es similar al trabajo presente, caracterización de textura de hojas usando fractal. Caṕıtulo 4. Desarrollo y Resultados 42 Figura 4.6: Muestra de imágenes de textura de una hoja de PERALD (haz y envés) (elaboración propia). En la Figura 4.6, se muestra un ejemplo de muestras de textura (imágenes segmentadas). En la primera fila son 5 imágenes de haz de la hoja y en la segunda son de envés. 4.4. Generación del vector de caracteŕısticas por DFM 4.4.1. Transformación volumétrica de la textura Para la extracción de caracteŕısticas de hoja escogimos las 5 muestras de textura en escala gris por cada imagen de hoja, luego procesamos a cada muestra con el algoritmo que extrae las caracteŕısticas de textura usando el método de Bouligand-Minkowski. Como hemos explicado en Caṕıtulo 2, la dimensión fractal (DF) es defi- nida como DF = 2− logA(d) , donde A(d) es el área del objeto dilatado a una log(d) distancia d, representa la correlación entre el objeto y el espacio que este ocu- pa. Este trabajo está enfocado en caracterizar la textura de una hoja, como dice Backes et al. (2009) diferentes texturas tienen diferentes estructuras de Caṕıtulo 4. Desarrollo y Resultados 43 ṕıxeles, esto muestra que cada textura tiene un patrón caracteŕıstico, a cada patrón le corresponde un volumen caracteŕıstico. Esto permite trabajar con V (r) como caracteŕıstica que describe la organización de ṕıxeles de textura y por lo tanto también la complejidad de la misma. Por tal motivo trabajamos con el volumen en vez de área, el proceso de trabajo es similar al explicado en Caṕıtulo 2, solo que en vez de aplicar el método Bouligand-Minkowski al contorno, lo aplicaremos a la superficie generada en R3. Aplicamos los mismos pasos que Backes et al. (2009); Backes y Bruno (2009). Primero se genera una superficie de puntos p(x, y, z), p ∈ S, don- de x, y son coordenadas de ṕıxel en la imagen M de la textura original y z = M(x, y) es la intensidad de este ṕıxel. Realizando la dilatación de la superficie S la dimensión fractal de Bouligand-Minkowski se define como FD = 3− logV (r) , donde V (r) es el volumen del objeto dilatado y r la distan- log(r) cia de dilatación. El volumen es la suma de todos los puntos a una dilatación de distancia r del objeto original. El proceso de dilatación con diferentes r permite estudiar la complejidad de textura en diferentes escalas. Este proceso se implementa con EDT para tres dimensiones. En la Figura 4.7 podemos observar una muestra de textura y la dilatación de esta muestra. Como se mencionó en el Caṕıtulo 2 la curva logaŕıtmica obtenida con el método Bouligand-Minkowski presenta más detalles de lo que se podŕıa expresar con un solo valor numérico, y no es suficiente para representar to- da la complejidad del objeto. Por eso utilizan Dimensión Fractal Multiescala (DFM) en Backes y Bruno (2009). Se hace la derivación de la curva logaŕıtmi- ca obtenida con el método Bouligand-Minkowski: − dlogV (r)DFM = 3 d(r) Caṕıtulo 4. Desarrollo y Resultados 44 Figura 4.7: Región extráıda de la hoja que muestra la textura (izquierda) y su representación en volumen, generada por la dilatación de la textura (derecha) (elaboración propia). En la Figura 4.8 podemos observar una curva, donde cada punto repre- senta la relación entre la distancia de dilatación y el volumen generado por esa dilatación, esta curva es importante porque la pendiente de ella es la Dimensión Fractal. Para calcular la dimensión fractal multiescala necesitamos obtener la de- rivada de la curva log-log. El valor inicial de la derivación no da buenos resultados, porque la curva log-log presenta mucho ruido. Para optimizar los resultados, la suavizamos aplicando el filtro de Gauss para eliminar los ruidos. Los descriptores a evaluar son los puntos (x, y) obtenidos de la deri- vación de la curva log-log ; además, la cantidad de caracteŕısticas depende de la distancia máxima de dilatación. Caṕıtulo 4. Desarrollo y Resultados 45 Figura 4.8: Curva log(V (r)) vs. log(r), representa la relación entre volumen y distancia de dilatación. El valor de la pendiente de la curva es la Dimensión Fractal (elaboración propia). 4.4.2. Diagrama de flujo del proceso y la explicación de la parte principal del proceso El proceso total de identificación y clasificación de plantas, desde la etapa Leer una imagen hasta Clasificación de planta, lo podemos observar en la Figura 4.9. Siguiendo el objetivo del trabajo, nos enfocamos solo en las siguientes etapas: • Selección de mejores muestras de textura de hojas • Generación de curva de distancias acumuladas • Generación de la curva DFM para obtener puntos caracteŕısticos Más adelante describiremos las tres etapas principales, que mencionamos ĺıneas arriba. Las etapas el pre-procesamiento, la segmentación y la clasifi- Caṕıtulo 4. Desarrollo y Resultados 46 Figura 4.9: Pasos del proceso de análisis de textura de hojas (elaboración propia). Caṕıtulo 4. Desarrollo y Resultados 47 cación también son parte del proceso general pero no fueron puntos princi- pales del trabajo presente. Para estas etapas aplicamos métodos y técnicas estándar encontrados en la literatura, los mencionaremos en los Caṕıtulos 2 y 4 a rasgos generales. Como hemos mencionado en Caṕıtulo 1, el desarrollo del proceso de la Figura 4.9 se realizó con los lenguajes Mathematica(R), Python y la plataforma WEKA para la clasificación. Selección de mejores muestras de textura de hojas Para seleccionar las mejores muestras implementamos y aplicamos la técnica mencionada en Backes et al. (2009). Cada muestra es dividida en cuadrantes y de cada cuadrante obtienen media y varianza del valor de ṕıxel para generar un vector x de caracteŕısticas para cada muestra. Usando la distancia como métrica se descartan las muestras cuyas caracteŕısticas de vector presentan mayor diferencia al comparar con los valores de las medias y varianzas de la misma clase. Se definen qik(x, y), i=1,2,3,4 como 4 cuadrantes de la muestra fi(x, y). El vector de caracteŕısticas (medias y varianzas) xi se define de la siguiente manera: xi = µq , σq , µq , σq , µ , σ , µ , σi1 i1 i2 i2 qi3 qi3 qi4 qi4 donde µ 2q es la media y σq es la varianza al cuadrado:ik ik 1 m∑,n µq = qik(x, y)ik mn x=1,y=1 ∑N σ2 1 q = (qik(x, y)− µ)2ik mn x=1,y=1 Luego, calculamos la distancia (Mahalanobis) con la función R(x;x0) para cada muestra y las ordenamos de menor a mayor valor. Escogemos las 5 Caṕıtulo 4. Desarrollo y Resultados 48 primeras muestras con distancias cercanas a cero. √ ∑−1 R(x;x0) = (x− x0)T (x− x0) donde: x es el vector de cada muestra, ∑x0 es la media de todos,−1 es matriz inversa de covarianzas. Generación de la curva de distancias acumuladas El objetivo de este paso es obtener matriz de puntos y generar el vector distancias acumuladas. • Para cada ṕıxel calculamos su distancia mı́nima hacia la superficie ge- nerada por la textura, luego generamos una matriz de ṕıxel vs. distancia mı́nima. • Generamos una matriz distancia vs. cantidad, donde la distancia es distancia de dilatación desde superficie inicial y la cantidad es el número de ṕıxeles que están a esta distancia de la superficie inicial. • Se genera una matriz distancia vs. área, donde distancia es la distancia de dilatación desde superficie inicial y área corresponde a la cantidad acumulada de ṕıxeles a una distancia de dilatación desde la superficie inicial. • Computamos la curva log-log, que representa el comportamiento de ṕıxeles en el proceso de dilatación. La curva es la relación cómo cambia el volumen del objeto al incrementar la distancia de dilatación. Caṕıtulo 4. Desarrollo y Resultados 49 Generación de la curva DFM filtrada El objetivo de este paso es generar la curva distancia vs. volumen, derivar y suavizar curva distancia vs. volumen y generar puntos caracteŕısticos. • Derivamos la curva log-log obtenida con el método Bouligand-Min- kowski. • Eliminamos el ruido de la curva derivada, suavizando con el método de Gauss. • Eliminamos los puntos iniciales de la curva, debido a que no aportan información adicional como puntos caracteŕısticos. 4.5. Clasificación de especies de plantas con DFM Para cumplir con el objetivo del trabajo se sigue dos estrategias: 1. Analizar solamente el conjunto de caracteŕısticas de Dimensión Fractal Multiescala (DFM) y cuán discriminante es por śı misma. 2. Combinar DFM con un descriptor basado en Redes Complejas, con Haralick y Momentos de Color y generar otras combinaciones con estos 4 descriptores. Los descriptores Redes Complejas, Haralick y Momentos de Color son obtenidos por colegas participantes del proyecto en el que se desarrolló el presente trabajo. En esta sección veremos el desarrollo de la primera estrategia y en la siguiente sección mostraremos la segunda estrategia. Caṕıtulo 4. Desarrollo y Resultados 50 Para el proceso de clasificación se usa el método Multilayer Perceptron (MLP). La descripción del clasificador y los valores a usar fueron descritos en el Caṕıtulo 2. Este clasificador fue seleccionado porque se utilizó en Oncevay- Marcos et al. (2015), donde se trabajó con los descriptores DFM del contorno de las hojas de la base de datos ImageCLEF 2012 y dio buenos resultados. En otros trabajos relacionados con la clasificación de plantas (Vianna y Cruz, 2014; Brilhador et al., 2013) también encontramos el uso del clasificador MLP. Es un clasificador muy usado en problemas de procesamiento de imágenes de reconocimiento y clasificación de plantas. Para entrenar este clasificador se utilizó la técnica de validación cruzada (cross-validation), consiste en dividir los datos en k segmentos donde k-1 son de entrenamiento y el resto es de prueba. Este procedimiento se repite durante k iteraciones, donde k=10. En cada iteración el conjunto de prueba es diferente. El resultado final será la media que se genera a partir de los resultados parciales de cada iteración (Devyver y Kittler, 1982). Los resultados de clasificación se presentan en los cuadros, se muestra la base de datos de evaluación, el nombre de los descriptores, el número de descriptores y el porcentaje de acierto de la clasificación, que es relación entre plantas reconocidas correctamente sobre el total. En el Cuadro 4.1 se presentan los resultados de clasificación de plantas de las dos bases de datos (ImageCLEF 2012 y PERALD) con los descriptores que fueron extráıdos de la textura de la hoja usando el método de DFM. En la tabla se muestra la base de datos que fue procesada, la cantidad de descriptores extráıdos y los porcentajes de acierto de la clasificación de cada base de datos. El enfoque de este trabajo es analizar el comportamiento del descriptor de textura obtenido con el método DFM y ver si puede mejorar los resultados Caṕıtulo 4. Desarrollo y Resultados 51 Cuadro 4.1: Resultados de la clasificación de textura de ImageCLEF 2012 y PERALD Base de datos #caracteŕısticas Resultados ( %) PERALD 17 71,04 ImageCLEF 17 61,71 en procesos de clasificación combinándolo con otros descriptores. Como po- demos observar, por śı solo el resultado de aciertos no es alto, por tal motivo se decidió hacer un análisis donde combinamos descriptor de textura con los descriptores del trabajo Oncevay-Marcos et al. (2015). Los descriptores se describirán brevemente en la siguiente sección; también veremos los resulta- dos de clasificación de plantas y el comportamiento de los descriptores de textura en combinación con otras caracteŕısticas. 4.6. Dimensión Fractal Multiescala como componente de vector de caracteŕısticas Al encontrarnos con los resultados mostrados en la sección anterior, los cuales no son altos, se procedió a realizar diferentes combinaciones de carac- teŕısticas buscando mejorar la tasa de acierto. De ese modo, los descriptores extráıdos del presente trabajo se combinaron con otros descriptores imple- mentados por colegas del proyecto en el cual se desarrolla la presente tesis. Estos son: descriptores de Redes Complejas, de Color y Haralick, y de Di- mensión Fractal aplicada al borde. La combinación de estos 4 conjuntos de caracteŕısticas dio buenos resultados, dando como producto la publicación del art́ıculo de Oncevay-Marcos et al. (2015) en la conferencia Computer Caṕıtulo 4. Desarrollo y Resultados 52 Analysis on Images and Patterns, 20151. La descripción de cada uno de los descriptores se puede observar en el art́ıculo mencionado anteriormente, y será anexado al trabajo presente. En las siguientes dos subsecciones describimos brevemente los resultados (sin entrar en mayor detalle) del art́ıculo mencionado anteriormente, para en- tender el contexto de los descriptores y luego combinarlos con los del trabajo presente. 4.6.1. Conjunto de datos y caracteŕısticas Para la experimentación del escenario descrito en Oncevay-Marcos et al. (2015), se utilizó 115 especies de plantas de la base de datos ImageCLEF 2012 (Goëau et al., 2013) haciendo un total de 4 870 instancias. De este modo, a este conjunto de datos se le aplicó algoritmos de extrac- ción de descriptores de redes complejas (DRC), dimensión fractal multiesca- la (DFM), Haralick (HAR) y momentos de color (COL) en los tres canales de RGB. El procedimiento de extracción puede ser revisado en el paper de nuestra co-autoŕıa (Oncevay-Marcos et al., 2015). Para facilitar su uso, lla- maremos a estos 4 descriptores con el nombre CAIP. Cuadro 4.2: Caracteŕısticas extráıdas Abv. Descripción #caracteŕısticas DRC Descriptores de Redes Complejas 26 DFM Dimensión Fractal Multi-Escala con d = 0,05 68 HAR 14 descriptores de Haralick en 4 direcciones 56 COL 3 momentos de color en cada canal RGB 9 TOTAL 159 1http://www.springer.com/us/book/9783319231914 Caṕıtulo 4. Desarrollo y Resultados 53 El total de caracteŕısticas extráıdas fue de 159, y la composición del mis- mo se detalla en el Cuadro 4.2. Se puede apreciar que los descriptores de dimensión fractal multiescala son los que se presentan en mayor número. 4.6.2. Combinación de caracteŕısticas Para el proceso de clasificación Oncevay-Marcos et al. (2015) utilizó una red neuronal Perceptrón multicapa, siendo el proceso de validación de 10-fold cross validation. Con ello, se procedió a realizar diferentes combinaciones de conjuntos de caracteŕısticas. Los resultados se muestran en el Cuadro 4.3, donde vemos las combinaciones de las caracteŕısticas, la cantidad de descrip- tores por cada combinación y la precisión de acierto que está en % (es la relación entre casos correctamente identificados y el total de casos estudia- dos). Cuadro 4.3: Resultados de clasificación de 115 especies Combinación de caracteŕısticas #caracteŕısticas Precisión ( %) HAR + COL 65 79,85 DRC + DFM 94 72,03 DRC + HAR + COL 91 86,61 DFM + HAR + COL 133 88,31 DRC + DFM + HAR + COL 159 90,41 Se puede apreciar que el mejor resultado se obtiene al combinar todos los conjuntos de caracteŕısticas, otorgando un precisión de 90,41 %. Estos resultados fueron mejores a los previamente desarrollados por Brilhador et al. (2013), (trabajo descrito en el Caṕıtulo 3), con una estrategia muy similar (la diferencia está en la menor cantidad de especies, y en la combinación de descriptores), alcanzaron 87,5 % con un total de 218 caracteŕısticas y con un Caṕıtulo 4. Desarrollo y Resultados 54 Cuadro 4.4: Resultados de clasificación ImageCLEF 2012 sin textura Combinación de caracteŕısticas #caracteŕısticas Precisión ( %) HAR + COL 65 77,26 DRC + DFM 94 73,87 DRC + HAR + COL 91 86,26 DFM + HAR + COL 133 87,19 DRC + DFM + HAR + COL 159 89,20 Cuadro 4.5: Resultados de clasificación ImageCLEF 2012 con textura Combinación de caracteŕısticas #caracteŕısticas Precisión ( %) HAR + COL + DFMT 82 81,73 DRC + DFM + DFMT 111 82,66 DRC + HAR + COL + DFMT 108 87,90 DFM + HAR + COL + DFMT 150 89,14 DRC + DFM + HAR + COL +DFMT 176 90,26 menor número de especies de plantas (54), ello debido al número de ejemplos no balanceados de cada clase. El trabajo Oncevay-Marcos et al. (2015) fue desarrollado en 2014-2015, por eso la comparación es con los estudios del mismo periodo o anteriores. 4.6.3. Combinación de caracteŕısticas con MFD textura En esta sección mostramos los resultados de la clasificación de plantas combinando los descriptores mencionados en la sección anterior con los de textura. En los Cuadros 4.4 y 4.5 mostramos los resultados de clasificación de plantas de ImageCLEF 2012, sin y con descriptores de textura (DFMT) Caṕıtulo 4. Desarrollo y Resultados 55 Cuadro 4.6: Resultados de clasificación PERALD sin textura (hoja haz) Combinación de caracteŕısticas #caracteŕısticas Precisión ( %) HAR + COL 55 93,70 DRC + DFM 106 83,02 DRC + HAR + COL 81 95,99 DFM + HAR + COL 135 94,47 DRC + DFM + HAR + COL 161 96,76 Cuadro 4.7: Resultados de clasificación PERALD con textura (hoja haz) Combinación de caracteŕısticas #caracteŕısticas Precisión ( %) HAR + COL + DFMT 72 94,85 DRC + DFM + DFMT 123 93,32 DRC + HAR + COL + DFMT 98 96,95 DFM + HAR + COL + DFMT 152 96,18 DRC + DFM + HAR + COL +DFMT 178 96,76 respectivamente. DFMT son los descriptores de textura obtenidos en este trabajo con el método Dimensión Fractal Multiescala. Para hacer las pruebas, usamos 101 especies de las 115 de ImageCLEF 2012. No usamos las 115 especies de CAIP, debido a que de las 14 especies no se pudo obtener buenas muestras de textura, por la forma y tamaño de las hojas. Como se aprecia en los resultados de clasificación al combinar las carac- teŕısticas de CAIP con las de textura aumenta el porcentaje de acierto, esto nos indica que el descriptor de textura mejora la selección entre especies. En los Cuadros 4.6, 4.7, 4.8 y 4.9 mostramos los resultados de clasificación de plantas de base de datos PERALD sin y con descriptores de textura, combinando con las caracteŕısticas mostradas en el Cuadro 4.3. Además, añadimos el tipo de hoja a la clasificación, haz y envés. Por eso tenemos 4 cuadros: sin textura y hoja haz, con textura y hoja haz, sin textura y hoja Caṕıtulo 4. Desarrollo y Resultados 56 Cuadro 4.8: Resultados de clasificación PERALD sin textura (hoja envés) Combinación de caracteŕısticas #caracteŕısticas Precisión ( %) HAR + COL 55 96,95 DRC + DFM 106 83,39 DRC + HAR + COL 81 96,95 DFM + HAR + COL 135 97,33 DRC + DFM + HAR + COL 161 97,33 Cuadro 4.9: Resultados de clasificación PERALD con textura (hoja envés) Combinación de caracteŕısticas #caracteŕısticas Precisión ( %) HAR + COL + DFMT 72 97,71 DRC + DFM + DFMT 123 93,32 DRC + HAR + COL + DFMT 98 96,95 DFM + HAR + COL + DFMT 152 97,52 DRC + DFM + HAR + COL +DFMT 178 97,52 envés, con textura y hoja envés. Para hacer las pruebas, usamos 27 especies y extrajimos las caracteŕısticas CAIP y de textura (DFMT). Viendo los resultados de clasificación de PERALD, observamos que hay una diferencia en porcentajes de acierto entre las hojas sin y con textu- ra. En cada combinación de descriptores al añadir el descriptor de textu- ra DFMT se mejora el resultado. Esto nos muestra que los descriptores de textura aportan una mejoŕıa al proceso de clasificación de las plantas. Además, observamos que los resultados de PERALD son más altos que de ImageCLEF 2012. La razón seŕıa la calidad y la resolución de las imáge- nes digitales de PERALD. Analizando los porcentajes de acierto, nos damos cuenta de que los mejores resultados (los aciertos más altos) se obtienen en combinación DRC+HAR+COL+DFMT para hoja haz con 96,95 % y en HAR+COL+DFMT para hoja envés con 97,71 %. En el primer caso la com- Caṕıtulo 4. Desarrollo y Resultados 57 binación usa un poco más de 50 % de las caracteŕısticas (98/178) y en el segundo es menos de la mitad (72/178). Esto indica que hay buenas posibi- lidades de mejorar los resultados al combinar estos descriptores con otros no incluidos en este trabajo. De esta manera, podemos decir que la textura es un buen discriminante para el estudio de reconocimiento y clasificación de plan- tas. Además, en el futuro se puede hacer un análisis de plantas combinando las caracteŕısticas de textura de envés y haz de la hoja. 4.6.4. Análisis de la relevancia de clasificación Haciendo el análisis de los resultados, observamos que todas las clases de PERALD tienen más de 80 % como resultado de acertamiento. Hay más de 10 clases que llegan a 100 % de acertamiento, la cantidad de imágenes que tienen es entre 12 y 20 por cada clase, además con 5 muestras por cada imagen que es un valor máximo. Combinar las caracteŕısticas de CAIP con la textura Dimensión Fractal Multiescala (DMFT) mejora la precisión de clasificación de cada una de las combinaciones. El mayor aumento de precisión, 10 %, lo observamos en la combinación de Redes(DRC) + DFMT + DFM para borde. Esto indica que las caracteŕısticas de textura obtenidas con el método Bouligand-Minkowski son buenos descriptores y pueden ser combinados con otros atributos para dar mejores resultados en los modelos de clasificación de plantas. Caṕıtulo 5 Conclusiones y trabajos futuros 5.1. Conclusiones En este trabajo recreamos el procedimiento para identificación de plantas a través de atributos visuales extráıdos de las imágenes digitales de hojas de diferentes especies de plantas. El objeto del presente trabajo fue evaluar la caracterización de la textura de las imágenes digitales de las hojas mediante el método Bouligand-Minkowski basado en DFM y verificar la importancia que este tiene en la clasificación y discriminación de especies. Para ello, es- pećıficamente nos concentramos en analizar la textura mediante el método basado en DFM, siguiendo dos estrategias: 1) analizar solamente el conjun- to de caracteŕısticas de DFM y cuán discriminante es por śı misma; y 2) Combinar el conjunto de caracteŕısticas de DFM con otros conjuntos que caracterizan la morfoloǵıa, textura de las hojas, como descriptores de Redes Complejas, descriptores de Haralick y Momentos de Color. Para la estrategia 1, el mejor resultado de discriminación, usando co- mo clasificador la red neuronal Multilayer Perceptron, fue de 71,04 % el cual podemos considerarlo como muy buen valor en la tarea de clasificación au- 58 Caṕıtulo 5. Conclusiones y trabajos futuros 59 tomática de las plantas. Cabe indicar que este resultado se consiguió con el análisis de la extracción de regiones de la hoja de planta con dimensiones de 128 x 128 ṕıxeles. Para la estrategia 2, vimos 3 casos: resultados de CAIP (ImageCLEF 2012, 115 clases) no incluye caracteŕısticas de textura pero tiene descriptores del contorno obtenidos con DFM, ImageCLEF 2012 (101 clase) y PERALD (27 clases) sin y con caracteŕısticas de textura. En el primer caso, se obser- va que al combinar las caracteŕısticas de DFM con los otros conjuntos de caracteŕısticas, siempre se encuentra una mejora, es aśı por ejemplo que la combinación de los conjuntos de Haralick y momentos de color nos dan una precisión de 79,85 %, pero al incrementar el conjunto de caracteŕısticas de Dimensión Fractal Multiescala, el acierto sube a 88,31 %. De igual manera, la combinación de caracteŕısticas de los conjuntos de Redes Complejas, Ha- ralick y Momentos de Color, otorgan una precisión de 86,61 %, pero cuando añadimos el conjunto de datos de Dimensión Fractal Multiescala, con mucha satisfacción verificamos que el acierto también se incrementa, a 90,41 %, sien- do esta la mejor tasa de discriminación que se haya alcanzado, mejorando incluso el resultado encontrado en la literatura, que trabajó con la misma base de datos y un proceso similar (Brilhador et al., 2013). En el segundo y tercer caso, el comportamiento de los resultados coinci- de con el primer caso. Al combinar las caracteŕısticas de Dimensión Fractal Multiescala (ImageCLEF 2012, 101 especies) con los otros conjuntos, siem- pre se encuentra una mejora; por ejemplo, combinación de los conjuntos de Haralick y momentos de color da una precisión de 77,26 %, pero al incremen- tar el conjunto de DFM aplicado al contorno y a la textura, el acierto sube a 89,14 %. Lo mismo sucede en caso de PERALD, hojas envés y haz, por ejemplo, combinación de los conjuntos de Haralick y Momentos de Color da Caṕıtulo 5. Conclusiones y trabajos futuros 60 una precisión de 93,70 %, pero al incrementar el conjunto de DFM aplicado al contorno y a la textura, el acierto sube a 96,18 %. Con lo desarrollado en el presente trabajo, se ha verificado que el conjun- to de caracteŕısticas extráıdas mediante el método Bouligand-Minkowski ha aportado a la mejora de la clasificación de hojas de plantas. Al tener como hipótesis que la textura de las hojas presenta un comportamiento fractal, se buscó con el presente trabajo caracterizar esa propiedad mediante algoritmos que simulan el comportamiento fractal y a partir de ellos extraer las medidas que las caracterizan. 5.2. Recomendaciones y trabajos futuros Como trabajo futuro se propone aplicar el método a un mayor conjunto de especies de plantas, de manera que este se constituya en parte de la metadata del proyecto de catálogo digital de plantas que se viene desarrollando en el proyecto del cual es parte el presente trabajo. Se recomienda trabajar con otros clasificadores y otros extractores que puedan permitir la mejora de la tasa de clasificación. Del mismo modo, al tener una mayor cantidad de información, el proceso de caracterización y clasificación toma mayor tiempo, por lo que también se recomienda trabajar con técnicas de procesamiento paralelo y aplicar estrategias de aprendizaje profundo. Bibliograf́ıa Aakif, A. y Khan, M. F. (2015). Automatic classification of plants based on their leaves. Biosystems Engineering, 139(Supplement C):66 – 75. Ahmed, N., Khan, U. G., y Asif, S. (2016). An automatic leaf based plant identification system. Sci. Int, 28(1):427–430. Arun Priya, C., Balasaravanan, T., y Thanamani, A. (2012). An efficient leaf recognition algorithm for plant classification using support vector machine. En Pattern Recognition, Informatics and Medical Engineering (PRIME), 2012 International Conference on, pp. 428–432. Backes, A. y Bruno, O. (2009). Plant leaf identification using multi-scale fractal dimension. En Foggia, P., Sansone, C., y Vento, M., editores, Image Analysis and Processing – ICIAP 2009, volumen 5716 de Lecture Notes in Computer Science, pp. 143–150. Springer Berlin Heidelberg. Backes, A. y Bruno, O. (2010). Plant leaf identification using color and multi-scale fractal dimension. En Elmoataz, A., Lezoray, O., Nouboud, F., Mammass, D., y Meunier, J., editores, Image and Signal Processing, volumen 6134 de Lecture Notes in Computer Science, pp. 463–470. Springer Berlin Heidelberg. Backes, A. R. y Bruno, O. M. (2012). Fractal and multi-scale fractal dimen- 61 BIBLIOGRAFÍA 62 sion analysis: a comparative study of bouligand-minkowski method. arXiv preprint arXiv:1201.3153. Backes, A. R., Casanova, D., y Bruno, O. M. (2009). Plant leaf identification based on volumetric fractal dimension. International Journal of Pattern Recognition and Artificial Intelligence, 23(06):1145–1160. Backes, A. R., Casanova, D., y Bruno, O. M. (2012). Color texture analysis based on fractal descriptors. Pattern Recognition, 45(5):1984–1992. Beghin, T., Cope, J. S., Remagnino, P., y Barman, S. (2010). Advanced Concepts for Intelligent Vision Systems: 12th International Conference, ACIVS 2010, Sydney, Australia, December 13-16, 2010, Proceedings, Part II, caṕıtulo Shape and Texture Based Plant Leaf Classification, pp. 345– 353. Springer Berlin Heidelberg, Berlin, Heidelberg. Brilhador, A., Colonhezi, T. P., Bugatti, P. H., y Lopes, F. M. (2013). Com- bining texture and shape descriptors for bioimages classification: a case of study in imageclef dataset. En Progress in Pattern Recognition, Image Analysis, Computer Vision, and Applications, pp. 431–438. Springer. Coggins, J. M. (1983). A Framework for Texture Analysis Based on Spatial Filtering. Tesis doctoral, East Lansing, MI, USA. AAI8315444. Cope, J. S., Corney, D., Clark, J. Y., Remagnino, P., y Wilkin, P. (2012). Plant species identification using digital morphometrics: A review. Expert Systems with Applications, 39(8):7562–7573. da Fontoura Costa, L. y Cesar Jr., R. M. (2009). Shape Classification and Analysis: Theory and Practice. CRC Press, Inc., Boca Raton, FL, USA, 2nd edición. BIBLIOGRAFÍA 63 Devyver, P. y Kittler, J. (1982). Pattern Recognition: A Statistical Approach. Prentice-Hall. Du, J.-X., Wang, X.-F., y Zhang, G.-J. (2007). Leaf shape based plant species recognition. Appl. Math. Comput., 185(2):883–893. Du, J.-x., Zhai, C.-M., y Wang, Q.-P. (2013). Recognition of plant leaf image based on fractal dimension features. Neurocomputing, 116:150–156. Falconer, K. (2004). Fractal geometry: mathematical foundations and appli- cations. John Wiley & Sons. Fu, K.-S. y Rosenfeld, A. (1976). Pattern recognition and image processing. IEEE transactions on computers, 25(12):1336–1346. Goëau, H., Bonnet, P., Joly, A., Bakic, V., Barthélémy, D., Boujemaa, N., y Molino, J.-F. (2013). The imageclef 2013 plant identification task. En CLEF. Gonzalez, R. C. y Woods, R. E. (2006). Digital Image Processing (3rd Edi- tion). Prentice-Hall, Inc., Upper Saddle River, NJ, USA. Haralick, R. M. (1979). Statistical and structural approaches to texture. Proceedings of the IEEE, 67(5):786–804. Haralick, R. M., Shanmugam, K., y Dinstein, I. H. (1973). Textural features for image classification. Systems, Man and Cybernetics, IEEE Transactions on, (6):610–621. Harish, B. S., Hedge, A., Venkatesh, O., Spoorthy, D. G., y Sushma, D. (2013). Classification of plant leaves using morphological features and zernike moments. En Advances in Computing, Communications and In- formatics (ICACCI), 2013 International Conference on, pp. 1827–1831. BIBLIOGRAFÍA 64 Hausdorff, F. (1918). Dimension und äußeres maß. Mathematische Annalen, 79(1):157–179. Jelinek, H. F. y Fernandez, E. (1998). Neurons and fractals: how reliable and useful are calculations of fractal dimensions? Journal of neuroscience methods, 81(1):9–18. Jobin, A., Nair, M. S., y Tatavarti, R. (2012). Plant identification based on fractal refinement technique (frt). Procedia Technology, 6:171 – 179. 2nd International Conference on Communication, Computing & Security [ICCCS-2012]. Kadir, A., Nugroho, L. E., Susanto, A., y Santosa, P. I. (2012). Experi- ments of zernike moments for leaf identification. Journal of Theoretical and Applied Information Technology (JATIT), 41(1):82–93. Kebapci, H., Yanikoglu, B., y Unal, G. (2010). Plant image retrieval using color, shape and texture features. The Computer Journal, p. bxq037. Kerut, E. K., Given, M., y Giles, T. D. (2003). Review of methods for texture analysis of myocardium from echocardiographic images: a means of tissue characterization. Echocardiography, 20(8):727–736. Khotanzad, A. y Hong, Y. H. (1990). Invariant image recognition by zernike moments. IEEE Transactions on pattern analysis and machine intelligen- ce, 12(5):489–497. Laine, A. y Fan, J. (1993). Texture classification by wavelet packet signa- tures. IEEE Transactions on Pattern Analysis and Machine Intelligence, 15(11):1186–1191. BIBLIOGRAFÍA 65 Larese, M. G., Bayá, A. E., Craviotto, R. M., Arango, M. R., Gallo, C., y Granitto, P. M. (2014). Multiscale recognition of legume varieties based on leaf venation images. Expert Systems With Applications, 41(10):4638–4647. Laws, K. I. (1980). Textured image segmentation. Technical report, DTIC Document. Lopes, R. y Betrouni, N. (2009). Fractal and multifractal analysis: A review. Medical Image Analysis, 13(4):634 – 649. Mandelbrot, B. B. (1983). The Fractal Geometry of Nature. W. H. Freedman and Co., New York. Manjunath, B. S., Ohm, J.-R., Vasudevan, V. V., y Yamada, A. (2001). Color and texture descriptors. IEEE Transactions on circuits and systems for video technology, 11(6):703–715. Martinez, O. B., de Oliveira Plotze, R., Falvo, M., y de Castro, M. (2008). Fractal dimension applied to plant identification. Information Sciences, 178(12):2722–2733. Naresh, Y. y Nagendraswamy, H. (2016). Classification of medicinal plants: An approach using modified lbp with symbolic representation. Neurocom- puting, 173(Part 3):1789 – 1797. Nixon, M. y Aguado, A. (2002). Feature Extraction and Image Processing. Electronics & Electrical. Newnes. Oncevay-Marcos, A., Juarez-Chambi, R., Khlebnikov-Núñez, S., y Beltrán- Castañón, C. (2015). Leaf-based plant identification through morphologi- cal characterization in digital images. En Computer Analysis of Images and Patterns, pp. 326–335. Springer. BIBLIOGRAFÍA 66 Otsu, N. (1975). A threshold selection method from gray-level histograms. Automatica, 11(285-296):23–27. Peitgen, H.-O., Jürgens, H., y Saupe, D. (1992). Recursive Structures: Gro- wing of Fractals and Plants, pp. 9–65. Springer New York, New York, NY. Pinedo, P., Rengifo, M., Cerruti, E., y Pinedo, T. M. (1997). Plantas medici- nales de la amazonia peruana: estudio de su uso y cultivo. Número SB293 P65. Plotze, R. d. O., Falvo, M., Pádua, J. G., Bernacci, L. C., Vieira, M. L. C., Oliveira, G. C. X., y Bruno, O. M. (2005). Leaf shape analysis using the multiscale minkowski fractal dimension, a new morphometric met- hod: a study with passiflora (passifloraceae). Canadian Journal of Botany, 83(3):287–301. Pydipati, R., Burks, T., y Lee, W. (2006). Identification of citrus disease using color texture features and discriminant analysis. Computers and Electronics in Agriculture, 52(1–2):49 – 59. Rashad, M., El-Desouky, B., y Khawasik, M. S. (2011). Plants images classi- fication based on textural features using combined classifier. International Journal of Computer Science and Information Technology, 3(4):93–100. Rumelhart, D. E., Hinton, G. E., y Williams, R. J. (1988). Neurocomputing: Foundations of research. caṕıtulo Learning Internal Representations by Error Propagation, pp. 673–695. MIT Press, Cambridge, MA, USA. Russ, J. C. (2016). The image processing handbook. CRC press. BIBLIOGRAFÍA 67 Sack, L. y Scoffoni, C. (2013). Leaf venation: structure, function, develop- ment, evolution, ecology and applications in the past, present and future. New Phytologist, 198(4):983–1000. Schroeder, M. (2009). Fractals, chaos, power laws: Minutes from an infinite paradise. Courier Corporation. Simpson, M. (2010). Plant Systematics. Elsevier Science. Takayasu, H. (1990). Fractals in the physical sciences. Manchester University Press. Theodoridis, S. y Koutroumbas, K. (2009). Chapter 7 - feature generation {II}. En Theodoridis, S., , y Koutroumbas, K., editores, Pattern Recog- nition (Fourth Edition), pp. 411 – 479. Academic Press, Boston, fourth edition edición. Tricot, C. (1994). Curves and fractal dimension. Springer Science & Business Media. Tuceryan, M. y Jain, A. K. (1993a). Handbook of pattern recognition and computer vision. caṕıtulo Texture Analysis, pp. 235–276. World Scientific Publishing Co., Inc., River Edge, NJ, USA. Tuceryan, M. y Jain, A. K. (1993b). Texture analysis. Handbook of pattern recognition and computer vision, 2:207–248. Vianna, G. y Cruz, S. (2014). Using multilayer perceptron networks in early detection of late blight disease in tomato leaves. En Proceedings on the International Conference on Artificial Intelligence (ICAI), p. 1. The Stee- ring Committee of The World Congress in Computer Science, Computer Engineering and Applied Computing (WorldComp). BIBLIOGRAFÍA 68 Wu, S. G., Bao, F. S., Xu, E. Y., Wang, Y.-X., Chang, Y.-F., y Xiang, Q.-L. (2007). A leaf recognition algorithm for plant classification using probabi- listic neural network. En Signal Processing and Information Technology, 2007 IEEE International Symposium on, pp. 11–16. IEEE. Xie, X. (2008). A review of recent advances in surface defect detection using texture analysis techniques. ELCVIA Electronic Letters on Computer Vi- sion and Image Analysis, 7(3). Yanikoglu, B., Aptoula, E., y Tirkaz, C. (2014). Automatic plant identifi- cation from photographs. Machine Vision and Applications, 25(6):1369– 1383. Yanikoglu, B. A., Aptoula, E., y Tirkaz, C. (2012). Sabanci-okan system at imageclef 2012: Combining features and classifiers for plant identification. En CLEF (Online Working Notes/Labs/Workshop). Zhang, G.-J., Wang, X.-F., Huang, D.-S., Chi, Z., Cheung, Y.-M., Du, J.-X., y Wan, Y.-Y. (2004). A hypersphere method for plant leaves classification. En Intelligent Multimedia, Video and Speech Processing, 2004. Proceedings of 2004 International Symposium on, pp. 165–168. Zhang, H., Yanne, P., y Liang, S. (2012). Plant species classification using leaf shape and texture. En Industrial Control and Electronics Engineering (ICICEE), 2012 International Conference on, pp. 2025–2028. IEEE. Apéndice A Art́ıculo presentado en CAIP2015 69 Leaf-Based Plant Identification Through Morphological Characterization in Digital Images Arturo Oncevay-Marcos(B), Ronald Juarez-Chambi, Sof́ıa Khlebnikov-Núñez, and César Beltrán-Castañón Department of Engineering, Research Group on Pattern Recognition and Applied Artificial Intelligence, Pontificia Universidad Católica Del Perú, Lima, Perú {foncevay,ronald.juarez,cbeltran}@pucp.pe, sjlebn@pucp.edu.pe Abstract. The plant species identification is a manual process per- formed mainly by botanical scientists based on their experience. In order to improve this task, several plant classification processes has been pro- posed applying pattern recognition. In this work, we propose a method combining three visual attributes of leaves: boundary shape, texture and color. Complex networks and multi-scale fractal dimension techniques were used to characterize the leaf boundary shape, the Haralick’s descrip- tors for texture were extracted, and color moments were calculated. Experiments were performed on the ImageCLEF 2012 train dataset, scan pictures only. We reached up to 90.41% of accuracy regarding the leaf- based plant identification problem for 115 species. Keywords: Leaf-based plant identification · Complex networks · Multi- scale fractal dimension · Haralick’s descriptors · Color moments 1 Introduction Taxonomic classification of plants is a difficult challenge to botanists due to the great biodiversity of plant species and the variety of different biological attributes to analyze. Botanists have the duty of preserve and increase the content of herbariums and plant catalogs from species collection and identification tasks. Now the identification challenge is moved to a computational approach, applying pattern recognition techniques to automatize the plant identification task using digital images of leaves. In pattern recognition, a set of visual morphological traits are gathered to design or apply mathematical models which allow species discrimination and identification. There are many techniques in the literature related to leaf-based identification by using digital images because is the part of the plant with most visual attributes and properties: shape, boundary, color, texture, venation and so forth [1]. Some of this approaches are described below. Leaf boundary features often were extracted taking into account the region they cover [2] or the contour analysis [3]. Another approach is carried out on the ©c Springer International Publishing Switzerland 2015 G. Azzopardi and N. Petkov (Eds.): CAIP 2015, Part II, LNCS 9257, pp. 326–335, 2015. DOI: 10.1007/978-3-319-23117-4 28 Leaf-Based Plant Identification Through Morphological Characterization 327 basis of leaf skeletonization [4] that can be extended to the leaf venation com- position. A variety of techniques are applied over skeleton leaf such as complex networks [5–7] and fractal dimension [1,5,6,8]. Another potential features are the color and texture of the leaf. Color is usually analyzed in image retrieval problems based on visual contents [9]. In addition, four color moments are extracted from leaf-based plant identification process [10,11]. On the other hand, the texture characteristics are used for leaf classification, and although texture features can not discriminate plants on their own, they could be merged with other descriptors [12]. In this approach, some of the most tested features are based on Gabor filters [13,14], Local Binary Patterns (LBP) [6,14] and Gray Level Co-ocurrence Matrix (GLCM) [15,16]. In this paper, a leaf feature vector is obtained by processing boundary shape, color and texture properties. Complex networks and Multi-scale fractal dimen- sion were used to extract boundary features. The Haralick’s descriptors were extracted from the texture leaf area by using GLCM, and three color moments were computed (standard deviation, asymmetry and kurtosis). Then, we trained a multilayer perceptron classifier with these features. The experimentation was performed on the ImageCLEF 2012 leaf image dataset [17]. Also, a 10-fold cross validation proves high acceptance rate for the implemented framework. The rest of the paper is organized as follows, in Section 2 we describe briefly the procedure proposed for the image processing and classification; Section 3 explains the conceptual framework of the features extracted. Furthermore, exper- imentation and results were detailed in Section 4. Finally, Section 5 presents the conclusion about our results and future works. 2 Procedure The proposed procedure for this study is shown in Fig. 1. The digital images of scanned leaves go through a pre-processing phase for the leaf area segmentation using Otsu approach [18]. Also, the leaf contour and venation (known as leaf skeleton) has been extracted. Figure 2 shows the desired result. For this work, we only consider the leaf boundary for shape features extraction. The complete extraction process is explained in the next section. At the end, we applied the multilayer perceptron (MLP) [19] with the features extracted as input. Fig. 1. Proposed procedure for the study 328 A. Oncevay-Marcos et al. Fig. 2. Image leaf pre-processing (skeletonization) 3 Feature Extraction 3.1 Complex Networks for Boundary Shape Approach In general, a graph or network is a set of elements called nodes and connections known as edges. However, a complex network refers to a graph with no trivial properties compared with simple graphs, as well as it has considerable number of nodes and edges [20] . There are many theoretical models of complex networks such as Erdös-Rényi, scale-free, random models, etc. In this paper we used Watts-Strogatz network model which owns a small-world property [21]. The study of the dynamic prop- erties of this model —measurements were obtained from the evolution based on number of connected components— will produce a set of descriptors or a feature vector which will be used for the classification task [22]. Degree Descriptors Using Complex Networks Signature. In this section, we describe the process of signature characterization focused on complex net- work [20]. Let S the boundary leaf trace represented as a set of points S = [s1, s2, . . . , sN ], whose components si = [xi, yi] represent each vertex i of the boundary contour. Then, in order to apply complex networks theory to this problem, we have created the equivalence of S as a representation of graph G = 〈V,E〉 . Each pixel of the skeleton is represented as a node of the network, i.e. S = V . A set of edges E connect each pair of vertices establishing, in this way, the network. E is calculated using Euclidean distance d. Therefore, the matrix is represented by the adjacency matrix with weight W and dimension N×N : wij = W ([wi, wj ]) = d(si, sj) (1) Dynamic Evolution on Complex Networks. Initially, the set of edges E connect all vertex in the network, as a network with regular behavior. How- ever, a regular network does not have any particular property. Therefore, it is necessary to convert this initial regular network in a complex network, in order to use relevant properties that can be applied later. In this sense, a threshold transformation is used. This approach allows a characterization that describes a Leaf-Based Plant Identification Through Morphological Characterization 329 list of transient features of the dynamic evolution of the network. Also, a degree normalization is required. For this reason, after consider the network transfor- mation, the feature vector denoted by ϕ is calculated as the concatenation of the average (kμ) and maximum degree (kκ) for each stage of the network evolution and thus we get the characterization proposed for a signature by using complex networks [5]. ϕ = [kμ(T0), kκ(T0), kμ(T1), ..., kμ(TQ), kκ(TQ)] (2) 3.2 Multi-scale Fractal Dimension for Boundary Shape Extraction The fractal dimension is a characteristic to measure leaf’s shape complexity. In this work we will use the Bouligand-Minkowski method. According to this method, fractal dimension is defined as FD ∼ 2 − logA(d)log(d) , where A(d) is the area of the leaf dilated by a distance d. The method is based on the correlation between an object boundary and the space it occupies [1,8]. In summary, the method applies dilatation process to the object (leaf), obtaining the ratio between the area and the radius of the dilatation. The object dilatation is√obtain√ed √by usin√g a set of distances: D = {1, 2, 2, 5, 8, 3, 10, ..., d},whereD is theEuclideandistancebetween pixel’s position which is calculated using EuclideanDistance Transform (EDT) (as seen in Fig. 3). For each distance, the object area is calculated. In this case, the area is the sumofall pixels betweenoriginal object and thedilatationwith thedistanced. Fig. 3. Image of a leaf boundary after dilatation (left). Zoom in to a sample of distances (right). The Fractal dimension (FD) is estimated by the logA(d)-log(d) curve (as seen in Fig. 4), and the gradient of this curve is the fractal dimension. Sometimes, the FD numeric value cannot describe the complexity of an object or does not have enough useful information, because two objects may have a similar value but belong to different classes. Another disadvantage is the depen- dence on the used scale [23]. Then, in order to improve the characterization of an object, the Multi-scale Fractal Dimension (MFD) was used. This is defined as: du(t) MFD = 2 − (3) dt 330 A. Oncevay-Marcos et al. Fig. 4. logA(d) by log(d) curve where du(t)/dt represents the derivative of the log-log curve. In this way, to obtain the MFD, we need to calculate the derivative of the log-log curve. In order to get this derivative, we need to smooth the log-log curve to clean high frequency noise. To do this, we applied at regular steps of δ size a Gaussian smoothing filter with σ = δ/2π. After testing different values of δ, we found that a value of 0.05 gave us the best success rate in the identification task. A sample for the mentioned curves is shown in Fig. 5. 3.3 Color and Texture Features Color Moments. Color moments are measures that allow similarity analysis between images through its colors. The moments are used because the different values in a color channel (from an image) could represent a probabilistic distri- bution. In this way, the central moments that describes a probability distribution function are used in the characterization of image colors [24]. Due to the statistical descriptive nature of the moments, this features are scalable and invariant to image rotation. The three main color moments applied by Stricker and Orengo [25] are: Mean, Standard Deviation and Asymmetry. The last one provides information about the form of the color distribution (how much symmetric or assymetric). Besides, it had been considered another color moment called Kurtosis [11], that also analyzes the distribution form by processing the proportion of the variance regarding the concentration of the near and far values to the Mean. In this work, the Mean was not considered in the analysis due to the variation of the leaf color tone through different seasons (reflected in the image dataset). Finally, the three remaining moments were calculated due to the valuable information regarding the form of the distribution of values in each RGB color space channel. Haralick’s Descriptors. The texture features proposed by Haralick [26] are statistical descriptors, and they are extracted from matrices known as GLCM (Gray Level Co-ocurrence Matrix). These matrices represent the distribution of Leaf-Based Plant Identification Through Morphological Characterization 331 Fig. 5. Sample of MFD curves for 4 objects of two different classes. The curves of one class are shown using dashed lines, while the other ones have a solid style. the different gray levels in pixels of an image and they have a widespread use in the image processing area due to its ability to obtain valuable information about neighboring pixels in different positions on an image [27]. Because of the amount of values embedded in the GLCM, Haralick proposes a reduction to fourteen statistical descriptors: f1 14H a fH . These descriptors preserve the relevance of the content in the matrix. For this research, the GLCM was calculated using four directions (0◦, 90◦, 180◦, 270◦), which is usually applied in biological textures [28], and a distance d = 1 in order to take advantage of the analysis at the pixel adjacency level. The fourteen descriptors are calculated for each of the four directions in the neighborhood, and this also helps to reduce the dependence on the GLCM with image rotation caused by the properties of spatial relationships of the pixels. 4 Results and Discussion For the experimentation, the selected digital images correspond to the scan leaves from the training dataset of the ImageCLEF 2012 [17]. The whole dataset is composed by images (scanned, scan-like and photograph) from 126 plant species, but only 115 plant species have scan digital images of their leaves, with a total of 4,870 instances. For this image dataset, features described in Section 3 were extracted, and a MLP classification algorithm was trained through a 10-fold cross validation. The number of attributes for each kind of features are shown in Table 1. The results from the classification process with different combinations of the features are displayed in Table 2. It is shown that each group of features contributes to the improvement of the classification result. For instance, the boundary approach from complex networks and multi-scale fractal dimension features perform well individually and in combination. On the other hand, the color and texture features overcome expectations working in pair, and they show satisfying results as complements from the other attributes too. 332 A. Oncevay-Marcos et al. Table 1. Features extracted Abv. Groups of Features #features CND Complex Network Degree descriptors 26 MFD Multi-scale Fractal Dimension with d = 0.05 68 Har 14 Haralick’s descriptors in 4 directions 56 Col 3 Color moments in each RGB’s channels 9 Total 159 Table 2. Results from classification Features included #features Accuracy (%) CND 26 45.83 MFD 68 64.78 (Har + Col) 65 79.85 CND + MFD 94 72.03 CND + (Har + Col) 91 86.61 MFD + (Har + Col) 94 88.31 CND + MFD + (Har + Col) 159 90.41 Regarding the best general result, it is obtained from the combination of all features with a 90.41% of accuracy. This score value moderately exceeds a study in the same image dataset with a similar process [29], where a maximum accuracy of 87.5% was achieved, with 218 features and even fewer species (only 54 plant species were analyzed due to the unbalanced number of samples for each class). In order to analyze how many of the correctly classified samples are relevant, we make a detailed review of the precision score, which in our best result reached up to 90.3% (almost equal to the accuracy). Figure 6 shows a scatterplot of the individual precision obtained by each plant species versus the different number of images found in the dataset, and the analysis for this classification result is described below. First at all, it is observed that the rightmost points (meaning a bigger number of images for each plant species) have obtained a high precision value. Also, there are eight plant species that achieved a 100% score in this metric, and their number of images is between 10 and 181, which is the maximum value. This fact supports a good overall score of the classification process. On the other hand, it is noted that there is a very little number of plant species that obtained a precision value below to 50%. In detail, there are eleven plant species in this range, and eight of them have zero precision. However, these plant species contain the fewest number of images in the dataset (less than 10, and even several species with less than 5 images). That is the reason why those plant species got a low (even zero) score, but it did not affect the overall outcome significantly. Leaf-Based Plant Identification Through Morphological Characterization 333 Fig. 6. From the best classification result: individual precision versus the number of images per each plant species Fig. 7. An image sample of each plant species that achieved 100% precision on the best classification result Fig. 8. An image sample of each plant species with zero precision on the best classifi- cation result An image sample for the best (100% precision) and worst (zero precision) classified species from our best classification model are shown in Fig. 7 and Fig. 8, respectively. As can be seen, there are visual properties with significant differences between the image samples from both sides. Therefore, with a bal- anced number of images for each plant species, the overall outcome could be improved. However, the obtained results are promising, because only eight plant species (out of 115 in total) were negated by the classifier, and only three other species couldn’t surpass a 50% precision margin. 334 A. Oncevay-Marcos et al. 5 Conclusion and Future Work In this study, we propose a procedure for leaf-based plant identification through visual attributes extracted from digital images. We have analyzed the boundary shape (by using complex networks and multi-scale fractal dimension), texture (by extracting Haralick’s descriptors) and color (with three moments: standard deviation, assymetry and kurtosis). The best classification result with the MLP achieved 90.41% of accuracy, and this is an auspicious value in the task of auto- matic plant specie classification from leaf digital images. Besides, there were only few species that could not obtain a relevant individual score (11 of 115 classes below a 50% precision margin). As future work, venation features will be extracted applying complex net- works and multi-scale fractal dimension from the leaf skeleton. In addition, the proposed process will be tested on other leaves image dataset, including a plant catalog (under development) collected from Amazon in Perú. Finally, the per- formance and time processing will be analyzed in order to scale the procedure to a bigger dataset. Acknowledgments. For this study, the authors acknowledge the support of CONCYTEC-Perú with STIC-AmSud 2013 under the FERMI project, and the Pro- grama Nacional de Innovación para la Competitividad y Productividad, Perú, under the contract 183-FINCyT-IA-2013. This paper is part of a bigger research project funded by grants from the aforementioned Peruvian government programs. References 1. Bruno, O.M., de Oliveira Plotze, R., Falvo, M., de Castro, M.: Fractal dimension applied to plant identification. Inf. Sci. 178(12), 2722–2733 (2008) 2. Lee, C.L., Chen, S.Y.: Classification of leaf images. Int. J. Imaging Syst. Technol. 16(1), 15–23 (2006) 3. Pauwels, E.J., de Zeeuw, P.M., Ranguelova, E.B.: Computer-assisted tree taxon- omy by automated image recognition. Eng. Appl. Artif. Intell. 22(1), 26–31 (2009) 4. Gu, X., Du, J.-X., Wang, X.-F.: Leaf recognition based on the combination of wavelet transform and gaussian interpolation. In: Huang, D.-S., Zhang, X.-P., Huang, G.-B. (eds.) ICIC 2005. LNCS, vol. 3644, pp. 253–262. Springer, Heidelberg (2005) 5. Backes, A.R., Bruno, O.M.: Shape classification using complex network and multi- scale fractal dimension. Pattern Recogn. Lett. 31(1), 44–51 (2010) 6. Casanova, D., Florindo, J.B., Gonçalves, W.N., Bruno, O.M.: Ifsc/usp at imageclef 2012: plant identification task. In: Proceeding of CLEF 2012 Labs and Workshop, Notebook Papers (2012) 7. Arora, A., Gupta, A., Bagmar, N., Mishra, S., Bhattacharya, A.: A plant identifi- cation system using shape and morphological features on segmented leaflets: team iitk, clef 2012. In: Proceeding of CLEF 2012 Labs and Workshop, Notebook Papers (2012) 8. de Oliveira Plotze, R., Falvo, M., Pádua, J.G., Bernacci, L.C., Vieira, M.L.C., Oliveira, G.C.X., Bruno, O.M.: Leaf shape analysis using the multiscale minkowski fractal dimension, a new morphometric method: a study with passiflora (passiflo- raceae). Can. J. Bot. 83(3), 287–301 (2005) Leaf-Based Plant Identification Through Morphological Characterization 335 9. Zhang, X., Zhang, F.: Images features extraction of tobacco leaves. In: Congress on Image and Signal Processing, CISP 2008, vol. 2, 773–776. IEEE (2008) 10. Man, Q.K., Zheng, C.H., Wang, X.F., Lin, F.Y.: Recognition of plant leaves using support vector machine. In: Huang, D.-S., Wunsch II, D.C., Levine, D.S., Jo, F.-Y. (eds.) ICIC 2008. CCIS, vol. 15, pp. 192–199. Springer, Heidelberg (2008) 11. Kadir, A., Nugroho, L.E., Susanto, A., Santosa, P.I.: Leaf classification using shape, color, and texture features. arXiv preprint arXiv:1401.4447 (2013) 12. Choras, R.S.: Image feature extraction techniques and their applications for cbir and biometrics systems. International Journal of Biology and Biomedical Engineering 1(1), 6–16 (2007) 13. Kebapci, H., Yanikoglu, B., Unal, G.: Plant image retrieval using color, shape and texture features. The Computer Journal (2010) bxq037 14. Lin, F.Y., Zheng, C.H., Wang, X.F., Man, Q.K.: Multiple classification of plant leaves based on gabor transform and lBP operator. In: Huang, D.-S., Wunsch II, D.C., Levine, D.S., Jo, K.-H. (eds.) ICIC 2008. CCIS, vol. 15, pp. 432–439. Springer, Heildelberg (2008) 15. Ehsanirad, A.: Plant classification based on leaf recognition. International Journal of Computer Science and Information Security 8(4), 78–81 (2010) 16. Kadir, A., Nugroho, L.E., Susanto, A., Santosa, P.I.: Neural network application on foliage plant identification. arXiv preprint arXiv:1311.5829 (2013) 17. Goëau, H., Bonnet, P., Joly, A., Barthelemy, D., Boujemaa, N., Molino, J.: The imageclef 2012 plant image identification task. In: ImageCLEF 2012 Working Notes (2012) 18. Otsu, N.: A threshold selection method from gray-level histograms. Automatica 11(285–296), 23–27 (1975) 19. Werbos, P.: Beyond regression: New tools for prediction and analysis in the behav- ioral sciences. (1974) 20. Backes, A.R., Casanova, D., Martinez, O.B.: A complex network-based approach for boundary shape analysis. Pattern Recogn. 42, 54–67 (2009) 21. Barabási, A.L.: Linked: The new science of networks. (2002) 22. Castañón, C.A.B., Chambi, R.J.: Using complex networks for offline handwritten signature characterization. In: Bayro-Corrochano, E., Hancock, E. (eds.) CIARP 2014. LNCS, vol. 8827, pp. 580–587. Springer, Heidelberg (2014) 23. Backes, A.R., Martinez, O.: Fractal and multi-scale fractal dimension analysis: a comparative study of bouligand-minkowski method. CoRR abs/1201.3153 (2012) 24. Shih, J.-L., Chen, L.-H.: Color image retrieval based on primitives of color moments. In: Chang, S.-K., Chen, Z., Lee, S.-Y. (eds.) VISUAL 2002. LNCS, vol. 2314, p. 88. Springer, Heidelberg (2002) 25. Stricker, M.A., Orengo, M.: Similarity of color images. In: IS&T/SPIE’s Sympo- sium on Electronic Imaging: Science & Technology, International Society for Optics and Photonics, pp. 381–392 (1995) 26. Haralick, R.M., Shanmugam, K., Dinstein, I.H.: Textural features for image classi- fication. IEEE Transactions on Systems, Man and Cybernetics 6, 610–621 (1973) 27. Gonzalez, R.C., Woods, R.E.: Digital image processing (2002) 28. Porebski, A., Vandenbroucke, N., Macaire, L.: Neighborhood and haralick feature extraction for color texture analysis. In: Conference on Colour in Graphics, Imaging, andVision, Society for ImagingScience andTechnology, vol. 2008, pp. 316–321 (2008) 29. Brilhador, A., Colonhezi, T.P., Bugatti, P.H., Lopes, F.M.: Combining texture and shape descriptors for bioimages classification: a case of study in imageCLEF dataset. In: Ruiz-Shulcloper, J., Sanniti di Baja, G. (eds.) CIARP 2013, Part I. LNCS, vol. 8258, pp. 431–438. Springer, Heidelberg (2013)