dc.description.abstract |
RESUMEN: El estudio de las galaxias, tiene muchos beneficios a largo plazo, en el desarrollo tecnológico se ha presionado constantemente por instrumentos, procesos y software contribuyendo en áreas como la óptica y la electrónica, por ejemplo: los primeros sensores fueron desarrollados para capturar imágenes astronómicas, el lenguaje informático fue creado para ser utilizado por el telescopio Kitt Peak, el GPS depende de objetos astronómicos, como los quásares y las galaxias distantes para determinar posiciones precisas, la síntesis de apertura o imágenes sintéticas desarrollada por el astrónomo Martin Ryle, se utiliza para generar imágenes de resonancia magnética, el software para procesar imágenes satelitales tomadas desde el espacio ahora está ayudando a los investigadores médicos a establecer un método simple para implementar la detección a gran escala de la enfermedad de Alzheimer (ESA, 2013), entre otros. Además, en 1949 se descubrió que el desarrollo científico y tecnológico de un país o región está estrechamente relacionado con su índice de desarrollo humano, una estadística que es una medida de la esperanza de vida, la educación y los ingresos. Desde una perspectiva en nivel más apremiante este tipo de estudios sirve para adquirir nuevos conocimientos como requisitos para prolongar la supervivencia de la especie humana. En este trabajo se construyó una red neuronal convolucional que detecta estructuras de mareas. Antes de empezar con la construcción de la red neuronal convolucional, fue necesario obtener las imágenes del proyecto DESI DECaLS (The Dark Energy Camera Legacy Survey), la ubicación para acceder a las bases de datos de galaxias residuales fue proporcionada por el Instituto de Astronomía de la UNAM, así como el catálogo de galaxias Nair and Abraham (2010). Una vez descargadas las imágenes se consideraron tres tipos de marea galáctica, las que se generan después de una interacción entre galaxias, las que tienen marea fuerte y las que a su alrededor tienen capas de marea. El total de imágenes detectadas con marea fue de 1414. Durante el proceso se usaron varias técnicas que permitieron mejorar el comportamiento de la red neuronal. La construcción de la red neuronal convolucional se realizó a partir de imágenes de entrada, imágenes de validación e imágenes de prueba. Es decir, las 1414 imágenes con presencia de marea se dividieron en esos tres sectores. A su vez cada apartado fue dividido en galaxias con marea y galaxias sin marea. Desde un navegador se abrió un cuaderno Jupyter para la creación de la red. Se importó Keras y TensorFlow, además se agregó la ubicación de las carpetas que contenían las imágenes de galaxias y se imprimieron los números correspondientes para asegurar que fueran reconocidas y se importaron los primeros filtros de la red convolucional. Los cuales corresponden a operaciones de convolución, en este caso, con la función de activación ReLU. Para la última capa siempre se agregó la función sigmoide para que los resultados fueran probabilísticos. Se realizaron dos métodos de entrenamiento, una con una red preentrenada y otra sin ella. Todas las imágenes fueron redimensionadas antes de aplicarles los filtros. Se utilizaron filtros de convolución Conv2D y MaxPooling, ambos de 2x2 y 3x3. La red preentrenada que se utilizó es VGG19 con las dimensiones de imágenes de 224x224 a color. El optimizador que primero se utilizó es RMSProp, y SGD para la red de la base preentrenada. Las funciones de pérdida utilizadas fueron: cros-entropia binaria y mse. La métrica fue la misma para ambas: acc. También se usó la técnica del aumento de datos, para aumentar el número de imágenes de entrenamiento y que sea más fácil para la red aprender, ya que teóricamente las redes se desempeñan mejor cuando el número de datos de entrada es grande. Al final de cada entrenamiento, se generaron gráficas que mostraban el comportamiento de la red con cada iteración respecto a la precisión y la pérdida. Las imágenes de prueba se utilizaron para verificar el comportamiento de la red neuronal con imágenes que nunca había visto, redimensionándolas también como a las demás para disminuir el consumo de recursos computacionales. En general, la arquitectura de las capas sigue la secuencia de filtros de convolución y un aplanado de datos, es decir, todos los datos correspondientes a imágenes se generalizan en un vector con neuronas que puedan ser reconocidas. Enseguida están las capas densas que van después de la capa de entrada y antes de la última capa, a la cual solo se le dio una neurona de salida. Con el procedimiento empleado para la construcción de la red neuronal convolucional se obtuvieron dos resultados, cada uno con una arquitectura diferente, pero con el mismo objetivo, así que solo se tomó en cuenta el resultado final, es decir, el modelo VGG19 preentrenado dio un resultado del 85% en precisión para la clasificación binaria de las mareas galácticas.
ABSTRACT: The study of galaxies, has a lot of long-term benefits, in technological development has been constantly pressed by instruments, processes and software contributing in areas such as optics and electronics, for example: the first sensors were developed to capture astronomical images, the computer language was created to be used by the Kitt Peak telescope, the GPS depends on astronomical objects, such as quasars and distant galaxies to determine precise positions, the opening synthesis or synthetic images developed by astronomer Martin Ryle, it is used to generate magnetic resonance imaging, software to process satellite images taken from space is now helping medical researchers establish a simple method to implement large-scale detection of Alzheimer's disease (ESA, 2013), among others. In addition, in 1949 it was discovered that the scientific and technological development of a country or region is closely related to its human development index, a statistic that is a measure of life expectancy, education and income. From a more pressing level, this type of study serves to acquire new knowledge as requirements to prolong the survival of the human species. In this work was constructed a convolutional neural network that detects tidal structures. Before starting with the construction of the Convolutional Neural Network, it was necessary to obtain the images of the DESI DECaLS project (The Dark Energy Camera Legacy Survey), the location to access the residual galaxies databases was provided by the Instituto de Astronomía UNAM, as well as the galaxies catalog Nair and Abraham (2010). Once the images were downloaded, three types of galactic tide were considered, which are generated after an interaction between galaxies, those with strong tides and those around them have tidal layers. The total number of images detected at tide was 1414. During the process several techniques were used that allowed to improve the behavior of the neural network. The construction of the convolutional neural network was made from input images, validation images and test images. Namely, the 1414 images with a tidal presence were divided into these three sectors. At the same time, each section was divided in galaxies with tide and galaxies without tide. From a browser, a Jupyter notebook was opened for the creation of the network. Keras and TensorFlow were imported, also, the folder directories with the images of galaxies were added and the corresponding numbers were printed to ensure that they were recognized and the first filters of the convolutional network were imported. Which correspond to convolution operations, in this case, with the ReLU activation function. For the last layer the sigmoid function was always added so that the results were probabilistic. Two training methods were performed, one with a pre-trained network and one without it. All images were resized before applying filters. Conv2D and MaxPooling convolution filters were used, both 2x2 and 3x3. The pre-trained network that was used is VGG19 with the dimensions of 224x224 color images. The optimizer that was first used is RMSProp, and SGD for the pre-trained base network. The loss functions used were: cros-binary entropy and mse. The metric was the same for both: acc. The data augmentation technique was also used, to increase the number of training images and make it easier for the network to learn, since theoretically the networks perform better when the number of input data is big. At the end of each training, graphs were generated to show the behavior of the network with each iteration regarding accuracy and loss. The test images were used to verify the behavior of the neural network with images that it had never seen, also resizing them as the anothers to reduce the consumption of computational resources. In general, the architecture of the layers follows the sequence of convolution filters and a flattening of data, that is, all the data corresponding to images is generalized in a vector with neurons that can be recognized. Next are the dense layers that are after the input layer and before the last layer, it was only given an output neuron. With the procedure used for the construction of the convolutional neural network, two results were obtained, each with a different architecture, but with the same objective, so only the final result was taken into account, that is, the pretrained VGG19 model gave a result of 85% in accuracy for the binary classification of galactic tides. |
es |