Please login first

List of accepted submissions

 
 
Show results per page
Find papers
 
  • Open access
  • 57 Reads
Predicting Vertical Urban Growth Using Genetic Evolutionary Algorithms in Tokyo’s Minato Ward

This research explores the use of artificial intelligence to simulate how cities will grow
vertically. By learning how cities have evolved in the recent past, genetic algorithms can
successfully simulate vertical urban growth. The research was applied to buildings 130 meters
and taller in the Minato Ward of Tokyo in 2015. An evolutionary computer model was built
from a standard genetic algorithm, using historical and economic data, which then simulated
future growth for the 2016 to 2019 period. The results obtained matched the area of study’s
real vertical growth for the study period, with a 85.7% accuracy for the number of buildings,
73.7% for their average heights, and 96.3% for the likelihood of new construction projects
happening within a mapped area. By learning how a city evolved in the past, the model
replicated the future vertical growth of a city center.

  • Open access
  • 62 Reads
Inteligencia artificial para el movimiento de barcos en puerto y condiciones de emergencia

En este trabajo presentamos un sistema de predicción de movimiento de buques basado en
un modelo Deep Learning. Hemos registrado durante varios años el movimiento de múltiples buques
de carga en el Puerto Exterior de Punta Langosteira (A Coruña, España) y hemos creado un modelo
Deep Learning que clasifica el movimiento del barco dadas sus dimensiones, el estado del mar y las
condiciones meteorológicas. Para explotar el modelo hemos creado un sistema que permite gestionar
modelos de aprendizaje automático y mostrar sus salidas en una aplicación web. El frontend del
sistema se implementó utilizando Node-RED y el backend usa una arquitectura basada en
microservicios y está dividido en dos microservicios: uno responsable de obtener los datos de entrada
del modelo y otro responsable de manejar el ciclo de vida del modelo y proporcionar las salidas de este
en forma de un servicio REST. Monitorizar el movimiento de un buque atracado es una tarea difícil y
costosa y los operadores portuarios no tienen medios para predecir si el buque va a exceder los límites
establecidos para los diferentes movimientos. Usando nuestro modelo en el sistema que hemos creado
obtenemos una herramienta que, haciendo uso del sistema de predicción meteorológico de Puertos del
Estado, es capaz de predecir el comportamiento de un buque amarrado con 72 horas de antelación. Esto
ayudará a coordinar las operaciones del buque, minimizando el impacto económico y físico que la olas,
mareas y viento tienen sobre los buques.

  • Open access
  • 117 Reads
Present and Future of Artificial NeuroAstrocytic Networks

Since the dawn of neuroscience, and for almost 100 years, information processing in the brain was attributed to neurons. Thanks to advances in imaging techniques and fluorescent markers, it was possible to prove that astrocytes, a type of glial cell, are also relevant for information processing [Araque, Parpura, Sanzgiri, & Haydon, 1999]. It is not yet known exactly what the interactions between neurons and astrocytes look like, nor when they take place, or through what mechanisms. What is known is that in areas of the brain where complex cognitive processes take place, such as the hippocampus or the cortex, "tripartite synapses" occur to process information, involving two neurons and an astrocyte.

From the point of view of Artificial Intelligence we have studied for the first time the influence of artificial astrocytes on information processing, through the construction of Artificial NeuroAstrocyte Networks that include artificial astrocyte modulation algorithms [Porto, Araque, Rabuñal, Dorado, & Pazos, 2007; Porto-Pazos et al., 2011; Pastur-Romay, Porto-Pazos, Cedron, & Pazos, 2015, Mesejo et al., 2015; Pastur-Romay, 2018]. In this way, Neuroscience and Artificial Intelligence come together, collaborating in their study and prospecting for progress. The confluence of both specialties takes place by extracting information on mechanisms of astrocytic modulation tested in laboratories in a replicable and refutable manner [http://www.cajal.csic.es/departamentos/araque-almendros/araque-almendros.html] as have been shown to be phenomena of potentiation, depression or effects on cannabinoid receptors induced by this type of glial cell for regulation of synapses. With each phenomenon to be simulated, a mathematical and computational model implemented in silico has been proposed, which has allowed to solve classification and regression problems.

ANAN (Artificial Neuron-Astrocytic Networks) have been compared with multi-layer artificial neuron networks (ANN). To carry out these tests, we have developed an opensource simulation tool for high performance computers, called Energlia [Cedron, 2019]. This tool allows, through a web access, to be used from any place and to optimize the memory management and increase the speed of execution and training, besides a simple interface that allows to introduce the data in a very intuitive way and without using complex commands.

In addition to the design of neuroglial algorithms that model different possibilities of astrocyte-neuron interaction/modulation, parallel networks of astrocytes and neurons such as those existing in the biological brain have also been designed [Blanco, 2015]. So far, significant improvements have been found in the accuracy of ANAN results with respect to NNAs, especially contrasted in classification problems, providing veracity, replicability and support to these studies, conceiving these findings as a guide stone for further research under the premise of a performance improvement with the introduction of astrocytes to classical artificial neuronal networks.

These algorithms can be easily transferred to solve, for example, medical problems for disease diagnosis, analysis of medical signals or images, home automation, security, object identification, etc. In short, provide a new method of machine learning that can facilitate data analysis in any area.



  • Open access
  • 67 Reads
Proyecto colaborativo de integración de datos genómicos (CICLOGEN). Tecnicas de data mining y docking molecular para analisis de datos integrativos en cancer de colon

En enfermedades complejas y multifactoriales, como el cáncer de colon, en el que se realizan
diferentes conjuntos de pruebas complementarias durante todo el periodo de convalecencia de
un paciente, la cantidad de datos derivados de cada paciente es ingente y de fuentes
heterogéneas. Si, además, tenemos en cuenta que se conoce el componente genético
hereditario de la misma, se pueden incluir en el análisis también pruebas derivadas de familiares
de primer grado. Es por esto que se hace necesario el desarrollo de técnicas de integración de
datos que permitan analizar en conjunto la mayor cantidad de datos posibles para intentar
incrementar la interpretabilidad de la enfermedad. Este conocimiento, además de mejorar la
calidad asistencial también se espera que incrementará la tasa de éxito en la fase de
reclutamiento y el control de la evolución en los ensayos clínicos y, por tanto, mejorará la
efectividad de probar nuevos fármacos quimioterápicos o permitirá mejorar la posibilidad de
administrar fármacos de manera personalizada gracias a la utilización de técnicas de docking
molecular que medirán el grado de afinidad entre los fármacos aprobados por FDA y
quimiotecas propias con 60.000 moléculas de la plataforma InnoPharma y las dianas proteicas
que son codificadas por los genes implicados en el cáncer colorrectal.

  • Open access
  • 112 Reads
Deep Learning with minimum coding and free hardware

The current work is proposing a very simple and fast python script to classify polyps in
colonoscopy images using Fastai deep learning. This work is the optimized version of the
previous tool: GitHub repository CNN4Polyps about colonoscopy polyp detection
(classification + localization into an image) with convolutional neural network - CNNs
(https://github.com/muntisa/Colonoscopy-polyps-detection-with-CNNs) using Keras. I
demonstrated that simple CNNs or VGG16 transfer learning could be used with a GPU to
create good classifiers able to detect a polyp in colonoscopy images.
Jeremy Howard and the team are proposing a faster python package for deep learning models
as a free course at Fast.ai (https://course.fast.ai/). Google Colab free virtual computers
(https://colab.research.google.com) with GPU support was used to run all the calculations.
The current dataset was generated with the previous project CNN4Polyps starting from a
public dataset: 910 images for training and 302 images for validation. All the models were
saved in the project folder.
The current script (Figure 1) demonstrated the ability to create a very accurate classifier for
medical imaging with an accuracy of 0.99 using resnet50 transfer learning fine tuning, only
5-10 lines of code, free GPU hardware (Nvidia K80), and free fastai package (based on
PyTorch library). The scripts to train the model or to make predictions are available at
https://github.com/muntisa/Fastai-Colon-Polyps.

Acknowledgements
I gratefully acknowledge the support of NVIDIA Corporation with the donation of the Titan Xp GPU used for this
research (https://developer.nvidia.com/academic_gpu_seeding). In addition, the authors would like to
acknowledge support from the Galician Network for Colorectal Cancer Research (REGICC) (Ref. ED431D
2017/23). This work is also supported by “Collaborative Project in Genomic Data Integration (CICLOGEN)”
PI17/01826 funded by the Carlos III Health Institute from the Spanish National plan for Scientific and Technical
Research and Innovation 2013−2016 and the European Regional Development Funds (FEDER).

  • Open access
  • 46 Reads
HIGH PERFORMANCE REQUIREMENTS FOR A RESEARCH GROUP

Estamos en una era en la que la que la investigación necesita realizar una cantidad
muy elevada de cálculos para poder confirmar las hipótesis de un estudio y poder
tener unas conclusiones sólidas. Aunque la tecnología avanza a pasos agigantados no
sigue el ritmo que requieren los investigadores para cubrir sus necesidades y poder
tener todo el poder de cómputo que ellos demandan.
En este trabajo se exponen diferentes problemas que necesitan una gran capacidad de
cálculo y que no se puede llevar a cabo por un único ordenador. Para resolverlos se
necesita de un cluster, una agrupación de máquinas, que en conjunto puedan sumar la
potencia necesario para poder tener un tiempo de respuesta aceptable. En el trabajo
aparece detallado cómo es la infraestructura de estas características y cuáles son las
necesidades que demandan los investigadores.
Para finalizar se muestran unas gráficas de cómo el grupo RNASA-IMEDIR está
empleando el cluster del que disponen.

  • Open access
  • 43 Reads
Cómo medir el impacto comercial de una imagen

Vivimos en una era en la que todo –desde una vivienda hasta una pareja– se busca online
y se elige en función de imágenes. Disponemos de una tecnologı́a que permite determinar las
mejores fotografı́as de un conjunto, desde la perspectiva de la calidad o el valor estético. Esto
permite mostrar, desde un primer momento, la mejor imagen de un producto a tus clientes o
de un acontecimiento a tus amigos.
Para conseguir llegar al punto actual de definición de esta tecnologı́a han hecho falta 17
años de trabajo de dos grupos de investigación. Desde la Universidade da Coruña presentamos
nuestra solución tecnológica a este programa, contando con la total aceptación de la Univer-
sidade de Coimbra para gestionar su comercialización.
Esta solución puede ser adaptada a un número inmenso de áreas, empleando distintos tipos
de imágenes (fotografı́as en general, imágenes de casas, de rostros, de paisajes, etc.) y diferentes
tipos de criterios de ordenación (valor estético, calidad fotográfica, interés para compradores
de casas, etc.). Además, puede adaptarse a un público objetivo (gusto estético de hombres de
18 a 25 años, por ejemplo) o a un individuo particular.
Se trata de una tecnologı́a versátil, que aprende a partir de ejemplos, a través de los que se
obtiene una huella estética. Ası́, para determinar el impacto publicitario de una imagen inmo-
biliaria se empleará un conjunto muy amplio de imágenes reales (3.000 imágenes extraı́das de
portales inmobiliarios), que serán evaluadas por un grupo de personas (30 personas por ima-
gen) según su interés como imagen de un inmueble. Esto proporcionará un impacto medio de
cada una de estas 3.000 fotografı́as. A partir de esta información, la tecnologı́a podrá estimar
el impacto comercial de cualquier otra imagen inmobiliaria.
En los últimos años hemos obtenido resultados experimentales de éxito en sucesivas versio-
nes de esta tecnologı́a, aplicada a tareas como la determinación de autorı́a en obras pictóricas;
la detección de obras pictóricas en colecciones de fotografı́as; la clasificación de fotografı́as
según su carácter profesional o amateur; varios test psicológicos; la complejidad perceptible
de la imagen y el valor estético medio de un conjunto de imágenes. La versión actual de la
tecnologı́a permite el aprendizaje de tendencias estéticas con resultados muy superiores a las
versiones anteriores y que se destacan muy significativamente de otros resultados del estado
del arte.
Nuestra intención es crear una spin-off de la Universidade da Coruña dedicada a explotar
comercialmente esta tecnologı́a en sus múltiples usos. Si bien es muy amplio el conjunto de pro-
ductos comerciales que se pueden llegar a desarrollar, pretendemos comenzar con el desarrollo
de un módulo de evaluación estética que permitirá la ordenación de imágenes de inmuebles
(casas, pisos, etc.), según una mezcla de calidad fotográfica y valor estético. Este producto se
destinará a portales de compraventa especializados en mercado inmobiliario, tanto especı́ficos
(Idealista, Fotocasa) como generalistas (Milanuncios y Vibbo). En estos portales la calidad
fotográfica de los anuncios es muy diversa, en especial cuando es realizado por particulares.
Nuestra solución ordenará un conjunto de fotografı́as de forma que las primeras presentenmayor impacto comercial.
El cliente del sistema será el portal, que lo integrará en su funcionamiento a través de
nuestro servicio web. Se cobrará por el uso del sistema, con precios ajustados al volumen de
trabajo y condiciones de exclusividad del servicio. Dada nuestra ventaja tecnológica, la úni-
ca competencia existente para un producto de estas caracterı́sticas serı́a la realización de las
mismas tareas por parte de personal humano, con un coste mucho mayor. El portal podrá
incluirlo como ventaja competitiva sin coste para el cliente (Idealista), o bien ofrecerlo como
servicio a cambio de un coste muy reducido (Milanuncios). En este último caso, al ofrecer el
servicio se le podrá indicar al usuario final una estimación del impacto que esta ordenación
de las imágenes tendrá en el número de accesos a su anuncio (p.ej. “Milanuncios ha detectado
que cambiando el orden de las fotografı́as de este inmueble se pueden conseguir un 120 % más
de visualizaciones en su anuncio”).
La adaptación de esta tecnologı́a al mercado de compraventa inmobiliaria será un primer
paso, buscando el mercado con mayor valor añadido. Se pretende adaptar al sistema para
otros mercados de compraventa (automóvil, electrónica, etc.). También se planifica abordar la
internacionalización de esta tecnologı́a después de explorar el mercado nacional.
Otras aplicaciones que se abordarán posteriormente son:
Aplicaciones de ordenación estética de productos para empresas de comercio electrónico.
En este caso se podrán ordenar los productos de una tienda online en función de su valor
estético.
Huellas estéticas de un un target determinado (mujeres adolescentes, hombres de 40-55
años de poder adquisitivo alto...), tanto para las tiendas online comentadas anteriormen-
te, como para poder hacer estimaciones del impacto de imagen publicitaria de forma
rápida.
Huella estética personal. En este caso, el usuario final será el que permita emplear su
huella personal en Internet, de forma que, contenidos como búsquedas de imágenes,
productos de tiendas online, etc. se muestren según su estética propia.
Creación de filtros para mejorar las imágenes de forma automática de forma que tengan
más impacto (sean más interesantes / atractivas / de mayor calidad).

  • Open access
  • 41 Reads
Desarrollo de técnicas y herramientas para la gestión de la imagen médica digital

En esta conferencia se hace una revisión de la infraestructura necesaria en un centro médico
para la gestión de imagen médica y datos de historia radiológica.
Se estudian los retos que plantea los sistemas de almacenamiento de imagen médica,
conocidos como PACS, de cara a los retos de acceso transparente y seguro, tanto para médicos
como para pacientes. Esto incluye temas de privacidad, tele-radiología, sistemas en la nube y
seguridad de datos.
Se profundiza en las diferencias entre grandes centros de referencia y pequeñas clínicas, ya
que tienen una problemática común, pero situaciones radicalmente distintas.
En la última parte se estudian los parámetros de importancia para la visualización de las
imágenes médicas y los procesos de calibración, de cara al desarrollo de herramientas de
inteligencia artificial, tanto software como hardware, que faciliten la mejor visualización por
parte del radiólogo para realizar su diagnóstico.

  • Open access
  • 62 Reads
Estética computacional

Desde una perspectiva científica, la identificación de un conjunto de métricas
relacionadas con el estilo y el valor estético de una imagen es una contribución
especialmente importante para la comprensión del fenómeno estético y la experiencia
visual, proporcionando contribuciones claras en los campos de la estética, la percepción
visual y la teoría del arte, reconocimiento de patrones, computación gráfica y visión
artificial. Creemos que una predicción del valor estético o la complejidad de un objeto
gráfico, incluso cuando no es perfecto, es útil en la disposición y clasificación de las
imágenes, ya que la complejidad perceptiva, así como el valor estético, constituyen
valores subjetivos que son determinantes. En diversas decisiones humanas, como el
comportamiento frente a diferentes tipos de objetos, desde obras de arte a páginas
web, diseños publicitarios o productos comerciales.
Nuestra investigación propone un acercamiento a la obtención de una medida
computacional del valor estético de una imagen a través de criterios como el estilo, la
complejidad o la belleza. Para esto se diseñarán y realizarán diferentes experimentos,
con los siguientes objetivos:
- Validación de características objetivas: mediante la identificación de autoría de
obras de arte y la diferenciación entre pinturas y fotografías.
- Validación de la percepción estética del clasificador mediante test
psicológicos.
- Validación de características subjetivas: predicción de la percepción de
complejidad.
En estas tareas se incluye la determinación de un conjunto de métricas óptimo para
medir la complejidad estética, utilizando los métodos de compresión JPEG y fractal, la
ley de Zipf y la dimensión fractal, además de los filtros de detección de bordes Canny y
Sobel sobre un modelo de color HSV. Los resultados obtenidos se comparan con otras
aproximaciones y con las percepciones de humanos.
Los resultados muestran que es posible predecir la complejidad percibida por humanos
a partir de una serie de métricas de la imagen relacionadas con la complejidad y se
demuestra la relevancia de las métricas de estimación de complejidad basadas en el
error de compresión en clasificaciones de estilo y complejidad.
Se pretende dar continuidad al trabajo realizado con el estudio de otras arquitecturas
clasificadoras y con la búsqueda y estudio de nuevas características, así como la mejora
de las actuales, para lograr una mejor solución para los problemas de clasificación y
clasificación de imágenes de acuerdo con criterios estéticos.

  • Open access
  • 46 Reads
Sistema de gestión de dispositivos de monitorización medioambiental

En los últimos años se ha producido una gran proliferación de pequeños sensores,
wareables, estaciones de control... destinados a la medición de las más diversas variables. En
paralelo, a lo largo de los últimos años, la sociedad también ha empezado a ser más consciente y
a preocuparse más por el impacto que ciertos componentes ambientales pueden llegar a tener en
su salud. Esto ha llevado a que actualmente se han comenzado a tomar ciertas medidas de control
ante la especial sensibilización causada por todos aquellos aspectos relacionados directa o
indirectamente con temas relativos a la salud.
Este trabajo pretende unir ambas vertientes mediante un sistema de obtención de valores
ambientales de radiactividad basado en el empleo de dispositivos de bajo coste y una aplicación
web que permitirá la consulta de forma sencilla de los mismos y almacenar dichos datos para, en
un futuro, analizar los mismos y facilitar el desarrollo de herramientas para la toma de decisiones.
Como campo de trabajo se ha optado por la monitorización de los niveles medioambientales
de radón, debido a su especial incidencia en España en general y en Galicia en particular, debido
a su geología fuertemente ligada con el granito, fuente principal de las emisiones de radón.
El radón (Rn) es un gas radioactivo natural incoloro, sin olor o sabor, que ocurre en formas
diferentes, todas ellas con el idéntico número atómico pero diferente masa atómica, denominadas
isótopos. A medida que transcurre el tiempo, el radón se degrada perdiendo masa atómica ̧
emitiendo radiación y transformándose en el proceso en otro elemento radioactivo. Esto se repite
cíclicamente hasta que se alcanza un estado estable, en este caso hasta que el radón se transforma
en plomo. La radiación emitida son partículas alfa, partículas beta y rayos gama, que puede
suponer un problema en cuanto a la exposición prolongada a la misma. El radón ha sido
declarado carcinógeno humano por la Environmental Protection Agency de Estados Unidos
(USEPA) y la Agencia Internacional de Investigación en Cáncer (IARC). En España, los estudios
pioneros en cuanto a la toma de mediciones ambientales datan de finales de los años 80. Estos
estudios pusieron en relevancia las elevadas concentraciones de radón en varias regiones, entre
otras Galicia.
La herramienta planteada permite la gestión de dispositivos de monitorización
facilitando su geolocalización y el acceso remoto a los valores de medición. Asímismo permite
el establecimiento de alertas cuando los valores medios o puntuales exceden ciertos umbrales
preestablecidos.

Top