Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
de investigación
Es una revista académica que publica artículos sobre sistemas inteligentes, algoritmos y tecnología desde un punto de vista
multidisciplinario. Se publica trimestralmente y cada número tiene entre 8 y 11 artículos, con alrededor de 20 páginas cada
uno. Se puede acceder a los artículos publicados a través de la Biblioteca Digital ACM, además se puede acceder a los
metadatos de dichos artículos.
Se clasifican como una de las mejores revistas de su tipo en términos de citas recibidas por artículo con una media de 12.8
citas en la biblioteca digital de ACM. (ACM Digital Library, 2019)
Artículos:
Autor: Mingliang Xu1, Hua Wang2, Shili Chu3, Yong Gan1, Xiaoheng Jiang1, Yafei Li1, Bing Zhou1
Abstract
Smog causes low visibility on the road and it can impact the safety of traffic. Modeling traffic in smog will have a significant
impact on realistic traffic simulations. Most existing traffic models assume that drivers have optimal vision in the
simulations, making these simulations are not suitable for modeling smog weather conditions. In this article, we introduce
the Smog Full Velocity Difference Model (SMOG-FVDM) for a realistic simulation of traffic in smog weather conditions. In
1
Es el número promedio de veces que se han citado artículos de una revista publicada en los últimos dos años. Es una
medida que se basa en el número bruto de citas, y cada una de ellas cuenta lo mismo independientemente de la calidad
de la fuente.
this model, we present a stadia model for drivers in smog conditions. We introduce it into a car-following traffic model
using both psychological force and body force concepts, and then we introduce the SMOG-FVDM. Considering that there
are lots of parameters in the SMOG-FVDM, we design a visual verification system based on SMOG-FVDM to arrive at an
adequate solution which can show visual simulation results under different road scenarios and different degrees of smog
by reconciling the parameters. Experimental results show that our model can give a realistic and efficient traffic simulation
of smog weather conditions.
Resumen
El smog causa poca visibilidad en la carretera y puede afectar la seguridad del tráfico. El modelado del smog en el tráfico
tendrá un impacto significativo en simulaciones de tráfico reales. La mayoría de los modelos de tráfico en las simulaciones
existentes asumen que los conductores tienen una visión óptima, por lo que estas no son adecuadas para modelar las
condiciones climáticas de smog. En este artículo, presentamos el Modelo de Diferencia de Velocidad Completa de Smog
(SMOG-FVDM) para una simulación realista del tráfico en las condiciones meteorológicas de smog. En este modelo,
presentamos un modelo de situaciones para conductores en condiciones de smog. Lo introducimos en un modelo de tráfico
de seguimiento de automóviles utilizando los conceptos de fuerza psicológica y fuerza corporal, y luego introducimos el
SMOG-FVDM. Considerando que hay muchos parámetros en el SMOG-FVDM, diseñamos un sistema de verificación visual
basado en SMOG-FVDM para llegar a una solución adecuada que pueda mostrar resultados de simulación visual en
diferentes escenarios de carreteras y diferentes grados de smog mediante la conciliación de los parámetros. Los resultados
experimentales muestran que nuestro modelo puede ofrecer una simulación de tráfico realista y eficiente de las
condiciones climáticas de smog.
Análisis
Antecedentes
El smog causa poca visibilidad en la carretera y puede afectar la seguridad del tráfico.
Objetivo
El modelado del smog en el tráfico tendrá un impacto significativo en simulaciones de tráfico reales.
Antecedentes
La mayoría de los modelos de tráfico en las simulaciones existentes asumen que los conductores tienen una visión óptima,
por lo que estas no son adecuadas para modelar las condiciones climáticas de smog.
Resultados
En este artículo, presentamos el Modelo de Diferencia de Velocidad Completa de Smog (SMOG-FVDM) para una simulación
realista del tráfico en las condiciones meteorológicas de smog. En este modelo, presentamos un modelo de situaciones
para conductores en condiciones de smog. Lo introducimos en un modelo de tráfico de seguimiento de automóviles
utilizando los conceptos de fuerza psicológica y fuerza corporal, y luego introducimos el SMOG-FVDM. Considerando que
hay muchos parámetros en el SMOG-FVDM, diseñamos un sistema de verificación visual basado en SMOG-FVDM para
llegar a una solución adecuada que pueda mostrar resultados de simulación visual en diferentes escenarios de carreteras
y diferentes grados de smog mediante la conciliación de los parámetros.
Conclusiones
Los resultados experimentales muestran que nuestro modelo puede ofrecer una simulación de tráfico realista y eficiente
de las condiciones climáticas de smog.
2.- Título: An efficient alternating Newton Method for learning factorization machines
Abstract
To date, factorization machines (FMs) have emerged as a powerful model in many applications. In this work, we study the
training of FM with the logistic loss for binary classification, which is a nonlinear extension of the linear model with the
logistic loss (i.e., logistic regression). For the training of large-scale logistic regression, Newton methods have been shown
to be an effective approach, but it is difficult to apply such methods to FM because of the nonconvexity. We consider a
modification of FM that is multiblock convex and propose an alternating minimization algorithm based on Newton
methods. Some novel optimization techniques are introduced to reduce the running time. Our experiments demonstrate
that the proposed algorithm is more efficient than stochastic gradient algorithms and coordinate descent methods. The
parallelism of our method is also investigated for the acceleration in multithreading environments.
Resumen
Hasta la fecha, las máquinas de factorización (FM) se han convertido en un modelo poderoso en muchas aplicaciones. En
este trabajo, estudiamos el entrenamiento de FM con la pérdida logística para la clasificación binaria, que es una extensión
no lineal del modelo lineal con la pérdida logística (es decir, regresión logística). Para el entrenamiento de regresión logística
a gran escala, los métodos de Newton han demostrado ser una aproximación efectiva, pero es difícil aplicar dichos métodos
a la FM debido a la no convexidad. Consideramos una modificación de FM que es multibloque convexa y proponemos un
algoritmo de minimización alternativo basado en los métodos de Newton. Se introducen algunas técnicas novedosas de
optimización para reducir el tiempo de ejecución. Nuestros experimentos demuestran que el algoritmo propuesto es más
eficiente que los algoritmos de gradiente estocástico y los métodos de descenso de coordenadas. El paralelismo de nuestro
método también se investiga para la aceleración en entornos multihilo.
Análisis
Antecedentes
Hasta la fecha, las máquinas de factorización (FM) se han convertido en un modelo poderoso en muchas aplicaciones.
Objetivo
En este trabajo, estudiamos el entrenamiento de FM con la pérdida logística para la clasificación binaria, que es una
extensión no lineal del modelo lineal con la pérdida logística (es decir, regresión logística).
Antecedentes
Para el entrenamiento de regresión logística a gran escala, los métodos de Newton han demostrado ser una aproximación
efectiva, pero es difícil aplicar dichos métodos a la FM debido a la no convexidad.
Resultados
Conclusiones
Nuestros experimentos demuestran que el algoritmo propuesto es más eficiente que los algoritmos de gradiente
estocástico y los métodos de descenso de coordenadas. El paralelismo de nuestro método también se investiga para la
aceleración en entornos multihilo.
Abstract
Neural networks have become very popular in recent years, because of the astonishing success of deep learning in various
domains such as image and speech recognition. In many of these domains, specific architectures of neural networks, such
as convolutional networks, seem to fit the particular structure of the problem domain very well and can therefore perform
in an astonishingly effective way. However, the success of neural networks is not universal across all domains. Indeed, for
learning problems without any special structure, or in cases where the data are somewhat limited, neural networks are
known not to perform well with respect to traditional machine-learning methods such as random forests. In this article, we
show that a carefully designed neural network with random forest structure can have better generalization ability. In fact,
this architecture is more powerful than random forests, because the back-propagation algorithm reduces to a more
powerful and generalized way of constructing a decision tree. Furthermore, the approach is efficient to train and requires
a small constant factor of the number of training examples. This efficiency allows the training of multiple neural networks
to improve the generalization accuracy. Experimental results on real-world benchmark datasets demonstrate the
effectiveness of the proposed enhancements for classification and regression.
Resumen
Las redes neuronales se han vuelto muy populares en los últimos años, debido al asombroso éxito del aprendizaje profundo
en varios dominios, como el reconocimiento de imágenes y el habla. En muchos de estos dominios, las arquitecturas
específicas de las redes neuronales, como las redes convolucionales, parecen encajar muy bien en la estructura particular
del dominio del problema y, por lo tanto, pueden funcionar de una manera sorprendentemente efectiva. Sin embargo, el
éxito de las redes neuronales no es universal en todos los dominios. De hecho, para los problemas de aprendizaje sin
ninguna estructura especial, o en los casos en que los datos son algo limitados, se sabe que las redes neuronales no
funcionan bien con respecto a los métodos tradicionales de aprendizaje automático, como los bosques aleatorios. En este
artículo, mostramos que una red neuronal cuidadosamente diseñada con estructura de bosque aleatoria puede tener una
mejor capacidad de generalización. De hecho, esta arquitectura es más poderosa que los bosques aleatorios, porque el
algoritmo de propagación inversa se reduce a una forma más poderosa y generalizada de construir un árbol de decisión.
Además, el enfoque es eficiente para entrenar y requiere un pequeño factor constante del número de ejemplos de
capacitación. Esta eficiencia permite el entrenamiento de múltiples redes neuronales para mejorar la precisión de la
generalización. Los resultados experimentales en conjuntos de datos de referencia del mundo real demuestran la
efectividad de las mejoras propuestas para la clasificación y la regresión.
Análisis
Antecedentes
Las redes neuronales se han vuelto muy populares en los últimos años, debido al asombroso éxito del aprendizaje profundo
en varios dominios, como el reconocimiento de imágenes y el habla.
Objetivo
En muchos de estos dominios, las arquitecturas específicas de las redes neuronales, como las redes convolucionales,
parecen encajar muy bien en la estructura particular del dominio del problema y, por lo tanto, pueden funcionar de una
manera sorprendentemente efectiva.
Antecedentes
Sin embargo, el éxito de las redes neuronales no es universal en todos los dominios. De hecho, para los problemas de
aprendizaje sin ninguna estructura especial, o en los casos en que los datos son algo limitados, se sabe que las redes
neuronales no funcionan bien con respecto a los métodos tradicionales de aprendizaje automático, como los bosques
aleatorios.
Resultados
En este artículo, mostramos que una red neuronal cuidadosamente diseñada con estructura de bosque aleatoria puede
tener una mejor capacidad de generalización. De hecho, esta arquitectura es más poderosa que los bosques aleatorios,
porque el algoritmo de propagación inversa se reduce a una forma más poderosa y generalizada de construir un árbol de
decisión. Además, el enfoque es eficiente para entrenar y requiere un pequeño factor constante del número de ejemplos
de capacitación. Esta eficiencia permite el entrenamiento de múltiples redes neuronales para mejorar la precisión de la
generalización.
Conclusiones
Los resultados experimentales en conjuntos de datos de referencia del mundo real demuestran la efectividad de las mejoras
propuestas para la clasificación y la regresión.
4.- Título: Discriminative and ortogonal subspace constraints-based nonnegative matrix factorization
Nonnegative matrix factorization (NMF) is one widely used feature extraction technology in the tasks of image clustering
and image classification. For the former task, various unsupervised NMF methods based on the data distribution structure
information have been proposed. While for the latter task, the label information of the dataset is one very important
guiding. However, most previous proposed supervised NMF methods emphasis on imposing the discriminant constraints
on the coefficient matrix. When dealing with new coming samples, the transpose or the pseudoinverse of the basis matrix
is used to project these samples to the low dimension space. In this way, the label influence to the basis matrix is indirect.
Although, there are also some methods trying to constrain the basis matrix in NMF framework, either they only restrict
within-class samples or impose improper constraint on the basis matrix. To address these problems, in this article a novel
NMF framework named discriminative and orthogonal subspace constraints-based nonnegative matrix factorization
(DOSNMF) is proposed. In DOSNMF, the discriminative constraints are imposed on the projected subspace instead of the
directly learned representation. In this manner, the discriminative information is directly connected with the projected
subspace. At the same time, an orthogonal term is incorporated in DOSNMF to adjust the orthogonality of the learned basis
matrix, which can ensure the orthogonality of the learned subspace and improve the sparseness of the basis matrix at the
same time. This framework can be implemented in two ways. The first way is based on the manifold learning theory. In this
way, two graphs, i.e., the intrinsic graph and the penalty graph, are constructed to capture the intra-class structure and the
inter-class distinctness. With this design, both the manifold structure information and the discriminative information of the
dataset are utilized. For convenience, we name this method as the name of the framework, i.e., DOSNMF. The second way
is based on the Fisher’s criterion, we name it Fisher’s criterion-based DOSNMF (FDOSNMF). The objective functions of
DOSNMF and FDOSNMF can be easily optimized using multiplicative update (MU) rules. The new methods are tested on
five datasets and compared with several supervised and unsupervised variants of NMF. The experimental results reveal the
effectiveness of the proposed methods.
Resumen
La matriz de factorización no negativa (NMF) es una tecnología de extracción de características ampliamente utilizada en
las tareas de agrupación de imágenes y clasificación de imágenes. Para la tarea anterior, se han propuesto varios métodos
NMF no supervisados basados en la información de la estructura de distribución de datos. Mientras que para la última
tarea, la clasificación de la información del conjunto de datos es una guía muy importante. Sin embargo, la mayoría de los
métodos NMF supervisados propuestos anteriormente se enfocan en imponer restricciones discriminantes en la matriz de
coeficientes. Cuando se trata de nuevas muestras, la transpuesta o la pseudoinversa de la matriz de base se utiliza para
proyectarlas en el espacio de dimensión baja. De esta manera, la influencia de la información en la matriz de base es
indirecta. Aunque, también hay algunos métodos que intentan restringir la matriz de base en el marco de NMF, ya sea que
solo restringen las muestras dentro de la clase o imponen restricciones impropias en la matriz de base. Para abordar estos
problemas, en este artículo se propone un nuevo marco de NMF denominado discriminación de matrices no negativas
basada en restricciones subespaciales ortogonales (DOSNMF). En DOSNMF, las restricciones discriminativas se imponen en
el subespacio proyectado en lugar de la representación directamente conocida. De esta manera, la información
discriminativa está directamente relacionada con el subespacio proyectado. Al mismo tiempo, se incorpora un término
ortogonal en DOSNMF para ajustar la ortogonalidad de la matriz de base conocida, que puede garantizar la ortogonalidad
del subespacio conocido y mejorar la dispersión de la matriz de base al mismo tiempo. Este marco puede ser implementado
de dos maneras. La primer forma se basa en la teoría del aprendizaje múltiple. De esta manera, dos gráficos, es decir, el
gráfico intrínseco y el gráfico de penalización, se construyen para capturar la estructura intraclase y la distinción entre
clases. Con este diseño, se utilizan tanto la información de estructura múltiple como la información discriminativa del
conjunto de datos. Para mayor comodidad, nombramos este método con el nombre del marco, es decir, DOSNMF. La
segunda forma se basa en el criterio de Fisher, lo llamamos DOSNMF (FDOSNMF) basado en criterios de Fisher. Las
funciones objetivo de DOSNMF y FDOSNMF se pueden optimizar fácilmente usando reglas de actualización multiplicativa
(MU). Los nuevos métodos se prueban en cinco conjuntos de datos y se comparan con varias variantes supervisadas y no
supervisadas de NMF. Los resultados experimentales revelan la efectividad de los métodos propuestos.
Análisis
Antecedentes
La matriz de factorización no negativa (NMF) es una tecnología de extracción de características ampliamente utilizada en
las tareas de agrupación de imágenes y clasificación de imágenes. Para la tarea anterior, se han propuesto varios métodos
NMF no supervisados basados en la información de la estructura de distribución de datos. Mientras que para la última
tarea, la clasificación de la información del conjunto de datos es una guía muy importante. Sin embargo, la mayoría de los
métodos NMF supervisados propuestos anteriormente se enfocan en imponer restricciones discriminantes en la matriz de
coeficientes. Cuando se trata de nuevas muestras, la transpuesta o la pseudoinversa de la matriz de base se utiliza para
proyectarlas en el espacio de dimensión baja. De esta manera, la influencia de la información en la matriz de base es
indirecta. Aunque, también hay algunos métodos que intentan restringir la matriz de base en el marco de NMF, ya sea que
solo restringen las muestras dentro de la clase o imponen restricciones impropias en la matriz de base.
Objetivo
Para abordar estos problemas, en este artículo se propone un nuevo marco de NMF denominado discriminación de
matrices no negativas basada en restricciones subespaciales ortogonales (DOSNMF).
Resultados
Conclusiones
Abstract
This article presents a platform for interactive graph mining and relational machine learning called GraphVis. The platform
combines interactive visual representations with state-of-the-art graph mining and relational machine learning techniques
to aid in revealing important insights quickly as well as learning an appropriate and highly predictive model for a particular
task (e.g., classification, link prediction, discovering the roles of nodes, and finding influential nodes). Visual representations
and interaction techniques and tools are developed for simple, fast, and intuitive real-time interactive exploration, mining,
and modeling of graph data. In particular, we propose techniques for interactive relational learning (e.g., node/link
classification), interactive link prediction and weighting, role discovery and community detection, higher-order network
analysis (via graphlets, network motifs), among others. GraphVis also allows for the refinement and tuning of graph mining
and relational learning methods for specific application domains and constraints via an end-to-end interactive visual
analytic pipeline that learns, infers, and provides rapid interactive visualization with immediate feedback at each
change/prediction in real-time. Other key aspects include interactive filtering, querying, ranking, manipulating, exporting,
as well as tools for dynamic network analysis and visualization, interactive graph generators (including new block model
approaches), and a variety of multi-level network analysis techniques.
Resumen
Este artículo presenta una plataforma para la minería de gráficos interactiva y el aprendizaje automático relacional llamado
GraphVis. La plataforma combina representaciones visuales interactivas con técnicas avanzadas de minería de grafos y
aprendizaje automático relacional para ayudar a revelar información importante rápidamente, así como a aprender un
modelo apropiado y altamente predictivo para una tarea en particular (por ejemplo, clasificación, predicción de enlaces,
descubriendo los roles de los nodos, y encontrando nodos influyentes). Las representaciones visuales y las técnicas y
herramientas de interacción se desarrollan para la exploración, extracción y modelado interactivos en tiempos reales,
simples, rápidos e intuitivos de datos gráficos. En particular, proponemos técnicas para el aprendizaje relacional interactivo
(por ejemplo, clasificación de nodos / enlaces), predicción y ponderación de enlaces interactivos, descubrimiento de roles
y detección de comunidades, análisis de redes de orden superior (a través de grafitos, temas de redes), entre otros.
GraphVis también permite el refinamiento y ajuste de la minería de gráficos y los métodos de aprendizaje relacional para
dominios y restricciones de aplicaciones específicas a través de un canal analítico visual interactivo de extremo a extremo
que aprende, infiere y proporciona una visualización interactiva rápida con retroalimentación inmediata en cada
cambio/predicción en tiempo real. Otros aspectos clave incluyen el filtrado interactivo, la consulta, la clasificación, la
manipulación, la exportación, así como las herramientas para el análisis y la visualización dinámicos de la red, los
generadores de gráficos interactivos (incluidos los nuevos enfoques de modelos de bloques) y una variedad de técnicas de
análisis de redes multinivel.
Análisis
Objetivo
Este artículo presenta una plataforma para la minería de gráficos interactiva y el aprendizaje automático relacional llamado
GraphVis.
Antecedentes
La plataforma combina representaciones visuales interactivas con técnicas avanzadas de minería de grafos y aprendizaje
automático relacional para ayudar a revelar información importante rápidamente, así como a aprender un modelo
apropiado y altamente predictivo para una tarea en particular (por ejemplo, clasificación, predicción de enlaces,
descubriendo los roles de los nodos, y encontrando nodos influyentes). Las representaciones visuales y las técnicas y
herramientas de interacción se desarrollan para la exploración, extracción y modelado interactivos en tiempos reales,
simples, rápidos e intuitivos de datos gráficos.
Resultados
En particular, proponemos técnicas para el aprendizaje relacional interactivo (por ejemplo, clasificación de nodos /
enlaces), predicción y ponderación de enlaces interactivos, descubrimiento de roles y detección de comunidades, análisis
de redes de orden superior (a través de grafitos, temas de redes), entre otros.
Antecedentes
GraphVis también permite el refinamiento y ajuste de la minería de gráficos y los métodos de aprendizaje relacional para
dominios y restricciones de aplicaciones específicas a través de un canal analítico visual interactivo de extremo a extremo
que aprende, infiere y proporciona una visualización interactiva rápida con retroalimentación inmediata en cada
cambio/predicción en tiempo real. Otros aspectos clave incluyen el filtrado interactivo, la consulta, la clasificación, la
manipulación, la exportación, así como las herramientas para el análisis y la visualización dinámicos de la red, los
generadores de gráficos interactivos (incluidos los nuevos enfoques de modelos de bloques) y una variedad de técnicas de
análisis de redes multinivel.
6.- Título: Optimum velocity profile of multiple Bernstein-Bezier curves subject to constraints for mobile robots
Abstract
This article deals with trajectory planning that is suitable for nonholonomic differentially driven wheeled mobile robots.
The path is approximated with a spline that consists of multiple Bernstein-Bézier curves that are merged together in a way
that continuous curvature of the spline is achieved. The article presents the approach for optimization of velocity profile of
Bernstein-Bézier spline subject to velocity and acceleration constraints. For the purpose of optimization, velocity and
turning points are introduced. Based on these singularity points, local segments are defined where local velocity profiles
are optimized independently of each other. From the locally optimum velocity profiles, the global optimum velocity profile
is determined. Since each local velocity profile can be evaluated independently, the algorithm is suitable for concurrent
implementation and modification of one part of the curve does not require recalculation of all local velocity profiles. These
properties enable efficient implementation of the optimization algorithm. The optimization algorithm is also suitable for
the splines that consist of Bernstein-Bézier curves that have substantially different lengths. The proposed optimization
approach was experimentally evaluated and validated in simulation environment and on real mobile robots.
Resumen
Este artículo trata sobre la planificación de la trayectoria adecuada para los robots móviles con ruedas de accionamiento
diferencial no holonómicos. El camino se aproxima con una spline que consta de múltiples curvas de Bernstein-Bézier que
se fusionan de manera que se logra una curvatura continua de la spline. El artículo presenta el enfoque para la optimización
del perfil de velocidad del sujeto Bernine-Bézier spline sujeto a restricciones de velocidad y aceleración. Con el fin de la
optimización, se introducen la velocidad y los puntos de giro. Sobre la base de estos puntos de singularidad, los segmentos
locales se definen donde los perfiles de velocidad locales se optimizan independientemente entre sí. A partir de los perfiles
de velocidad localmente óptimos, se determina el perfil de velocidad óptima global. Dado que cada perfil de velocidad local
se puede evaluar de forma independiente, el algoritmo es adecuado para la implementación simultánea y la modificación
de una parte de la curva no requiere el recálculo de todos los perfiles de velocidad local. Estas propiedades permiten una
implementación eficiente del algoritmo de optimización. El algoritmo de optimización también es adecuado para las splines
que consisten en curvas de Bernstein-Bézier que tienen longitudes sustancialmente diferentes. El enfoque de optimización
propuesto se evaluó y validó experimentalmente en un entorno de simulación y en robots móviles reales.
Análisis
Objetivo
Este artículo trata sobre la planificación de la trayectoria adecuada para los robots móviles con ruedas de accionamiento
diferencial no holonómicos.
Antecedentes
El camino se aproxima con una spline que consta de múltiples curvas de Bernstein-Bézier que se fusionan de manera que
se logra una curvatura continua de la spline.
Resultados
El artículo presenta el enfoque para la optimización del perfil de velocidad del sujeto Bernine-Bézier spline sujeto a
restricciones de velocidad y aceleración.
Antecedentes
Con el fin de la optimización, se introducen la velocidad y los puntos de giro. Sobre la base de estos puntos de singularidad,
los segmentos locales se definen donde los perfiles de velocidad locales se optimizan independientemente entre sí.
Resultados
A partir de los perfiles de velocidad localmente óptimos, se determina el perfil de velocidad óptima global. Dado que cada
perfil de velocidad local se puede evaluar de forma independiente, el algoritmo es adecuado para la implementación
simultánea y la modificación de una parte de la curva no requiere el recálculo de todos los perfiles de velocidad local. Estas
propiedades permiten una implementación eficiente del algoritmo de optimización.
Conclusiones
El algoritmo de optimización también es adecuado para las splines que consisten en curvas de Bernstein-Bézier que tienen
longitudes sustancialmente diferentes. El enfoque de optimización propuesto se evaluó y validó experimentalmente en un
entorno de simulación y en robots móviles reales.
Abstract
An important task for intelligent healthcare systems is to predict the effect of a new intervention on individuals. This is
especially true for medical treatments. For example, consider patients who do not respond well to a new drug or have
adversary reactions. Predicting the likelihood of positive or negative response before trying the drug on the patient can
potentially save his or her life. We are therefore interested in identifying distinctive subpopulations that respond differently
to a given intervention. For this purpose, we have developed a novel technique, Intervention-based Clustering, based on a
Bayesian mixture model. Compared to the baseline techniques, the novelty of our approach lies in its ability to model
complex decision boundaries by using soft clustering, thus predicting the effect for individuals more accurately. It can also
incorporate prior knowledge, making the method useful even for smaller datasets. We demonstrate how our method works
by applying it to both simulated and real data. Results of our evaluation show that our model has strong predictive power
and is capable of producing high-quality clusters compared to the baseline methods.
Resumen
Una tarea importante para los sistemas de salud inteligentes es predecir el efecto de una nueva intervención en los
individuos. Esto es especialmente cierto para los tratamientos médicos. Por ejemplo, considere a los pacientes que no
responden bien a un nuevo medicamento o tienen reacciones adversas. Predecir la posibilidad de una respuesta positiva o
negativa antes de probar el medicamento en el paciente puede potencialmente salvar su vida. Por lo tanto, nos interesa
identificar las subpoblaciones distintivas que responden de manera diferente a una intervención dada. Para este propósito,
hemos desarrollado una técnica novedosa, agrupación basada en intervención, basada en un modelo de mezcla bayesiana.
En comparación con las técnicas de referencia, la novedad de nuestro enfoque radica en su capacidad para modelar límites
de decisión complejos mediante el uso de agrupación suave, prediciendo así el efecto para los individuos con mayor
precisión. También puede incorporar el conocimiento previo, haciendo que el método sea útil incluso para conjuntos de
datos más pequeños. Demostramos cómo funciona nuestro método aplicándolo a datos simulados y reales. Los resultados
de nuestra evaluación muestran que nuestro modelo tiene un gran poder predictivo y es capaz de producir clusters de alta
calidad en comparación con los métodos de referencia.
Análisis
Antecedentes
Una tarea importante para los sistemas de salud inteligentes es predecir el efecto de una nueva intervención en los
individuos. Esto es especialmente cierto para los tratamientos médicos. Por ejemplo, considere a los pacientes que no
responden bien a un nuevo medicamento o tienen reacciones adversas. Predecir la posibilidad de una respuesta positiva o
negativa antes de probar el medicamento en el paciente puede potencialmente salvar su vida.
Objetivo
Por lo tanto, nos interesa identificar las subpoblaciones distintivas que responden de manera diferente a una intervención
dada.
Resultados
Para este propósito, hemos desarrollado una técnica novedosa, agrupación basada en intervención, basada en un modelo
de mezcla bayesiana. En comparación con las técnicas de referencia, la novedad de nuestro enfoque radica en su capacidad
para modelar límites de decisión complejos mediante el uso de agrupación suave, prediciendo así el efecto para los
individuos con mayor precisión. También puede incorporar el conocimiento previo, haciendo que el método sea útil incluso
para conjuntos de datos más pequeños. Demostramos cómo funciona nuestro método aplicándolo a datos simulados y
reales.
Conclusiones
Los resultados de nuestra evaluación muestran que nuestro modelo tiene un gran poder predictivo y es capaz de producir
clusters de alta calidad en comparación con los métodos de referencia.
Autor: Guodao Sun1, Tan Tang2, Tai-Quan Peng3, Ronghua Liang1, Yingcai Wu2
Abstract
Rapid advancement of social media tremendously facilitates and accelerates the information diffusion among users around
the world. How and to what extent will the information on social media achieve widespread diffusion across the world?
How can we quantify the interaction between users from different geolocations in the diffusion process? How will the
spatial patterns of information diffusion change over time? To address these questions, a dynamic social gravity model
(SGM) is proposed to quantify the dynamic spatial interaction behavior among social media users in information diffusion.
The dynamic SGM includes three factors that are theoretically significant to the spatial diffusion of information: geographic
distance, cultural proximity, and linguistic similarity. Temporal dimension is also taken into account to help detect recency
effect, and ground-truth data is integrated into the model to help measure the diffusion power. Furthermore, SocialWave,
a visual analytic system, is developed to support both spatial and temporal investigative tasks. SocialWave provides a
temporal visualization that allows users to quickly identify the overall temporal diffusion patterns, which reflect the spatial
characteristics of the diffusion network. When a meaningful temporal pattern is identified, SocialWave utilizes a new
occlusion-free spatial visualization, which integrates a node-link diagram into a circular cartogram for further analysis.
Moreover, we propose a set of rich user interactions that enable in-depth, multi-faceted analysis of the diffusion on social
media. The effectiveness and efficiency of the mathematical model and visualization system are evaluated with two
datasets on social media, namely, Ebola Epidemics and Ferguson Unrest.
Resumen
El rápido avance de las redes sociales facilita enormemente y acelera la difusión de información entre los usuarios de todo
el mundo. ¿Cómo y en qué medida la información en las redes sociales logrará una difusión generalizada en todo el mundo?
¿Cómo podemos cuantificar la interacción entre usuarios de diferentes geolocalizaciones en el proceso de difusión? ¿Cómo
cambiarán los patrones espaciales de difusión de la información a lo largo del tiempo? Para abordar estas preguntas, se
propone un modelo dinámico de gravedad social (SGM) para cuantificar el comportamiento dinámico de interacción
espacial entre usuarios de redes sociales en la difusión de información. El SGM dinámico incluye tres factores que son
teóricamente significativos para la difusión espacial de la información: distancia geográfica, proximidad cultural y similitud
lingüística. La dimensión temporal también se tiene en cuenta para ayudar a detectar efectos recientes, y los datos reales
de la tierra fundamental se integran en el modelo para ayudar a medir la potencia de difusión. Además, SocialWave, un
sistema analítico visual, está desarrollado para soportar tareas de investigación espacial y temporal. SocialWave
proporciona una visualización temporal que permite a los usuarios identificar rápidamente los patrones generales de
difusión temporal, que reflejan las características espaciales de la red de difusión. Cuando se identifica un patrón temporal
significativo, SocialWave utiliza una nueva visualización espacial libre de oclusión, que integra un diagrama de enlace de
nodo en un cartograma circular para su posterior análisis. Además, proponemos un conjunto de interacciones de usuario
enriquecidas que permiten un análisis en profundidad y multifacético de la difusión en las redes sociales. La efectividad y
la eficiencia del modelo matemático y el sistema de visualización se evalúan con dos conjuntos de datos en las redes
sociales, a saber, las Epidemias de Ébola y la Inestabilidad de Ferguson.
Análisis
Antecedentes
El rápido avance de las redes sociales facilita enormemente y acelera la difusión de información entre los usuarios de todo
el mundo. ¿Cómo y en qué medida la información en las redes sociales logrará una difusión generalizada en todo el mundo?
¿Cómo podemos cuantificar la interacción entre usuarios de diferentes geolocalizaciones en el proceso de difusión? ¿Cómo
cambiarán los patrones espaciales de difusión de la información a lo largo del tiempo?
Objetivo
Para abordar estas preguntas, se propone un modelo dinámico de gravedad social (SGM) para cuantificar el
comportamiento dinámico de interacción espacial entre usuarios de redes sociales en la difusión de información.
Antecedentes
El SGM dinámico incluye tres factores que son teóricamente significativos para la difusión espacial de la información:
distancia geográfica, proximidad cultural y similitud lingüística. La dimensión temporal también se tiene en cuenta para
ayudar a detectar efectos recientes, y los datos reales de la tierra fundamental se integran en el modelo para ayudar a
medir la potencia de difusión.
Resultados
Además, SocialWave, un sistema analítico visual, está desarrollado para soportar tareas de investigación espacial y
temporal. SocialWave proporciona una visualización temporal que permite a los usuarios identificar rápidamente los
patrones generales de difusión temporal, que reflejan las características espaciales de la red de difusión. Cuando se
identifica un patrón temporal significativo, SocialWave utiliza una nueva visualización espacial libre de oclusión, que integra
un diagrama de enlace de nodo en un cartograma circular para su posterior análisis. Además, proponemos un conjunto de
interacciones de usuario enriquecidas que permiten un análisis en profundidad y multifacético de la difusión en las redes
sociales. La efectividad y la eficiencia del modelo matemático y el sistema de visualización se evalúan con dos conjuntos de
datos en las redes sociales, a saber, las Epidemias de Ébola y la Inestabilidad de Ferguson.
Abstract
Nonnegative matrix factorization (NMF) is one of the most popular data representation methods in the field of computer
vision and pattern recognition. High-dimension data are usually assumed to be sampled from the submanifold embedded
in the original high-dimension space. To preserve the locality geometric structure of the data, k-nearest neighbor (k-NN)
graph is often constructed to encode the near-neighbor layout structure. However, k-NN graph is based on Euclidean
distance, which is sensitive to noise and outliers. In this article, we propose a refined-graph regularized nonnegative matrix
factorization by employing a manifold regularized least-squares regression (MRLSR) method to compute the refined graph.
In particular, each sample is represented by the whole dataset regularized with ℓ2-norm and Laplacian regularizer. Then a
MRLSR graph is constructed based on the representative coefficients of each sample. Moreover, we present two
optimization schemes to generate refined-graphs by employing a hard-thresholding technique. We further propose two
refined-graph regularized nonnegative matrix factorization methods and use them to perform image clustering.
Experimental results on several image datasets reveal that they outperform 11 representative methods.
Resumen
La factorización de matriz no negativa (NMF) es uno de los métodos de representación de datos más populares en el campo
de la visión por ordenador y el reconocimiento de patrones. En general, se supone que los datos de alta dimensión se
muestrean desde el sub-catálogo incrustado en el espacio original de alta dimensión. Para preservar la estructura
geométrica de la localidad de los datos, se construye a menudo el gráfico del k más cercano (k-NN) para codificar la
estructura de diseño de este. Sin embargo, el gráfico k-NN se basa en la distancia euclidiana, que es sensible al ruido y los
valores atípicos. En este artículo, proponemos una factorización matricial no negativa regularizada de gráfico refinado
empleando un método de regresión de mínimos cuadrados regularizado (MRLSR, por sus siglas en inglés) para calcular el
gráfico refinado. En particular, cada muestra está representada por el conjunto de datos completo regularizado con la
norma ℓ2 y el regularizador laplaciano. Luego, se construye un gráfico MRLSR basado en los coeficientes representativos
de cada muestra. Además, presentamos dos esquemas de optimización para generar gráficos refinados empleando una
técnica de umbral duro. Además, proponemos dos métodos de factorización matricial no negativa regularizada de gráficos
refinados y los usamos para realizar agrupamiento de imágenes. Los resultados experimentales en varios conjuntos de
datos de imágenes revelan que superan los 11 métodos representativos.
Análisis
Antecedentes
La factorización de matriz no negativa (NMF) es uno de los métodos de representación de datos más populares en el campo
de la visión por ordenador y el reconocimiento de patrones. En general, se supone que los datos de alta dimensión se
muestrean desde el sub-catálogo incrustado en el espacio original de alta dimensión. Para preservar la estructura
geométrica de la localidad de los datos, se construye a menudo el gráfico del k más cercano (k-NN) para codificar la
estructura de diseño de este. Sin embargo, el gráfico k-NN se basa en la distancia euclidiana, que es sensible al ruido y los
valores atípicos.
Objetivo
En este artículo, proponemos una factorización matricial no negativa regularizada de gráfico refinado empleando un
método de regresión de mínimos cuadrados regularizado (MRLSR, por sus siglas en inglés) para calcular el gráfico refinado.
Resultados
En particular, cada muestra está representada por el conjunto de datos completo regularizado con la norma ℓ2 y el
regularizador laplaciano. Luego, se construye un gráfico MRLSR basado en los coeficientes representativos de cada muestra.
Además, presentamos dos esquemas de optimización para generar gráficos refinados empleando una técnica de umbral
duro. Además, proponemos dos métodos de factorización matricial no negativa regularizada de gráficos refinados y los
usamos para realizar agrupamiento de imágenes.
Conclusiones
Los resultados experimentales en varios conjuntos de datos de imágenes revelan que superan los 11 métodos
representativos.
Autor: Weike Pan1, Qiang Yang2, Yuchao Duan1, Ben Tan2, Zhong Ming1
Abstract
Intelligent recommendation has been well recognized as one of the major approaches to address the information overload
problem in the big data era. A typical intelligent recommendation engine usually consists of three major components, that
is, data as the main input, algorithms for preference learning, and system for user interaction and high-performance
computation. We observe that the data (e.g., users’ behavior) are usually in different forms, such as examinations (e.g.,
browse and collection) and ratings, where the former are often much more abundant than the latter. Although the data
are in different representations, they are both related to users’ true preferences and are also deemed complementary to
each other for preference learning. However, very few ranking or recommendation algorithms have been developed to
exploit such two types of user behavior.
In this article, we focus on jointly modeling the examination behavior and rating behavior and develop a novel and efficient
ranking-oriented recommendation algorithm accordingly. First, we formally define a new recommendation problem
termed behavior ranking, which aims to build a ranking-oriented model by exploiting both the examination behavior and
rating behavior. Second, we develop a simple and generic transfer to rank (ToR) algorithm for behavior ranking, which
transfers knowledge of candidate items from a global preference learning task to a local preference learning task.
Compared with the previous work on integrating heterogeneous user behavior, our ToR algorithm is the first ranking-
oriented solution, which can effectively generate recommendations in a more direct manner than those regression-
oriented methods. Extensive empirical studies show that our ToR algorithm performs significantly more accurately than
the state-of-the-art methods in most cases. Furthermore, our ToR algorithm is very efficient in terms of the time
complexity, which is similar to those for homogeneous user behavior alone.
Resumen
La recomendación inteligente ha sido reconocida como uno de los principales enfoques para abordar el problema de la
sobrecarga de información en la era del big data. Un motor de recomendación inteligente típico generalmente consta de
tres componentes principales, es decir, los datos como la entrada principal, los algoritmos para el aprendizaje de
preferencias y el sistema para la interacción del usuario y el cálculo de alto rendimiento. Observamos que los datos (por
ejemplo, el comportamiento de los usuarios) suelen estar en diferentes formas, como exámenes (por ejemplo, exploración
y recopilación) y calificaciones, donde los primeros suelen ser mucho más abundantes que los últimos. Aunque los datos
están en diferentes representaciones, ambos están relacionados con las preferencias reales de los usuarios y también se
consideran complementarios entre sí para el aprendizaje de preferencias. Sin embargo, se han desarrollado muy pocos
algoritmos de clasificación o recomendación para explotar estos dos tipos de comportamiento del usuario.
En este artículo, nos centramos en modelar conjuntamente el comportamiento del examen y el comportamiento de
calificación y desarrollaremos un algoritmo novedoso y eficiente de recomendación orientado a la clasificación. Primero,
definimos formalmente un nuevo problema de recomendación denominado clasificación de comportamiento, que apunta
a construir un modelo orientado a la clasificación mediante la explotación tanto del comportamiento del examen como del
comportamiento de calificación. En segundo lugar, desarrollamos un algoritmo de transferencia a rango (TdR) simple y
genérico para la clasificación de comportamiento, que transfiere el conocimiento de los elementos candidatos de una tarea
de aprendizaje de preferencia global a una tarea de aprendizaje de preferencia local. Comparado con el trabajo anterior
sobre la integración del comportamiento heterogéneo del usuario, nuestro algoritmo ToR es la primera solución orientada
a la clasificación, que puede generar recomendaciones de manera más directa que aquellos métodos orientados a la
regresión. Los estudios empíricos extensos muestran que nuestro algoritmo ToR se desempeña de manera
significativamente más precisa que los métodos más modernos en la mayoría de los casos. Además, nuestro algoritmo ToR
es muy eficiente en términos de complejidad de tiempo, que es similar a los del comportamiento homogéneo del usuario.
Análisis
Antecedentes
La recomendación inteligente ha sido reconocida como uno de los principales enfoques para abordar el problema de la
sobrecarga de información en la era del big data. Un motor de recomendación inteligente típico generalmente consta de
tres componentes principales, es decir, los datos como la entrada principal, los algoritmos para el aprendizaje de
preferencias y el sistema para la interacción del usuario y el cálculo de alto rendimiento. Observamos que los datos (por
ejemplo, el comportamiento de los usuarios) suelen estar en diferentes formas, como exámenes (por ejemplo, exploración
y recopilación) y calificaciones, donde los primeros suelen ser mucho más abundantes que los últimos. Aunque los datos
están en diferentes representaciones, ambos están relacionados con las preferencias reales de los usuarios y también se
consideran complementarios entre sí para el aprendizaje de preferencias. Sin embargo, se han desarrollado muy pocos
algoritmos de clasificación o recomendación para explotar estos dos tipos de comportamiento del usuario.
Objetivo
En este artículo, nos centramos en modelar conjuntamente el comportamiento del examen y el comportamiento de
calificación y desarrollaremos un algoritmo novedoso y eficiente de recomendación orientado a la clasificación.
Resultados
Conclusiones
Comparado con el trabajo anterior sobre la integración del comportamiento heterogéneo del usuario, nuestro algoritmo
ToR es la primera solución orientada a la clasificación, que puede generar recomendaciones de manera más directa que
aquellos métodos orientados a la regresión. Los estudios empíricos extensos muestran que nuestro algoritmo ToR se
desempeña de manera significativamente más precisa que los métodos más modernos en la mayoría de los casos. Además,
nuestro algoritmo ToR es muy eficiente en términos de complejidad de tiempo, que es similar a los del comportamiento
homogéneo del usuario.
ADVANCES IN APPLIED MATHEMATICS
Se dedica a la publicación de artículos originales y de encuesta sobre métodos rigurosos y resultados en matemáticas
aplicadas. Presenta artículos sobre matemática discreta, teoría de probabilidad discreta, estadística teórica, biología
matemática, álgebra conmutativa aplicada y geometría algebraica, teoría de la convexidad, matemática experimental,
informática teórica y otras áreas. (ELSEVIER B. V., 2019)
Artículos
Desde el 2010 trabaja en la Universidad de Regina, sus áreas de interés son la teoría de números y funciones especiales,
cuenta con 45 publicaciones.
Abstract
We offer some further applications of some Bailey pairs related to some mock theta functions which were established in a
recent study. We discuss and offer some doublé-sum q-series, with new relationships among mock theta functions. We
also offer a new relationship between the Bailey pair of Bringmann and Kane with that of Andrews.
Resumen
Ofrecemos algunas aplicaciones adicionales de algunos pares de Bailey relacionados con simulaciones de funciones teta
que se establecieron en estudios recientes. Discutimos y ofrecemos algunas sumas dobles de q-series, con nuevas
relaciones entre pares de Bailey de Bringmann y Kane con los de Andrews.
Análisis
Antecedentes
Existen pares de Bailey que se relacionan con simulaciones de funciones teta. Bringmann-Kane y Andrews proporcionan
pares de Bailey con ciertas características.
Objetivo
Analizar pares de Bailey y la relación que existe entre cierto tipo de estos.
Metodología
Las relaciones entre los pares de Bailey de Bringmann-Kane y Andrews se determinan mediante sumas dobles de q-series
Resultados
Se determinan aplicaciones de pares de Bailey relacionados con simulaciones de funciones teta y se ofrecen relaciones
entre pares de Bailey de Bringmann-Kane y Andrews.
1) Departamento de Matemáticas, Universidad Estatal de Louisiana, Baton Rouge, Los Ángeles, Estados Unidos. Es
experto en teoría de matroides y teoría de gráficas, tiene índice h 17.
2) Departamento de Matemáticas de la Universidad Estatal de Angelo, Texas, Estados Unidos
3) Escuela de Matemáticas y Estadística de la Universidad de Canterbury, Christchurch, Nueva Zelanda. Sus temas de
interés son la teoría de matroides y la combinatoria, tiene índice h 19
4) Escuela de Matemáticas, Estadística y Operación de Investigaciones en la Universidad Victoria de Wellington,
Nueva Zelanda
Abstract
Tutte proved that a non-empty 3-connected matroid with every element in a 3-element circuit and a 3-element cocircuit is
either a whirl or the cycle matroid of a Wheel. This result led to the Splitter Theorem. More recently, Miller proved that a
matroid of sufficient size with every pair of elements in a 4-elements circuit and a 4-element cocircuit is a tipless spike.
Here we investigate matroids having similar restrictions on their small circuits and cocircuits. In particular, we completely
determine the 3-connected matroids with every pair of elements in a 4-element circuit and every element in a 3-element
cocircuit, as well as the 4-connected matroids with every pair of elements in a 4-element circuit and every element in a 4-
element cocircuit.
Resumen
Tutte probó que una matroide 3-conexa no vacía con cada elemento en un circuito de 3 elementos y un cocircuito de 3
elementos es ya sea un giro o el ciclo matroide de una rueda. Este resultado llevó al teorema del divisor. Más
recientemente, Miller probó que una matroide de tamaño suficiente con cada par de elementos en un circuito de 4
elementos y un cocircuito de 4 elementos es un pico sin punta. Aquí investigamos matroides teniendo restricciones
similares en sus circuitos y cocircuitos pequeños. En particular, determinamos completamente las matroides 3 conexas con
cada par de elementos en un circuito de 4 elementos y cada elemento en un cocircuito de 3 elementos, así como las
matroides 4 conexas con cada par de elementos en un circuito de 4 elementos y cada elemento en un cocircuito de 4
elementos.
Análisis
Antecedentes
Se conoce la estructura geométrica de matroides 3-conexas con circuitos de 3 elementos y cocircuito de 3 elementos,
también se sabe el comportamiento de ciertas matroides con circuitos de 4 elementos y cocircuito de 4 elementos
Objetivo
Metodología
Se suponen las mismas restricciones que en los casos conocidos en matroides con circuitos y cocircuitos pequeños
Resultados
Se obtiene la estructura de matroides 3-conexas con un circuito de 4 elementos y un cocircuito de 3 elementos, así como
las matroides 4-conexas en un circuito de 4 elementos y un cocircuito de 4 elementos
Conclusiones
3.- Título: Existence and uniqueness of solutions to Orlicz Minkowski problems involving 0 < 𝑝 < 1
Departamento de Matemáticas, Universidad de la Academia China de Ciencias, Beijing, República Popular de China. Su área
de interés es el Análisis Funcional no linear, investiga sobre el Problema de Minkowski, índice h 6
Abstract
We establish the existence and uniqueness of positive solutions for some planar Orlicz Minkowski problems involving 0 <
𝑝 < 1. As a consequence, the existence and uniqueness of plane convex bodies that are not origin-symetric with 0 < 𝑝 <
1 involved are obtained.
Resumen
Establecemos la existencia y unicidad de soluciones positivas para algunos problemas de Orlicz Minkowski planos que
implican 0 < 𝑝 < 1. Como una consecuencia, se obtiene la existencia y unicidad de cuerpos convexos en el plano que no
son simétricos con respecto al origen con 0 < 𝑝 < 1.
Análisis
Antecedentes
Objetivo
Metodología
Resultados
Se obtiene la existencia y unicidad de cuerpos convexos en el plano no simétricos con respecto al origen con 0 < 𝑝 < 1
Conclusiones
Se establece la existencia y unicidad de soluciones positivas para ciertos problemas de Orlicz Minkowski planos
1) El Real Instituto de Tecnología, Estocolmo, Suecia. Su área de interés es la Geometría Algebraica, índice h 10
2) El Real Instituto de Tecnología, Estocolmo, Suecia. Su área de interés es la Geometría Algebraica, índice h 3
3) Departamento de Matemáticas, Universidad Estatal de Colorado, Estados Unidos. Tiene 54 publicaciones y dos
patentes, índice h 36
Abstract
Let 𝐿1 , … , 𝐿𝑠 be line bundles on a smooth complex variety 𝑋 ⊂ 𝑃𝑟 and let 𝐷1 , … , 𝐷𝑠 be divisor on 𝜒 such that 𝐷𝑖 represents
𝐿𝑖 . We give a probabilistic algorithm for computing the degree of intersections of polar classes which are in turn used for
computing the Euler characteristic of linear combinations of 𝐿1 , … , 𝐿𝑠 . The input consists of generators for the
homogeneous ideals 𝐼𝜒 , 𝐼𝐷𝑖 ⊂ ℂ(𝑥0 , … , 𝑥𝑟 ) defining 𝜒 and 𝐷𝑖 .
Resumen
Sea 𝐿1 , … , 𝐿𝑠 el haz de rectas en una variedad compleja suave 𝑋 ⊂ 𝑃𝑟 y si 𝐷1 , … , 𝐷𝑠 es un divisor en 𝜒 tal que 𝐷𝑖 representa
𝐿𝑖 . Damos un algoritmo probabilístico para calcular el grado de intersecciones de clases polares las cuales se usan para
calcular la característica de Euler de combinaciones lineales de 𝐿1 , … , 𝐿𝑠 . La entrada consiste de generadores para los
ideales homogéneos 𝐼𝜒 , 𝐼𝐷𝑖 ⊂ ℂ(𝑥0 , … , 𝑥𝑟 ) definiendo 𝜒 y 𝐷𝑖 .
Análisis
Antecedentes
Al conocer el grado de intersecciones de clases polares se puede calcular la característica de Euler de combinaciones
lineales de un haz de rectas de una variedad compleja suave
Objetivo
Determinar un método para poder calcular la característica de Euler de combinaciones lineales de un haz de rectas de una
variedad compleja suave
Metodología
Se proporciona un haz de rectas en una variedad compleja suave y ciertos divisores que representan cada recta, así como
un conjunto de generadores para los ideales homogéneos de la variedad y los divisores
Resultados
Conclusiones
Se calcula la característica de Euler de combinaciones lineales del haz de rectas de la variedad compleja suave conociendo
el grado de intersecciones de clases polares.
Abstract
Optimal transport theory is used to give a short proof of the Orlicz-Sobolev inequality.
Resumen
Se utiliza la teoría del transporte óptimo para dar una breve prueba de la desigualdad Orlicz-Sobolev
Análisis
Antecedentes
Objetivo
Se utiliza la teoría del transporte óptimo para dar una breve prueba de la desigualdad Orlicz-Sobolev
Conclusión
The Orlicz Brunn–Minkowski theory originated with the work of Lutwak, Yang, and Zhang in 2010. In this paper, we first
introduce the Orlicz addition of convex bodies containing the origin in their interiors, and then extend the Lp Brunn–
Minkowski inequality to the Orlicz Brunn–Minkowski inequality. Furthermore, we extend the Lp Minkowski mixed volume
inequality to the Orlicz mixed volume inequality by using the Orlicz Brunn–Minkowski inequality.
Resumen
La teoría de Orlicz Brunn-Minkowski se originó con el trabajo de Lutwak, Yang y Zhang en 2010. En este paper, primero
introducimos la adición de Orlicz de cuerpos convexos que contienen al origen en su interior, luego se extiende la
desigualdad de Lp Brunn-Minkowski a la desigualdad Orlicz Brunn-Minkowski. Además, extendemos la desigualdad de
volumen mixto de Lp Minkowski a la desigualdad de volumen mixto de Orlicz utilizando la desigualdad de Orlicz Brunn –
Minkowski.
Análisis
Antecedentes
La teoría de Orlicz Brunn-Minkowski se originó con el trabajo de Lutwak, Yang y Zhang en 2010.
Resultados
En este paper, primero introducimos la adición de Orlicz de cuerpos convexos que contienen al origen en su interior, luego
se extiende la desigualdad de Lp Brunn-Minkowski a la desigualdad Orlicz Brunn-Minkowski. Además, extendemos la
desigualdad de volumen mixto de Lp Minkowski a la desigualdad de volumen mixto de Orlicz utilizando la desigualdad de
Orlicz Brunn – Minkowski.
6.- Título: The computational complexity of calculating partition functions of optimal medians with Hamming distance
Abstract
We study the complexity of computing the partition function of medians for binary strings with Hamming distance using
various weight functions. When the weight function is the factorial function, this partition function has application in
bioinformatics, counting the most parsimonious scenarios on a star tree under the Single Cut-or-Join model for genome
rearrangement. Although this model is computationally simple, we show that it is #P-complete to compute the partition
function. Our results are also extended to binary trees as we show that it is #P-complete to calculate the most parsimonious
scenarios on an arbitrary binary tree under the Single Cut-or-Join model. These results also apply to substitution models
for many biological sequences.
Resumen
Estudiamos la complejidad de calcular la función de partición de las medianas para cadenas binarias con distancia de
Hamming usando varias funciones peso. Cuando la función peso es la función factorial, la función de partición tiene
aplicación en bioinformática, contando los escenarios más parsimoniosos en un árbol de estrellas bajo el modelo de Corte
o unión simple para el reordenamiento del genoma. Aunque este modelo es computacionalmente simple, mostramos que
es # P-completo para calcular la función de partición. Nuestros resultados también se extienden a árboles binarios, ya que
demostramos que es # P-completo para calcular los escenarios más complejos en un árbol binario arbitrario bajo el modelo
de Corte o unión simple. Estos resultados también se aplican a los modelos de sustitución para muchas secuencias
biológicas.
Análisis
Objetivo
Estudiamos la complejidad de calcular la función de partición de las medianas para cadenas binarias con distancia de
Hamming usando varias funciones peso.
Antecedentes
Cuando la función peso es la función factorial, la función de partición tiene aplicación en bioinformática, contando los
escenarios más parsimoniosos en un árbol de estrellas bajo el modelo de Corte o unión simple para el reordenamiento del
genoma.
Resultados
Aunque este modelo es computacionalmente simple, mostramos que es # P-completo para calcular la función de partición.
Nuestros resultados también se extienden a árboles binarios, ya que demostramos que es # P-completo para calcular los
escenarios más complejos en un árbol binario arbitrario bajo el modelo de Corte o unión simple.
Conclusiones
Estos resultados también se aplican a los modelos de sustitución para muchas secuencias biológicas.
Departamento de Matemáticas, Universidad del Sur de California, Los Ángeles California, Estados Unidos
Abstract
We study the graph on reduced words with edges given by the Coxeter relations for the symmetric group. We define a
statistic on reduced words for a given permutation, analogous to Coxeter length for permutations, for which the graph
becomes ranked with unique maximal element. We show this statistic extends naturally to balanced labellings, and use it
to recover enumerative results of Edelman and Greene and of Reiner and Roichman.
Resumen
Estudiamos la gráfica en palabras reducidas con bordes dada por las relaciones de Coxeter para el grupo simétrico.
Definimos una estadística en palabras reducidas para una permutación dada, análoga a la longitud de Coxeter para
permutaciones, en la cual la gráfica se clasifica con un único elemento máximo. Mostramos que esta estadística se extiende
naturalmente a etiquetados balanceados, y la usamos para recuperar resultados enumerables de Edelman y Greene y de
Reiner y Roichman.
Análisis
Objetivo
Estudiamos la gráfica en palabras reducidas con bordes dada por las relaciones de Coxeter para el grupo simétrico.
Resultados
Definimos una estadística en palabras reducidas para una permutación dada, análoga a la longitud de Coxeter para
permutaciones, en la cual la gráfica se clasifica con un único elemento máximo.
Conclusiones
Mostramos que esta estadística se extiende naturalmente a etiquetados balanceados, y la usamos para recuperar
resultados enumerables de Edelman y Greene y de Reiner y Roichman.
Abstract
This paper presents a new approach to the recently established Orlicz Brunn-Minkowski inequality which is due to Xi, Jin
and Leng and is stronger than the classical and Lp Brunn-Minkowski inequalities. Our approach is based on the shadow
system and does not rely on the Steiner symmetrization.
Resumen
Este artículo presenta un nuevo enfoque de la recientemente establecida desigualdad Orlicz Brunn-Minkowski que se debe
a Xi, Jin y Leng y es más fuerte que las desigualdades clásicas Lp Brunn-Minkowski. Nuestro enfoque se basa en el sistema
sombra y no se basa en la simetrización de Steiner.
Análisis
Antecedentes-Resultados
Este artículo presenta un nuevo enfoque de la recientemente establecida desigualdad Orlicz Brunn-Minkowski que se debe
a Xi, Jin y Leng y es más fuerte que las desigualdades clásicas Lp Brunn-Minkowski.
Conclusiones
Abstract
In this paper, we study the generating function for the number of set partitions of [n] represented as bargraphs according
to the number of interior vertices. In particular, we find an explicit formula for the total number of interior vertices over
set partitions of [n].
Resumen
En este artículo, estudiamos la función generadora para el número de particiones establecidas de [n] representadas como
gráficos de barras según el número de vértices interiores. En particular, encontramos una fórmula explícita para el número
total de vértices interiores sobre las particiones establecidas de [n].
Análisis
Objetivo
En este artículo, estudiamos la función generadora para el número de particiones establecidas de [n]
Antecedentes
Conclusiones
En particular, encontramos una fórmula explícita para el número total de vértices interiores sobre las particiones
establecidas de [n].
1) Facultad de Matemáticas y Estadística, Universidad de Ton Duc Thang, Ciudad de Ho Chi Minh, Vietnam
2) Instituto Johann Radon para Matemáticas Computacionales y Aplicadas, Academia de Ciencias Austriaca, Linz,
Austria
3) Insituto de Investigación para Cálculo Simbólico, Universidad de Linz Johannes Kepler, Austria
Abstract
In this paper, we discuss three different approaches to attack the problem of determining all rational solutions for a first-
order algebraic ordinary differential equation (AODE). We first give a sufficient condition for first-order AODEs to have the
property that poles of rational solutions can only occur at the zeros of the leading coefficient. A combinatorial approach is
presented to determine all rational solutions, if there are any, of the family of first-order AODEs satisfying this condition.
Algebraic considerations based on algebraic function theory yield another algorithm for quasi-linear first-order AODEs. And
finally ideas from algebraic geometry combine these results to an algorithm for finding all rational solutions of
parametrizable first-order AODEs.
Resumen
En este artículo, discutimos tres diferentes enfoques para atacar el problema de determinar todas las soluciones racionales
para una ecuación diferencial ordinaria algebraica de primer orden (AODE). Primero, damos una condición suficiente para
que los AODE de primer orden tengan la propiedad de que los polos de las soluciones racionales solo pueden aparecer en
los ceros del coeficiente principal. Se presenta un enfoque combinatorio para determinar todas las soluciones racionales,
si existen, de la familia de AODE de primer orden que satisfacen esta condición. Las consideraciones algebraicas basadas
en la teoría de la función algebraica producen otro algoritmo para los AODE de primer orden casi lineales. Y finalmente, las
ideas de la geometría algebraica combinan estos resultados con un algoritmo para encontrar todas las soluciones racionales
de AODE de primer orden parametrizables.
Análisis
Objetivo
En este artículo, discutimos tres diferentes enfoques para atacar el problema de determinar todas las soluciones racionales
para una ecuación diferencial ordinaria algebraica de primer orden (AODE).
Resultados
Primero, damos una condición suficiente para que los AODE de primer orden tengan la propiedad de que los polos de las
soluciones racionales solo pueden aparecer en los ceros del coeficiente principal. Se presenta un enfoque combinatorio
para determinar todas las soluciones racionales, si existen, de la familia de AODE de primer orden que satisfacen esta
condición.
Antecedentes
Las consideraciones algebraicas basadas en la teoría de la función algebraica producen otro algoritmo para los AODE de
primer orden casi lineales.
Conclusiones
Y finalmente, las ideas de la geometría algebraica combinan estos resultados con un algoritmo para encontrar todas las
soluciones racionales de AODE de primer orden parametrizables.
HISTORIA MATHEMATICA
Publica reseñas de libros, resúmenes de la literatura actual sobre la historia de las matemáticas, notas y fuentes. Tiene un
archivo abierto.
• Historiografía
• Interrelaciones entre las matemáticas y las ciencias naturales, ciencias sociales, humanidades, artes, religión y
educación.
• Organizaciones e instituciones.
Artículos
1.- Título: The recognition and the constitution of the theorems of closure
Autor: Francois Le
This papers analyzes how several geometric theorems, which were considered to be disconnected from each other in the
beginning of the nineteenth century, have been progressively recognized as elements of a bigger whole called “the
theorems of closure.” In particular, we show that the constitution of this set of theorems was grounded on the use of
encompassing words, as well as observations of analogies, and searches for unifying points of view. In the concluding
remarks, we discuss the relevancy of the notion of “family resemblance” to describe the categorization process of the
theorems of closure during the nineteenth century.
Resumen
Este artículo analiza cómo varios teoremas geométricos, que se consideraron ajenos entre sí a principios del siglo XIX, han
sido identificado poco a poco como elementos de otro más general llamado "teorema de clausura". En particular,
demostramos que la constitución de este conjunto de teoremas se basó en el uso de palabras que lo rodean, así como en
observaciones de analogías y búsquedas de puntos de vista unificadores. En las observaciones finales, discutimos la
relevancia de la noción de "semejanza familiar" para describir el proceso de categorización de los teoremas de clausura
durante el siglo XIX.
Análisis
Objetivo
Este artículo analiza cómo varios teoremas geométricos son parte de uno más general llamado “teorema de clausura”
Antecedentes
Que se consideraron ajenos entre sí a principios del siglo XIX, han sido identificado poco a poco como elementos de otro
más general llamado "teorema de clausura".
Resultados
En particular, demostramos que la constitución de este conjunto de teoremas se basó en el uso de palabras que lo rodean,
así como en observaciones de analogías y búsquedas de puntos de vista unificadores.
Conclusiones
En las observaciones finales, discutimos la relevancia de la noción de "semejanza familiar" para describir el proceso de
categorización de los teoremas de clausura durante el siglo XIX.
2.- Título: Logic and logicians in Russia before 1917: Living in a wider world
1) Instituto de Filosofía, Universidad Estatal de San Petersburgo, San Petersburgo, Federación Rusa
2) IRIT, Universidad de Toulouse, Toulouse, Francia; Universidad de ITMO, San Petersburgo, Federación Rusa
Abstract
We explore the formation of Logic as an academic discipline and community in Russia before the revolution of 1917. In
particular, we look at the various communication strategies that emerged within this community and its relations with the
wider international scientific community. Interaction with Mathematics, which was undergoing its own “foundational
revolution,” played a major role in the transition from archaic syllogistic to modern formal logic. We make extensive use of
original sources, many of which have not been reprinted since their first publication.
Resumen
Exploramos la formación de la lógica como una disciplina y una comunidad académica en Rusia antes de la revolución de
1917. En particular, observamos las diversas estrategias de comunicación que surgieron dentro de esta comunidad y sus
relaciones con la comunidad científica internacional en general. La interacción con las matemáticas, que estaba
experimentando su propia "revolución fundacional", jugó un papel importante en la transición de la silogística arcaica a la
lógica formal moderna. Hacemos un uso extensivo de las fuentes originales, muchas de las cuales no han sido reimpresas
desde su primera publicación.
Análisis
Objetivo
Exploramos la formación de la lógica como una disciplina y una comunidad académica en Rusia antes de la revolución de
1917.
Conclusiones
En particular, observamos las diversas estrategias de comunicación que surgieron dentro de esta comunidad y sus
relaciones con la comunidad científica internacional en general.
Antecedentes
La interacción con las matemáticas, que estaba experimentando su propia "revolución fundacional", jugó un papel
importante en la transición de la silogística arcaica a la lógica formal moderna. Hacemos un uso extensivo de las fuentes
originales, muchas de las cuales no han sido reimpresas desde su primera publicación.
3.- Título: Constructing an international library: The collections of journals in Turin’s special mathematics library
Abstract
The Special Mathematics Library of Turin University, founded in 1883, was fundamental in the development of two research
schools under the leadership of C. Segre and G. Peano. First founded to house a growing collection of international journals
acquired through both purchase and exchange from publishing centres worldwide, it later evolved into a ‘presence library’
modelled on the legendary Lesezimmer in Göttingen. A systematic study of the library's history and its directors' policies
provides interesting insights into the various aspects of the international circulation of journals and their use at different
times and in various contexts in Turin (Turin Academy of Sciences, Società di cultura, national university library, etc.).
Resumen
La Biblioteca de Matemáticas Especiales de la Universidad de Turín, fundada en 1883, fue fundamental en el desarrollo de
dos escuelas de investigación bajo el liderazgo de C. Segre y G. Peano. Fundada por primera vez para albergar una creciente
colección de revistas internacionales adquiridas a través de la compra y el intercambio de centros de publicación de todo
el mundo, más tarde se convirtió en una "biblioteca de presencia" modelada en el legendario Lesezimmer en Göttingen.
Un estudio sistemático de la historia de la biblioteca y las políticas de sus directores proporciona información interesante
sobre los diversos aspectos de la circulación internacional de revistas y su uso en diferentes momentos y en diversos
contextos en Turín (Academia de Ciencias de Turín, Società di cultura, biblioteca nacional universitaria, etc.).
Análisis
Antecedentes
La Biblioteca de Matemáticas Especiales de la Universidad de Turín, fundada en 1883, fue fundamental en el desarrollo de
dos escuelas de investigación bajo el liderazgo de C. Segre y G. Peano. Fundada por primera vez para albergar una creciente
colección de revistas internacionales adquiridas a través de la compra y el intercambio de centros de publicación de todo
el mundo, más tarde se convirtió en una "biblioteca de presencia" modelada en el legendario Lesezimmer en Göttingen.
Objetivo
Resultados
Proporciona información interesante sobre los diversos aspectos de la circulación internacional de revistas y su uso en
diferentes momentos y en diversos contextos en Turín (Academia de Ciencias de Turín, Società di cultura, biblioteca
nacional universitaria, etc.).
4.- Título: Karamata functions and differential equations: Achievements from the 20th century
Abstract
This paper presents the major achievements of the 20th century regarding Karamata functions and the theory
of differential equations, made mostly by V. Marić, M. Tomić, E. Omey, J.L. Geluk. The connection between these notions
was first noticed by V.G. Avakumović (1910–1990). Slowly and regularly varying functions were introduced by J. Karamata
(1902–1967). A group of mathematicians from the Karamata School of classical mathematical analysis were pioneers in
research on these functions and their role in the theory of differential equations. Special attentions is given to the study of
the Thomas–Fermi, Emden–Fowler and Friedmann equations, as well as the classical second order linear differential
equations.
Resumen
Este artículo presenta los principales logros del siglo 20 con respecto a las funciones de Karamata y la teoría de las
ecuaciones diferenciales, realizada principalmente por V. Marić, M. Tomić, E. Omey, J.L. Geluk. La conexión entre estas
nociones fue notada por primera vez por V.G. Avakumović (1910–1990). J. Karamata (1902–1967) introdujo las funciones
de variación lenta y regular. Un grupo de matemáticos de la Escuela Karamata de análisis matemático clásico fueron
pioneros en la investigación de estas funciones y su papel en la teoría de las ecuaciones diferenciales. Se presta especial
atención al estudio de las ecuaciones de Thomas-Fermi, Emden-Fowler y Friedmann, así como a las ecuaciones diferenciales
lineales clásicas de segundo orden.
Análisis
Objetivo
Este artículo presenta los principales logros del siglo 20 con respecto a las funciones de Karamata y la teoría de las
ecuaciones diferenciales, realizada principalmente por V. Marić, M. Tomić, E. Omey, J.L. Geluk.
Antecedentes
La conexión entre estas nociones fue notada por primera vez por V.G. Avakumović (1910–1990). J. Karamata (1902–1967)
introdujo las funciones de variación lenta y regular. Un grupo de matemáticos de la Escuela Karamata de análisis
matemático clásico fueron pioneros en la investigación de estas funciones y su papel en la teoría de las ecuaciones
diferenciales.
Conclusiones
Se presta especial atención al estudio de las ecuaciones de Thomas-Fermi, Emden-Fowler y Friedmann, así como a las
ecuaciones diferenciales lineales clásicas de segundo orden.
5.- Título: The Arabic tradition of Euclid’s Elements preserved in the Latin translation by Adelard of Bath and the Hebrew
translation by Rabbi Jacob
Abstract
The present paper offers a detailed study of the textual differences between two medieval traditions of Euclid's Elements:
the tradition transmitted in most of the extant Arabic manuscripts of the work, and the tradition preserved in the Latin
translation commonly ascribed to Adelard of Bath and a Hebrew translation ascribed to “Rabbi Jacob”. The principal aim is
to identify types of differences in the structure and the formulation of Book I. In conclusion, the question is raised whether
this typology reflects the procedures employed by al-Ḥajjāj ibn Yūsuf ibn Maṭar in revising his translation.
Resumen
El presente artículo ofrece un estudio detallado de las diferencias textuales entre dos tradiciones medievales de los
Elementos de Euclides: la tradición transmitida en la mayoría de los manuscritos árabes existentes de la obra, y la tradición
conservada en la traducción latina comúnmente atribuida a Adelard de Bath y una traducción hebrea atribuida a "rabino
jacob". El objetivo principal es identificar las diferencias en la estructura y la formulación del Libro I. En conclusión, se
plantea la cuestión de si esta tipología refleja los procedimientos empleados por al-Hajjāj, Yūsuf y Maṭar al revisar su
traducción.
Análisis
Resultados
El presente artículo ofrece un estudio detallado de las diferencias textuales entre dos tradiciones medievales de los
Elementos de Euclides:
Antecedentes
La tradición transmitida en la mayoría de los manuscritos árabes existentes de la obra, y la tradición conservada en la
traducción latina comúnmente atribuida a Adelard de Bath y una traducción hebrea atribuida a "rabino jacob".
Objetivo
Conclusiones
En conclusión, se plantea la cuestión de si esta tipología refleja los procedimientos empleados por al-Hajjāj, Yūsuf y Maṭar
al revisar su traducción.
6.- Título: Boscovich’s geometrical principle of continuity, and the “mysteries of the infinity”
Abstract
In this paper we give a detailed account of Boscovich's geometrical principle of continuity. We also compare his ideas with
those of his forerunners and successors, in order to cast some light on his possible sources of inspiration and to underline
the elements of novelty in his approach to the subject.
Resumen
En este artículo proporcionamos una descripción detallada del principio geométrico de continuidad de Boscovich. También
comparamos sus ideas con las de sus precursores y sucesores, para arrojar algo de luz sobre sus posibles fuentes de
inspiración y subrayar los elementos de lo novedoso en su enfoque del tema.
Análisis
Objetivo
En este artículo proporcionamos una descripción detallada del principio geométrico de continuidad de Boscovich.
Resultados
También comparamos sus ideas con las de sus precursores y sucesores, para arrojar algo de luz sobre sus posibles fuentes
de inspiración y subrayar los elementos de lo novedoso en su enfoque del tema.
7.- Título: Eugenio Beltrami’s courses on the analytic and mechanical theory of heat, II. Mechanical theory of heat
Abstract
In this paper, we examine unpublished notes of a course on thermodynamics delivered by Eugenio Beltrami. This course is
clearly influenced by Clausius's work and aims to present thermodynamics along the lines of rational mechanics, viewed as
both a sound foundation and a methodological model, where use of mathematical tools can help to understand delicate
points. The course contains also some lessons on the kinetic theory of gases where Beltrami never mentions probability
explicitly.
Resumen
En este artículo, examinamos notas no publicadas de un curso sobre termodinámica impartido por Eugenio Beltrami. Este
curso está claramente influenciado por el trabajo de Clausius y tiene como objetivo presentar la termodinámica a lo largo
de las líneas de la mecánica racional, vista como una base sólida y un modelo metodológico, donde el uso de herramientas
matemáticas puede ayudar a entender puntos delicados. El curso también contiene algunas lecciones sobre la teoría
cinética de los gases, donde Beltrami nunca menciona explícitamente la probabilidad.
Análisis
Objetivo
En este artículo, examinamos notas no publicadas de un curso sobre termodinámica impartido por Eugenio Beltrami.
Antecedentes
Este curso está claramente influenciado por el trabajo de Clausius y tiene como objetivo presentar la termodinámica a lo
largo de las líneas de la mecánica racional, vista como una base sólida y un modelo metodológico, donde el uso de
herramientas matemáticas puede ayudar a entender puntos delicados. El curso también contiene algunas lecciones sobre
la teoría cinética de los gases, donde Beltrami nunca menciona explícitamente la probabilidad.
Abstract
We trace the origins of trigonometry to the Old Babylonian era, between the 19th and 16th centuries B.C.E. This is well
over a millennium before Hipparchus is said to have fathered the subject with his ‘table of chords’. The main piece of
evidence comes from the most famous of Old Babylonian tablets: Plimpton 322, which we interpret in the context of the
Old Babylonian approach to triangles and their preference for numerical accuracy. By examining the evidence with this
mindset, and comparing Plimpton 322 with Madhava's table of sines, we demonstrate that Plimpton 322 is a powerful,
exact ratio-based trigonometric table.
Resumen
Rastreamos los orígenes de la trigonometría hasta la época de la antigua Babilonia, entre los siglos XIX y XVI A.C. Esto es
más de un milenio antes de que se diga que Hiparco fue el padre de esta con su "tabla de acordes". La evidencia principal
proviene de la más famosa de las tabletas de la Antigua Babilonia: Plimpton 322, que interpretamos en el contexto del
enfoque de los triángulos de la Antigua Babilonia y su preferencia por la precisión numérica. Al examinar la evidencia con
esta mentalidad, y al comparar Plimpton 322 con la tabla de senos de Madhava, demostramos que Plimpton 322 es una
tabla trigonométrica poderosa y exacta basada en la proporción.
Análisis
Objetivo
Rastreamos los orígenes de la trigonometría hasta la época de la antigua Babilonia, entre los siglos XIX y XVI A.C.
Antecedentes
Esto es más de un milenio antes de que se diga que Hiparco fue el padre de esta con su "tabla de acordes". La evidencia
principal proviene de la más famosa de las tabletas de la Antigua Babilonia: Plimpton 322, que interpretamos en el contexto
del enfoque de los triángulos de la Antigua Babilonia y su preferencia por la precisión numérica.
Conclusiones
Al examinar la evidencia con esta mentalidad, y al comparar Plimpton 322 con la tabla de senos de Madhava, demostramos
que Plimpton 322 es una tabla trigonométrica poderosa y exacta basada en la proporción.
9.- Título: On what has been called Leibniz’s rigorous foundation of infinitesimal geometry by means of Riemannian sums
Abstract
A number of scholars have recently maintained that a theorem in an unpublished treatise by Leibniz written in 1675
establishes a rigorous foundation for the infinitesimal calculus. I argue that this is a misinterpretation.
Resumen
Varios estudiosos han sostenido recientemente que un teorema en un tratado no publicado por Leibniz escrito en 1675
establece una base rigurosa para el cálculo infinitesimal. Yo sostengo que esto es una mala interpretación.
Análisis
Antecedentes
Varios estudiosos han sostenido recientemente que un teorema en un tratado no publicado por Leibniz escrito en 1675
establece una base rigurosa para el cálculo infinitesimal.
Objetivo
10.- Título: Strategical use(s) of arithmetic in Richard Dedekind and Heinrich Weber’s Theorie der algebraischen Funktionen
einer Veranderlichen
Arbeitsgruppe Didaktik und Geschichte der Mathematik, Bergische Universitat Wuppertal, Alemania
Abstract
In this paper, I study Richard Dedekind and Heinrich Weber's 1882 Theorie der algebraischen Funktionen einer
Veränderlichen, with a focus on the inherently arithmetical aspects of their work. I show that their paper provides an
arithmetical rewriting of Riemannian function theory, i.e. a rewriting built on elementary arithmetical notions such as
divisibility. I start with contextual elements concerning what is “arithmetical”, to put Dedekind and Weber's works into
perspective from that viewpoint. Then, through a detailed analysis of the 1882 paper and using elements of their
correspondence, I suggest that Dedekind and Weber deploy a strategy of rewriting parts of mathematics using arithmetic,
and that this strategy is essentially related to Dedekind's specific conception of numbers and arithmetic as intrinsically
linked to the human mind.
Resumen
En este artículo, estudio la Theorie der algebraischen Funktionen einer Veränderlichen de 1882 de Richard Dedekind y
Heinrich Weber, enfocándome en los aspectos inherentemente aritméticos de su trabajo. Muestro que su artículo
proporciona una reescritura aritmética de la teoría de la función riemanniana, es decir, una reescritura basada en nociones
aritméticas elementales, como la divisibilidad. Comienzo con elementos contextuales sobre lo que es "aritmética", para
poner las obras de Dedekind y Weber en perspectiva desde ese punto de vista. Luego, a través de un análisis detallado del
documento de 1882 y utilizando elementos de su correspondencia, sugiero que Dedekind y Weber implementen una
estrategia de reescritura de partes de las matemáticas usando la aritmética, y que esta estrategia está esencialmente
relacionada con la concepción específica de Dedekind de los números y la aritmética como Intrínsecamente vinculado a la
mente humana.
Análisis
Objetivo
En este artículo, estudio la Theorie der algebraischen Funktionen einer Veränderlichen de 1882 de Richard Dedekind y
Heinrich Weber,
Antecedentes
Muestro que su artículo proporciona una reescritura aritmética de la teoría de la función riemanniana, es decir, una
reescritura basada en nociones aritméticas elementales, como la divisibilidad.
Antecedentes
Comienzo con elementos contextuales sobre lo que es "aritmética", para poner las obras de Dedekind y Weber en
perspectiva desde ese punto de vista. Luego, a través de un análisis detallado del documento de 1882 y utilizando
elementos de su correspondencia,
Resultados
Sugiero que Dedekind y Weber implementen una estrategia de reescritura de partes de las matemáticas usando la
aritmética, y que esta estrategia está esencialmente relacionada con la concepción específica de Dedekind de los números
y la aritmética como Intrínsecamente vinculado a la mente humana.
KNOWLEDGE-BASED SYSTEMS
Es una revista que se centra en los sistemas que utilizan técnicas basadas en el conocimiento (KB) para apoyar la toma de
decisiones, el aprendizaje y la acción humana.
Cubre la implementación de dichos sistemas KB: proceso de diseño, modelos y métodos, herramientas de software,
mecanismos de apoyo a la toma de decisiones, interacciones del usuario, problemas organizativos, adquisición y
representación de conocimientos y arquitecturas de sistemas.
• Técnicas y metodologías de big data, sistemas de información basados en datos y adquisición de conocimiento.
Laboratorio de máquinas inteligentes, colegio de ciencias de la computción, Universidad de Sichuan, Chengdu, República
Popular China
Abstract
Quantitative analysis of cell mitosis, the process by which cells regenerate, is important in cell biology. Automatic cell
mitosis detection can greatly facilitate the investigation of cell life cycle. However, cell-type diversity, cell non-
rigid deformation and high cell density pose difficulties on handcrafting visual features for traditional approaches. Aided
by massively captured microscopy image sequences, deep neural networks have recently become available for automatic
cell mitosis detection. This paper proposes an end-to-end framework named as F3D-CNN for mitosis detection, and F3D-
CNN is directly trained from data without requiring designing domain dependent features. Well-trained F3D-CNN first
filters out potential mitosis events based on the static information in each individual image, and further discriminates
candidates by incorporating the spatiotemporal information from image sequences. The state-of-the-art performance of
F3D-CNN was confirmed in experiments on two public datasets (multipotent C3H10T1/2 mesenchymal stem cells and
C2C12 myoblastic stem cells).
Resumen
El análisis cuantitativo de la mitosis celular, el proceso por el cual las células se regeneran, es importante en biología celular.
La detección automática de mitosis celular puede en gran medida facilitar la investigación del ciclo de vida celular. Sin
embargo, la diversidad de tipos de células, la deformación celular no rigida y la alta densidad celular plantean dificultades
en las características visuales de la artesanía para los enfoques tradicionales. Con la ayuda de sucesiones masivas de
imágenes microscópicas, las redes neuronales profundas han estado disponibles recientemente para la detección
automática de mitosis celular. Este artículo propone un marco de extremo a extremo llamado F3D-CNN para la detección
de mitosis, F3D-CNN se alimenta directamente de los datos sin necesidad de las características que dependen del dominio.
Bien alimentado el F3D-CNN primero filtra los posibles eventos de mitosis basados en la información estática de cada
imagen individual y discrimina candidatos incorporando la información espacio-temporal de la sucesión de imágenes. El
rendimiento más moderno del F3D-CNN se confirmó en experimentos de dos conjuntos de datos públicos (multipotente
C3H10T1/2 mesenchyml células madre y C2C12 myoblastic células madre).
Análisis
Antecedentes
El análisis cuantitativo de la mitosis celular, el proceso por el cual las células se regeneran, es importante en biología celular.
La detección automática de mitosis celular puede en gran medida facilitar la investigación del ciclo de vida celular. Sin
embargo, la diversidad de tipos de células, la deformación celular no rigida y la alta densidad celular plantean dificultades
en las características visuales de la artesanía para los enfoques tradicionales. Con la ayuda de sucesiones masivas de
imágenes microscópicas, las redes neuronales profundas han estado disponibles recientemente para la detección
automática de mitosis celular.
Objetivo
Este artículo propone un marco de extremo a extremo llamado F3D-CNN para la detección de mitosis,
Resultados
F3D-CNN se alimenta directamente de los datos sin necesidad de las características que dependen del dominio. Bien
alimentado el F3D-CNN primero filtra los posibles eventos de mitosis basados en la información estática de cada imagen
individual y discrimina candidatos incorporando la información espacio-temporal de la sucesión de imágenes.
Conclusiones
El rendimiento más moderno del F3D-CNN se confirmó en experimentos de dos conjuntos de datos públicos (multipotente
C3H10T1/2 mesenchyml células madre y C2C12 myoblastic células madre).
Introduction
Cell mitosis is a complex process by which mature cells produce next-generation cells. During this process, the ancestor
cell´s membrane divides to form two new cells, and its genetic material is duplicated and evenly distributed. To measure
cell proliferation and analyze the cells´ responses to various stimuli, cell biologists usually perform tedious and time-
consuming procedures in wet laboratorios. In particular, they monitor cells over time to collect informative data, then study
the cell dynamics. However, modern microscopy image capture systems can automatically and regularly take images of the
monitored cells. Using computer visión based approaches, cell mitosis can be studied from a large volumen of collected
high-quality biomedical data without intervening with cells processes. Apparently, there is a keen requirement for
automatic and robust approaches that can detect the time and location of cells mitosis events from given image sequences.
As cells undergo non-rigid deformations, and are generally diverse and densely packed, developing efficient cell mitosis
detection approaches remains a challenging problema.
Deep neural networks (DNNs) have achieved state-of-the-art performance in various tasks, as they can automatically learn
representative features from high-dimensional data. With representation learning, the performance of data-driven mitosis
detection from histology images has been improved. Convolutional neural networks (CNNs), which constitute one class of
DNNs, differ from traditional multilayer perceptrons (MLPs) by employing local conectivity and shared weights to reduce
the number of free parameters, thereby preventing over-fitting problems. In microscopy images, modeling spatiotemporal
features are important for mitosis detection rather than only focus on static features. In 3D convolutional neural networks
(3D-CNNs), the extended 3D convolutional kernels can process temporal data, e.g., human actions can be recognized from
image sequences. In typical CNN-based applications, high-dimensional input images or image sequences are mapped into
(usually) simple result labels such as classification tasks. Fully convolutional networks (FCNs) include up-sampling layers
that perform image-to-image prediction. The network output of an FCN can be sized identically to the input images. CNN
and its variants offer several advantages in cell mitosis detection. First, they automatically learn robust features from raw
data, avoiding the need for domain dependent feature designing. Second, 3D-CNNs can efficiently capture both spatial and
temporal features simultaneously, Finally, CNNs can be easily parallelized on computing platforms with graphical
processing units (GPUs) for efficient computing.
In order to automatically detect cell mitosis events from microscopy image, by combining FCNs and 3D-CNNs, this paper
proposes a deep neural network named as F3D-CNN. F3D-CNN comprises two stages: candidate detection and mitosis
discrimination. In the candidate detection stage, after learning static features of cell mitosis events in a supervised manner,
FCNs retrieve áreas, where contain potential cell mitosis events, from individual microscopy images. As cell mitosis
processes usually span several consecutive images, a positive mitosis event can only be concluded after considering both
spatial and temporal information from adjacent image frames. In the mitosis discrimination stage, previous detected
candidates are further discriminated by 3D-CNNs. The proposed F3D-CNN relaxes the requirement of manual feature
designing and selection, as it can automatically learn robust and representative features, including the static, spatial, and
temporal ones, directly fro captured data. As F3D-CNN is an end-to-end solution, it is applicable given any type of cell and
image capturing equipment without tedious feature designing and parameter tuning. After training, the time efficiency of
F3D-CNN meets the requirement for realtime microscopy image processing, because feed-forward computation is always
efficient. The performance of F3D-CNN, including the precisión of position and time of finally detect mitosis events, has
been empirically verified on a publicly available dataset of microscopy image sequences, and a comparison study with other
methods has also been conducted. Experimental results indicate that F3D-CNN outperforms state-of-the-art approaches.
The rest of this paper is organized as follows. Section 2 reviews and discusses related Works, and Section 3 briefly introduces
the basic models of the proposed framework. The details of F3D-CNN, including the candidate detection and mitosis
discrimination stages and the practical considerations, are presented in Section 4. Section 5 conducts a thorough empirical
study and a comparison study on publicly available datasets, and analyses the results. The paper concludes with Section 6.
Introducción
La mitosis celular es un proceso complejo por el cual las células maduras producen la próxima generación de células.
Durante este proceso, la membrana de la célula madura se divide para formar dos nuevas células, y su material genético
se duplica y distribuye uniformemente. Para medir el incremento de células y analizar las respuestas celulares a diversos
estímulos, los biólogos celulares usualmente realizan tediosos procedimientos en laboratorios que consumen tiempo. En
particular supervisan las células a lo largo del tiempo para reunir datos informativos, luego estudian la dinámica celular.
Los sistemas de captura de imágenes microscópicas pueden tomar de manera automática y regular imágenes de las células
monitoreadas. Usando técnicas basadas en visión por ordenador, la mitosis celular puede ser estudiada de un gran número
de datos biomédicos de alta calidad sin intervenir en los procesos celulares. Aparentemente, hay una condición con técnicas
automáticas y robustas para poder detectar el momento y localización de la mitosis celular en una sucesión de imágenes.
Como las células experimentan deformaciones no rígidas y son generalmente empaquetadas de distintas formas y en
diversas densidades, desarrollar técnicas eficientes de detección de mitosis de células sigue siendo un problema desafiante.
Las redes neuronales profundas (DNN) han logrado un rendimiento de vanguardia en diversas tareas, ya que pueden
determinar características representativas de datos en alta dimensión. Con aprendizaje de representación, se ha mejorado
el rendimiento de la detección de mitosis en la unidad de datos a partir de imágenes histológicas. Las redes neuronales
convolucionales (CNN), las cuales constituyen una clase de redes neuronales profundas, difieren de los perceptrones
multicapa tradicionales por emplear conectividad local y pesos compartidos para reducir el número de parámetros libres,
evitando así muchos problemas. En imágenes microscópicas, el modelado de características espacio-temporales es
importante para la detección de mitosis, no concentrándose solamente en las características estáticas. En redes neuronales
convolucionales 3D (3D-CNN), los núcleos convolucionales 3D extendidos pueden procesar datos temporales, es decir,
ciertas acciones se pueden conocer a partir de secuencias de imágenes. En aplicaciones típicas basadas en CNN, imágenes
de entrada de alta dimensión o sucesiones de imágenes se asignan etiquetas de resultados simples, como forma de
clasificación. Las redes totalmente convolucionadas (FCN) incluyen capas de muestreo ascendente que realizan
predicciones imagen a imagen. Las redes de salida de un FCN pueden ser de tamaño idéntico a las imágenes de salida. Las
CNN y sus variantes ofrecen varias ventajas en detección de mitosis celular. Primero, automáticamente aprenden
características robustas de datos en bruto, evitando la necesidad de diseño de características dependientes del dominio.
Segundo, las 3D-CNNs pueden capturar de manera eficiente características espaciales y temporales simultáneamente.
Finalmente, se pueden paralizar fácilmente en plataformas de cómputo con unidades de procesamiento gráfico (GPU) para
cálculos eficientes.
Para detectar automáticamente eventos de mitosis celular desde imágenes microscópicas combinando FCNs y 3D-CNNs,
este artículo propone una red neuronal profunda llamada F3D-CNN. F3D-CNN comprende dos etapas: Detección de
candidatos y discriminación de mitosis. En la etapa de detección de candidatos después de aprender las características
estáticas de los eventos de mitosis celular de forma supervisada, FCNs determina áreas con eventos potenciales de mitosis
celular, a partir de las imágenes individuales. Como los procesos de mitosis celular pueden abarcar varias imágenes
consecutivas, un evento de mitosis positivo solo se puede concluir después de considerar información tanto espacial como
temporal desde marcos de imágenes adyacentes. En la etapa de discriminación de mitosis, primero se detectan los
candidatos más discriminados por 3D-CNNs. El F3D-CNN propuesto facilita la selección manual de las condiciones, ya que
puede aprender automáticamente características robustas y representativas, incluyendo las estáticas espaciales y
temporales, directamente desde los datos capturados. Como F3D-CNN es una solución de extremo a extremo, es aplicable
dado cualquier tipo de equipo de captura de células e imágenes sin el diseño tedioso de características y el ajuste de
parámetros. Después del entrenamiento, la eficiencia de tiempo de F3D-CNN cumple con el requisito de procesamiento de
imágenes microscópicas en tiempo real, porque el cálculo de avance es siempre eficiente. El rendimiento de F3D-CNN,
incluyendo la precisión de posición y el tiempo en detectar eventos de mitosis, ha sido verificado empíricamente en un
conjunto de datos públicamente disponibles de secuencias de imágenes microscópicas y un estudio comparativo con otros
métodos que se han realizado. Los resultados experimentales indican que F3D-CNN supera las técnicas actuales.
El resto de este artículo esta organizado como sigue. La sección 2 revisa y discute trabajos similares, y en la sección 3 se
introducen los modelos básicos del entorno de trabajo propuesto. Los detalles de F3D-CNN, incluyendo la detección del
candidato, las etapas de la discriminación de mitosis y las consideraciones prácticas, se presentan en la sección 4. En la
sección 5 se realiza un estudio empírico minucioso utilizando datos conocidos públicamente, se realiza un estudio
comparativo con otros métodos que también se han utilizado y se analizan los resultados. El artículo concluye con la sección
6.
Análisis
Antecedentes
La mitosis celular es un proceso complejo por el cual las células maduras producen la próxima generación de células.
Durante este proceso, la membrana de la célula madura se divide para formar dos nuevas células, y su material genético
se duplica y distribuye uniformemente.
Para medir el incremento de células y analizar las respuestas celulares a diversos estímulos, los biólogos celulares
usualmente realizan tediosos procedimientos en laboratorios que consumen tiempo. En particular supervisan las células a
lo largo del tiempo para reunir datos informativos, luego estudian la dinámica celular. Los sistemas de captura de imágenes
microscópicas pueden tomar de manera automática y regular imágenes de las células monitoreadas. Usando técnicas
basadas en visión por ordenador, la mitosis celular puede ser estudiada de un gran número de datos biomédicos de alta
calidad sin intervenir en los procesos celulares. Aparentemente, hay una condición con técnicas automáticas y robustas
para poder detectar el momento y localización de la mitosis celular en una sucesión de imágenes. Como las células
experimentan deformaciones no rígidas y son generalmente empaquetadas de distintas formas y en diversas densidades,
desarrollar técnicas eficientes de detección de mitosis de células sigue siendo un problema desafiante.
Relación del objeto de estudio con el medio
Las redes neuronales profundas (DNN) han logrado un rendimiento de vanguardia en diversas tareas, ya que pueden
determinar características representativas de datos en alta dimensión. Con aprendizaje de representación, se ha mejorado
el rendimiento de la detección de mitosis en la unidad de datos a partir de imágenes histológicas. Las redes neuronales
convolucionales (CNN), las cuales constituyen una clase de redes neuronales profundas, difieren de los perceptrones
multicapa tradicionales por emplear conectividad local y pesos compartidos para reducir el número de parámetros libres,
evitando así muchos problemas. En imágenes microscópicas, el modelado de características espacio-temporales es
importante para la detección de mitosis, no concentrándose solamente en las características estáticas. En redes neuronales
convolucionales 3D (3D-CNN), los núcleos convolucionales 3D extendidos pueden procesar datos temporales, es decir,
ciertas acciones se pueden conocer a partir de secuencias de imágenes. En aplicaciones típicas basadas en CNN, imágenes
de entrada de alta dimensión o sucesiones de imágenes se asignan etiquetas de resultados simples, como forma de
clasificación. Las redes totalmente convolucionadas (FCN) incluyen capas de muestreo ascendente que realizan
predicciones imagen a imagen. Las redes de salida de un FCN pueden ser de tamaño idéntico a las imágenes de salida.
Justificación
Las CNN y sus variantes ofrecen varias ventajas en detección de mitosis celular. Primero, automáticamente aprenden
características robustas de datos en bruto, evitando la necesidad de diseño de características dependientes del dominio.
Segundo, las 3D-CNNs pueden capturar de manera eficiente características espaciales y temporales simultáneamente.
Finalmente, se pueden paralizar fácilmente en plataformas de cómputo con unidades de procesamiento gráfico (GPU) para
cálculos eficientes.
Propuesta
Para detectar automáticamente eventos de mitosis celular desde imágenes microscópicas combinando FCNs y 3D-CNNs,
este artículo propone una red neuronal profunda llamada F3D-CNN. F3D-CNN comprende dos etapas: Detección de
candidatos y discriminación de mitosis. En la etapa de detección de candidatos después de aprender las características
estáticas de los eventos de mitosis celular de forma supervisada, FCNs determina áreas con eventos potenciales de mitosis
celular, a partir de las imágenes individuales. Como los procesos de mitosis celular pueden abarcar varias imágenes
consecutivas, un evento de mitosis positivo solo se puede concluir después de considerar información tanto espacial como
temporal desde marcos de imágenes adyacentes. En la etapa de discriminación de mitosis, primero se detectan los
candidatos más discriminados por 3D-CNNs. El F3D-CNN propuesto facilita la selección manual de las condiciones, ya que
puede aprender automáticamente características robustas y representativas, incluyendo las estáticas espaciales y
temporales, directamente desde los datos capturados. Como F3D-CNN es una solución de extremo a extremo, es aplicable
dado cualquier tipo de equipo de captura de células e imágenes sin el diseño tedioso de características y el ajuste de
parámetros. Después del entrenamiento, la eficiencia de tiempo de F3D-CNN cumple con el requisito de procesamiento de
imágenes microscópicas en tiempo real, porque el cálculo de avance es siempre eficiente. El rendimiento de F3D-CNN,
incluyendo la precisión de posición y el tiempo en detectar eventos de mitosis, ha sido verificado empíricamente en un
conjunto de datos públicamente disponibles de secuencias de imágenes microscópicas y un estudio comparativo con otros
métodos que se han realizado. Los resultados experimentales indican que F3D-CNN supera las técnicas actuales.
El resto de este artículo esta organizado como sigue. La sección 2 revisa y discute trabajos similares, y en la sección 3 se
introducen los modelos básicos del entorno de trabajo propuesto. Los detalles de F3D-CNN, incluyendo la detección del
candidato, las etapas de la discriminación de mitosis y las consideraciones prácticas, se presentan en la sección 4. En la
sección 5 se realiza un estudio empírico minucioso utilizando datos conocidos públicamente, se realiza un estudio
comparativo con otros métodos que también se han utilizado y se analizan los resultados. El artículo concluye con la
sección 6.
Abstract
Autoencoders are neural networks which perform feature learning on data. Many variants can be found in the literature,
but their implementations are scarce, in separate software pieces and utilizing different languages and frameworks.
The ruta package implements a unified foundation for the construction and training of autoencoders on top of Keras and
Tensorflow, and allows for easy access to the main functionalities as well as full customization of their diverse aspects.
Resumen
Los autocodificadores son redes neuronales que interpretan las características del aprendizaje de datos. Se pueden
encontrar muchas variantes en la literatura, pero sus implementaciones son escasas, en piezas de software separadas y
que utilizan diferentes lenguajes y marcos. El paquete de ruta implementa una base unificada para la construcción y
capacitación de codificadores automáticos sobre Keras y Tensorflow, y permite un fácil acceso a las funciones principales,
así como la personalización completa de sus diversos aspectos.
Análisis
Antecedentes
Los autocodificadores son redes neuronales que interpretan las características del aprendizaje de datos. Se pueden
encontrar muchas variantes en la literatura, pero sus implementaciones son escasas, en piezas de software separadas y
que utilizan diferentes lenguajes y marcos.
Resultados
El paquete de ruta implementa una base unificada para la construcción y capacitación de codificadores automáticos sobre
Keras y Tensorflow, y permite un fácil acceso a las funciones principales, así como la personalización completa de sus
diversos aspectos.
3.- Título: Extracting geographic features from the Internet: A geographic information mining framework
Autor: Ying Zhang1, Qunfei Ma1, Yao-Yi Chiang2, Craig Koblock2, Xin Zhang3, Puhai Yang1, Minghe Gao1, Xiang Hu1
1) Escuela de Control e Ingeniería Computacional, Universidad de Potencia Eléctrica Norte de China, Beijing, China
2) Colegio Dana y David Dornsife de artes y ciencias, Universidad del Sur de California, Estados Unidos
3) Escuela de Ciencia Computacional y Tecnología, Universidad Changchun de Ciencia y Tecnología, Changchun,
China
Abstract
In this paper, we propose a Geographic Information Mining framework to contribute some exploratory results concerning
harvesting the featured place information entities from the Web. In the framework, we suggest an iterative geographic
information mining model reflecting the data evolution along the mining process. Associating the iterations, we propose a
set of methodologies and integrate them into the processing onto solving the critical issues concerning collecting data,
filtering irrelevant samples and extracting featured entities. According to the experiments, the contribution brings in a
sound systematic solution to enrich the existing digital gazetteers as complete as Google Maps.
Resumen
En este documento, proponemos un marco de Minería de Información Geográfica para contribuir con algunos resultados
exploratorios relacionados con la recolección de las entidades de información de lugares destacados de la Web. En el
marco, sugerimos un modelo iterativo de extracción de información geográfica que refleje la evolución de los datos a lo
largo del proceso de extracción. Al asociar las iteraciones, proponemos un conjunto de metodologías y las integramos en
el procesamiento para resolver los problemas críticos relacionados con la recopilación de datos, el filtrado de muestras
irrelevantes y la extracción de entidades destacadas. Según los experimentos, la contribución trae una solución sistemática
sólida para enriquecer los boletines digitales existentes tan completos como Google Maps.
Análisis
Objetivo
En este documento, proponemos un marco de Minería de Información Geográfica para contribuir con algunos resultados
exploratorios relacionados con la recolección de las entidades de información de lugares destacados de la Web.
Resultados
En el marco, sugerimos un modelo iterativo de extracción de información geográfica que refleje la evolución de los datos
a lo largo del proceso de extracción. Al asociar las iteraciones, proponemos un conjunto de metodologías y las integramos
en el procesamiento para resolver los problemas críticos relacionados con la recopilación de datos, el filtrado de muestras
irrelevantes y la extracción de entidades destacadas.
Conclusiones
Según los experimentos, la contribución trae una solución sistemática sólida para enriquecer los boletines digitales
existentes tan completos como Google Maps.
4.- Título: Bayesian inference for the automated adjustment of an image segmentation pipeline – A modular approach
applied to wound healing assays
Abstract
Background:
Dynamical biological and physiological processes as the migration of single cells, collective cell movement during tissue
formation or the metastasis of tumors can nowadays be observed under in-vitro and in-vivo conditions. High temporal
and spatial resolution require automated image segmentation and analysis. Although, open source and commercial
software allow the segmentation of target regions, all parameters of an appropriate image processing algorithm have to
be adapted manually by the user. Typically the experimenter knows details about the resulting images whereas he might
not be trained to adapt parameters of segmentation algorithms.
Methods:
It is the aim of this study to provide an automated estimation of these parameters by applying Bayesian data analysis based
on a single manually segmented image for calibration. We apply this technique to a temporal sequence of images showing
the closing of a wound. The corresponding likelihood is given as difference between the manually segmented contour of
the wound and the resulting model boundary of the segmentation process. We apply a typical segmentation pipeline
consisting of an edge filter, a blurring filter and an area cut off process where six parameters control these
operations. Bayesian multinested sampling algorithm is applied to estimate automatically these image pipeline parameters
and their uncertainties.
Results:
The proposed algorithm is logically consistent and performs image segmentation with a high level of accuracy especially
with regard to inter-observer variability in the input data. Further, Bayesian data analysis allows to estimate the uncertainty
of the segmented wound area and of the velocity of the closing boundary.
Conclusion:
We were able to introduce a new approach for automated image segmentation, which produces excellent results in terms
of ease of handling, preservation of expert knowledge, robustness and displaying its own uncertainties. Due to a broadly
modular approach, the presented technique can also be applied to other processing pipelines offering a pragmatic and
robust way to obtain an automated segmentation of biomedical data driven by the prior knowledge and information
specified by the experimenter.
Resumen
Antecedentes
En la actualidad, se pueden observar procesos biológicos y fisiológicos dinámicos como la migración de células individuales,
el movimiento celular colectivo durante la formación de tejidos o la metástasis de tumores en condiciones in vitro e in vivo.
La alta resolución temporal y espacial requiere segmentación y análisis de imágenes automatizados. Si bien el software de
código abierto y comercial permite la segmentación de las regiones objetivo, todos los parámetros de un algoritmo de
procesamiento de imágenes apropiado deben ser adaptados manualmente por el usuario. Normalmente, el
experimentador conoce detalles sobre las imágenes resultantes, mientras que puede que no esté capacitado para adaptar
los parámetros de los algoritmos de segmentación.
Objetivo
El objetivo de este estudio es proporcionar una estimación automatizada de estos parámetros mediante la aplicación del
análisis de datos Bayesiano basado en una única imagen segmentada manualmente para la calibración.
Metodología
Aplicamos esta técnica a una secuencia temporal de imágenes que muestran el cierre de una herida. La probabilidad
correspondiente se proporciona como diferencia entre el contorno segmentado manualmente de la herida y el límite del
modelo resultante del proceso de segmentación. Aplicamos una tubería de segmentación típica que consiste en un filtro
de borde, un filtro de desenfoque y un proceso de corte de área donde seis parámetros controlan estas operaciones. Se
aplica el algoritmo de muestreo Bayesian multinested para estimar automáticamente estos parámetros de canalización de
imagen y sus incertidumbres.
Resultados
El algoritmo propuesto es lógicamente consistente y realiza una segmentación de imágenes con un alto nivel de precisión,
especialmente con respecto a la variabilidad interobservador en los datos de entrada. Además, el análisis de datos
bayesianos permite estimar la incertidumbre del área de la herida segmentada y de la velocidad del límite de cierre.
Conclusiones
Pudimos introducir un nuevo enfoque para la segmentación automatizada de imágenes, que produce excelentes resultados
en términos de facilidad de manejo, preservación del conocimiento experto, solidez y mostrando sus propias
incertidumbres. Debido a un enfoque ampliamente modular, la técnica presentada también se puede aplicar a otras
tuberías de procesamiento que ofrecen una manera pragmática y robusta de obtener una segmentación automatizada de
datos biomédicos impulsada por el conocimiento previo y la información especificada por el experimentador.
5.- Título: Deep recurrent neural network for geographical entities disambiguation on social media data
Autor: Cristina Zuheros, Siham Tabik, Ana Valdivia, Eugenio Martínez-Cámara, Francisco Herrera
Instituto de Investigación Andalusiana en Ciencia de los datos e Inteligencia Computacional, Universidad de Granada,
España
Abstract
A particular challenge in Natural Language Processing is the disambiguationof polysemic words. The great availability,
diversity and the speed of changing of the data from on-line sources force the development of disambiguation systems
with a reduced dependency on linguistic resources. We argue that the contextual neural encoding of a specific entity avoids
the need of using external linguistic resources like knowledge bases. Hence, we propose a neural network architecture
grounded in the use of Long Short-Term Memory Recurrent Neural Network for encoding the context of a target
geographical entity, specifically Two k-Contextual Windows model for the disambiguation of the geographical
entity Granada. We generate two annotated corpora of texts from social media written in English and Spanish, which we
use to evaluate our proposal. The results show that our claim holds.
Resumen
Un desafío particular en el procesamiento del lenguaje natural es la desambiguación de las palabras polisémicas. La gran
disponibilidad, la diversidad y la velocidad de cambio de los datos en las fuentes en línea obligan al desarrollo de sistemas
de desambiguación con una dependencia reducida de los recursos lingüísticos. Argumentamos que la codificación neural
contextual de una entidad específica evita la necesidad de utilizar recursos lingüísticos externos como bases de
conocimiento. Por lo tanto, proponemos una arquitectura de red neuronal basada en el uso de la red neuronal recurrente
de memoria a largo plazo para codificar el contexto de una entidad geográfica objetivo, específicamente el modelo de dos
ventanas contextuales k para la desambiguación de la entidad geográfica Granada. Generamos dos cuerpos de textos de
medios sociales escritos en inglés y español, que utilizamos para evaluar nuestra propuesta. Los resultados muestran que
nuestra afirmación se mantiene.
Análisis
Un desafío particular en el procesamiento del lenguaje natural es la desambiguación de las palabras polisémicas. La gran
disponibilidad, la diversidad y la velocidad de cambio de los datos en las fuentes en línea obligan al desarrollo de sistemas
de desambiguación con una dependencia reducida de los recursos lingüísticos. Argumentamos que la codificación neural
contextual de una entidad específica evita la necesidad de utilizar recursos lingüísticos externos como bases de
conocimiento. Por lo tanto, proponemos una arquitectura de red neuronal basada en el uso de la red neuronal recurrente
de memoria a largo plazo para codificar el contexto de una entidad geográfica objetivo, específicamente el modelo de dos
ventanas contextuales k para la desambiguación de la entidad geográfica Granada. Generamos dos cuerpos de textos de
medios sociales escritos en inglés y español, que utilizamos para evaluar nuestra propuesta. Los resultados muestran que
nuestra afirmación se mantiene.
6.- Título: Reinforcement learning in learning automata and celular learning automata via multiple reinforcement signals
Abstract
Many scientific and engineering problems are decentralized in nature. Various distributed approaches have been
developed for solving these problems, and among them, cellular learning automaton has demonstrated to be an effective
model for systems consisting of a large number of interacting components. In the cellular learning automata approach,
each such component is modeled by a learning automaton. The learning automaton associated with a component aims to
learn the action which best suites with its neighboring components. This objective becomes more challenging when the
automaton is required to find the optimal subset of its available actions. The common learning automata algorithms can
deal with this problem by considering all combinations of their allowable actions as new action sets. However, this
approach is only applicable for small action spaces. The current work extends some common learning automata algorithms
so that they can efficiently learn the optimal subset of their actions through parallel reinforcements. These parallel
reinforcements represent the favorability of each action in the performed subset of actions; consequently, the learning
automaton would be able to learn the effectiveness of each action individually. By integrating the new LA models in a
cellular learning automaton, each component of the system is able to interact with its neighbors simultaneously via multiple
actions. In order to investigate the effectiveness of the proposed models, their applicability on a channel assignment
problem is investigated experimentally. The achieved results demonstrate the efficiency of the proposed multi-
reinforcement learning schemes.
Resumen
Muchos problemas científicos y de ingeniería están descentralizados en la naturaleza. Se han desarrollado varios enfoques
distribuidos para resolver estos problemas, y entre ellos, el autómata de aprendizaje celular ha demostrado ser un modelo
eficaz para sistemas que constan de un gran número de componentes que interactúan. En el enfoque de autómatas de
aprendizaje celular, cada uno de estos componentes está modelado por un autómata de aprendizaje. El autómata de
aprendizaje asociado con un componente apunta a aprender la acción que mejor combina con sus componentes vecinos.
Este objetivo se vuelve más desafiante cuando se requiere que el autómata encuentre el subconjunto óptimo de sus
acciones disponibles. Los algoritmos comunes de autómatas de aprendizaje pueden resolver este problema considerando
todas las combinaciones de sus acciones permitidas como nuevos conjuntos de acciones. Sin embargo, este enfoque solo
es aplicable para espacios de acción pequeños. El trabajo actual extiende algunos algoritmos de autómatas de aprendizaje
comunes para que puedan aprender de manera eficiente el subconjunto óptimo de sus acciones a través de refuerzos
paralelos. Estos refuerzos paralelos representan lo favorable de cada acción en el subconjunto de acciones realizadas. En
consecuencia, el autómata de aprendizaje podría aprender la efectividad de cada acción individualmente. Al integrar los
nuevos modelos de LA en un autómata de aprendizaje celular, cada componente del sistema puede interactuar con sus
vecinos simultáneamente a través de múltiples acciones. Para investigar la efectividad de los modelos propuestos, se
investiga experimentalmente su aplicabilidad en un problema de asignación de canales. Los resultados obtenidos
demuestran la eficiencia de los esquemas de aprendizaje de refuerzo múltiple propuestos.
Análisis
Antecedentes
Muchos problemas científicos y de ingeniería están descentralizados en la naturaleza. Se han desarrollado varios enfoques
distribuidos para resolver estos problemas, y entre ellos, el autómata de aprendizaje celular ha demostrado ser un modelo
eficaz para sistemas que constan de un gran número de componentes que interactúan. En el enfoque de autómatas de
aprendizaje celular, cada uno de estos componentes está modelado por un autómata de aprendizaje. El autómata de
aprendizaje asociado con un componente apunta a aprender la acción que mejor combina con sus componentes vecinos.
Este objetivo se vuelve más desafiante cuando se requiere que el autómata encuentre el subconjunto óptimo de sus
acciones disponibles. Los algoritmos comunes de autómatas de aprendizaje pueden resolver este problema considerando
todas las combinaciones de sus acciones permitidas como nuevos conjuntos de acciones. Sin embargo, este enfoque solo
es aplicable para espacios de acción pequeños. El trabajo actual extiende algunos algoritmos de autómatas de aprendizaje
comunes para que puedan aprender de manera eficiente el subconjunto óptimo de sus acciones a través de refuerzos
paralelos. Estos refuerzos paralelos representan lo favorable de cada acción en el subconjunto de acciones realizadas.
Objetivo
En consecuencia, el autómata de aprendizaje podría aprender la efectividad de cada acción individualmente. Al integrar los
nuevos modelos de LA en un autómata de aprendizaje celular, cada componente del sistema puede interactuar con sus
vecinos simultáneamente a través de múltiples acciones.
Resultados
Para investigar la efectividad de los modelos propuestos, se investiga experimentalmente su aplicabilidad en un problema
de asignación de canales.
Conclusiones
Los resultados obtenidos demuestran la eficiencia de los esquemas de aprendizaje de refuerzo múltiple propuestos.
7.- Título: Evolutionary clustering via graph regularized nonnegative matrix factorization for exploring temporal networks
Abstract
Evolutionary clustering is a classic and helpful framework for modeling dynamic data and has been devoted to analyzing
the temporal networks recently. However, all methods based on evolutionary clustering either does not directly model the
evolution, predict the varying of dynamic communities, deal with the case of the time-varying number of communities or
have a high computational complexity and are not easily extended, which limits the applications for exploring the dynamic
networks. In this paper, we propose a new novel framework of Evolutionary Clustering based on Graph regularized
Nonnegative Matrix Factorization (ECGNMF), to detect dynamic communities and the evolution patterns and predict the
varying structure across the temporal networks. More concretely, we construct a generated model to fit the observed
snapshot networks based on nonnegative matrix factorization (NMF). Any one of series intuitive and interpretable penalty
items as we denoted could be integrated into the proposed framework via a graph regularization way, which can be
optimized efficiently and model changes of the number of communities across different snapshots of temporal networks.
We also detect the evolution patterns of the dynamic communities in the temporal networks in a principled
manner. Experimental results show that our framework has better performance on community detection in temporal
networks compared to some widely used models based on evolutionary clustering and heuristic methods.
Resumen
El clustering evolutivo es un marco clásico y útil para modelar datos dinámicos y se ha dedicado recientemente a analizar
las redes temporales. Sin embargo, todos los métodos basados en agrupamientos evolutivos no modelan directamente la
evolución, predicen la variedad de comunidades dinámicas, tratan el caso del número variable de comunidades en el
tiempo o tienen una alta complejidad computacional y no son fáciles de extender, lo que limita las aplicaciones para
explorar las redes dinámicas. En este artículo, proponemos un marco novedoso de Clustering Evolutivo basado en
Factorización de Matriz No Negativa regularizada por Gráficos (ECGNMF), para detectar comunidades dinámicas y los
patrones de evolución y predecir la estructura variable a través de las redes temporales. Más concretamente, construimos
un modelo generado para ajustarse a las redes instantáneas observadas basadas en la factorización de matriz no negativa
(NMF). Cualquiera de los elementos de penalización intuitiva e interpretable de la serie, como hemos indicado, podría
integrarse en el marco propuesto mediante una forma de regularización gráfica, que se puede optimizar de manera
eficiente y modelar los cambios de la cantidad de comunidades en diferentes instantáneas de redes temporales. También
detectamos los patrones de evolución de las comunidades dinámicas en las redes temporales de una manera basada en
principios. Los resultados experimentales muestran que nuestro marco tiene un mejor rendimiento en la detección de
comunidades en redes temporales en comparación con algunos modelos ampliamente utilizados basados en agrupaciones
evolutivas y métodos heurísticos.
Análisis
Antecedentes
El clustering evolutivo es un marco clásico y útil para modelar datos dinámicos y se ha dedicado recientemente a analizar
las redes temporales. Sin embargo, todos los métodos basados en agrupamientos evolutivos no modelan directamente la
evolución, predicen la variedad de comunidades dinámicas, tratan el caso del número variable de comunidades en el
tiempo o tienen una alta complejidad computacional y no son fáciles de extender, lo que limita las aplicaciones para
explorar las redes dinámicas.
Metodología
En este artículo, proponemos un marco novedoso de Clustering Evolutivo basado en Factorización de Matriz No Negativa
regularizada por Gráficos (ECGNMF),
Objetivo
Para detectar comunidades dinámicas y los patrones de evolución y predecir la estructura variable a través de las redes
temporales.
Resultados
Más concretamente, construimos un modelo generado para ajustarse a las redes instantáneas observadas basadas en la
factorización de matriz no negativa (NMF). Cualquiera de los elementos de penalización intuitiva e interpretable de la serie,
como hemos indicado, podría integrarse en el marco propuesto mediante una forma de regularización gráfica, que se puede
optimizar de manera eficiente y modelar los cambios de la cantidad de comunidades en diferentes instantáneas de redes
temporales. También detectamos los patrones de evolución de las comunidades dinámicas en las redes temporales de una
manera basada en principios.
Conclusiones
Los resultados experimentales muestran que nuestro marco tiene un mejor rendimiento en la detección de comunidades
en redes temporales en comparación con algunos modelos ampliamente utilizados basados en agrupaciones evolutivas y
métodos heurísticos.
8.- Título: Structured apprximations as a basis for three-way decisions in rough set theory
Abstract
A major application of rough set theory is concept analysis for deciding if an object is an instance of a concept based on its
description. Objects with the same description form an equivalence class and the family of equivalence classes is used to
define rough set approximations. When deriving the decision rules from approximations, the description of an equivalence
class is the left-hand-side of a decision rule. Therefore, it is useful to retain structural information of approximations, that
is, the composition of an approximation in terms of equivalence classes. However, existing studies do not explicitly consider
the structural information. To address this issue, we introduce structured rough set approximations in both complete and
incomplete information tables, which serve as a basis for three-way decisions with rough sets. In a complete table, we
define a family of conjunctively definable concepts. The structured three-way approximations are three structured positive,
boundary and negative regions given by three sets of conjunctively definable concepts. By adopting a possible-world
semantics, we introduce the notion of conjunctively definable interval concepts in an incomplete table, which is used to
construct the structured three-way approximations. The internal structure of structured approximations contributes to
sound semantics of rough set approximations and is directly and explicitly related to three-way decision rules.
Resumen
Una aplicación importante de la teoría de conjuntos aproximados es el análisis de conceptos para decidir si un objeto es
una instancia de un concepto basado en su descripción. Los objetos con la misma descripción forman una clase de
equivalencia y la familia de clases de equivalencia se usa para definir aproximaciones de conjuntos aproximados. Cuando
se derivan las reglas de decisión a partir de aproximaciones, la descripción de una clase de equivalencia es el lado izquierdo
de una regla de decisión. Por lo tanto, es útil retener información estructural de aproximaciones, es decir, la composición
de una aproximación en términos de clases de equivalencia. Sin embargo, los estudios existentes no consideran
explícitamente la información estructural. Para abordar este problema, introducimos aproximaciones estructuradas de
conjuntos aproximados en tablas de información completas e incompletas, que sirven de base para decisiones de tres vías
con conjuntos aproximados. En una tabla completa, definimos una familia de conceptos que se pueden definir de manera
conjuntiva. Las aproximaciones estructuradas de tres vías son tres regiones estructuradas positivas, límite y negativas dadas
por tres conjuntos de conceptos que se pueden definir de manera conjuntiva. Al adoptar una semántica del mundo posible,
introducimos la noción de conceptos de intervalos definibles de manera conjuntiva en una tabla incompleta, que se utiliza
para construir las aproximaciones estructuradas de tres vías. La estructura interna de las aproximaciones estructuradas
contribuye a una semántica sólida de aproximaciones de conjuntos aproximados y está directa y explícitamente relacionada
con las reglas de decisión de tres vías.
Análisis
Antecedentes
Una aplicación importante de la teoría de conjuntos aproximados es el análisis de conceptos para decidir si un objeto es
una instancia de un concepto basado en su descripción. Los objetos con la misma descripción forman una clase de
equivalencia y la familia de clases de equivalencia se usa para definir aproximaciones de conjuntos aproximados. Cuando
se derivan las reglas de decisión a partir de aproximaciones, la descripción de una clase de equivalencia es el lado izquierdo
de una regla de decisión.
Objetivo
Por lo tanto, es útil retener información estructural de aproximaciones, es decir, la composición de una aproximación en
términos de clases de equivalencia. Sin embargo, los estudios existentes no consideran explícitamente la información
estructural.
Metodología
Para abordar este problema, introducimos aproximaciones estructuradas de conjuntos aproximados en tablas de
información completas e incompletas, que sirven de base para decisiones de tres vías con conjuntos aproximados. En una
tabla completa, definimos una familia de conceptos que se pueden definir de manera conjuntiva. Las aproximaciones
estructuradas de tres vías son tres regiones estructuradas positivas, límite y negativas dadas por tres conjuntos de
conceptos que se pueden definir de manera conjuntiva.
Resultados
Al adoptar una semántica del mundo posible, introducimos la noción de conceptos de intervalos definibles de manera
conjuntiva en una tabla incompleta, que se utiliza para construir las aproximaciones estructuradas de tres vías.
Conclusiones
La estructura interna de las aproximaciones estructuradas contribuye a una semántica sólida de aproximaciones de
conjuntos aproximados y está directa y explícitamente relacionada con las reglas de decisión de tres vías.
Abstract
High-dimensional, quantity, uncertain and diverse data sets bring serious challenges to the development of intelligent
systems. Granular computing is a theoretical approach to deal with uncertain and massive data, including rough sets, fuzzy
sets, quotient spaces, covering rough sets, neighborhood rough sets and etc. In this paper, by introducing the neighborhood
rough set model, some structured data named neighborhood granules are formed to achieve the cognition of a
neighborhood system. Then, a three-level structure of granules in the neighborhood system is proposed: the neighborhood
granule, the neighborhood granule swarm and the neighborhood granule library. The size measures of neighborhood
granules and neighborhood granule swarms are also presented. Furthermore, we define a variety of distance measures for
the neighborhood granules and the neighborhood granule swarms, and discuss their properties and relationships. Finally,
considering the uncertainties of neighborhood systems, we propose the uncertainty measures of various neighborhood
granules from the perspectives of algebra and entropy, and prove the monotonicity principle of these measures.
Theoretical analysis and examples show that the granule structures, distances and measures in neighborhood systems are
effective tools for complex data measuring and classifying.
Resumen
Los conjuntos de datos de alta dimensión, cuantificables, inciertos y diversos presentan serios desafíos para el desarrollo
de sistemas inteligentes. La computación granular es una aproximación teórica para tratar con datos inciertos y masivos,
que incluyen conjuntos aproximados, conjuntos difusos, espacios cocientes, cubiertas de conjuntos ásperos, conjuntos
vecinos de conjuntos rugosos, etc. En este artículo, introducimos el modelo para vecindades de conjuntos ásperos, algunas
estructuras de datos llamadas vecindades granuladas se forman para lograr el conocimiento de un sistema de vecindades.
Luego, se propone una estructura de gránulos de tres niveles en el sistema de vecindades: la vecindad granulada, el
enjambre de la vecindad granulada y la librería de la vecindad granulada. También se presentan los tamaños medidos de
la vecindad granulada y de los enjambres de vecindades granuladas. Además, definimos una variedad de medidas de
distancia para las vecindades granuladas y los enjambres de vecindades granuladas, y discutimos sus propiedades y
relaciones. Finalmente, considerando las incertidumbres de los sistemas de vecindades, proponemos las medidas de
incertidumbre de varias vecindades granuladas desde las perspectivas del álgebra y la entropía, y probamos el principio de
monotonicidad de estas medidas. El análisis teórico y los ejemplos muestran que las estructuras granulares, las distancias
y las medidas en los sistemas de vecindades son herramientas efectivas para la medición y clasificación de datos complejos.
Análisis
Antecedentes
Los conjuntos de datos de alta dimensión, cuantificables, inciertos y diversos presentan serios desafíos para el desarrollo
de sistemas inteligentes. La computación granular es una aproximación teórica para tratar con datos inciertos y masivos,
que incluyen conjuntos aproximados, conjuntos difusos, espacios cocientes, cubiertas de conjuntos ásperos, conjuntos
vecinos de conjuntos rugosos, etc.
Metodología
Resultados
Algunas estructuras de datos llamadas vecindades granuladas se forman para lograr el conocimiento de un sistema de
vecindades. Luego, se propone una estructura de gránulos de tres niveles en el sistema de vecindades: la vecindad
granulada, el enjambre de la vecindad granulada y la librería de la vecindad granulada. También se presentan los tamaños
medidos de la vecindad granulada y de los enjambres de vecindades granuladas. Además, definimos una variedad de
medidas de distancia para las vecindades granuladas y los enjambres de vecindades granuladas, y discutimos sus
propiedades y relaciones.
Metodología
Resultados
Proponemos las medidas de incertidumbre de varias vecindades granuladas desde las perspectivas del álgebra y la entropía,
y probamos el principio de monotonicidad de estas medidas.
Conclusiones
El análisis teórico y los ejemplos muestran que las estructuras granulares, las distancias y las medidas en los sistemas de
vecindades son herramientas efectivas para la medición y clasificación de datos complejos.
10.- Título: Improved sine cosine algorithm with crossover scheme for global optimization
Abstract
Sine Cosine Algorithm is a recently developed algorithm based on the characteristics of sine and cosine trigonometric
functions, to solve global optimization problems. This paper introduces a novel improved version of sine cosine algorithm,
which enhances the exploitation ability of solutions and reduces the overflow of diversity present in the search equations
of classical SCA. The proposed algorithm is named as ISCA. The key feature in the proposed algorithm is the hybridization
of exploitation skills of crossover with personal best state of individual solutions and integration of self-learning and global
search mechanisms. To evaluate these skills in ISCA, a classical set of well-known benchmark problems, standard IEEE CEC
2014 benchmark test and a recent set of benchmark problems, IEEE CEC 2017 have been taken. Several performance
metrics (such as convergence, statistical test, performance index), employed on ISCA, ensure the robustness and efficiency
of the algorithm. In the paper, the proposed algorithm ISCA is also used to solve five well-known engineering optimization
problems. At the end of the paper, the proposed algorithm is also used for multilevel thresholding in image segmentation.
The numerical experiments and analysis demonstrate that the proposed algorithm (ISCA) can be highly effective in solving
real-life optimization problems.
Resumen
El Algorítmo seno coseno es un algoritmo desarrollado recientemente y basado en las características de las funciones
trigonométricas de seno y coseno, para resolver problemas de optimización global. Este artículo presenta una versión
mejorada del algoritmo seno coseno, que mejora la capacidad de explotación de las soluciones y reduce el desbordamiento
de la diversidad presente en las ecuaciones de búsqueda de SCA clásico. El algoritmo propuesto se denomina ISCA. La
característica clave en el algoritmo propuesto es la hibridación de las habilidades de explotación del crossover con el mejor
estado personal de las soluciones individuales y la integración del autoaprendizaje y los mecanismos de búsqueda global.
Para evaluar estas habilidades en ISCA, se han tomado un conjunto de problemas clásicos conocidos, la prueba de
referencia estándar IEEE CEC 2014 y un conjunto reciente de problemas de referencia, IEEE CEC 2017. Varios indicadores
de rendimiento (como la convergencia, la prueba estadística, el índice de rendimiento), empleados en ISCA, garantizan la
robustez y la eficiencia del algoritmo. En el documento, el algoritmo propuesto ISCA también se usa para resolver cinco
problemas de optimización de ingeniería bien conocidos. Al final del documento, el algoritmo propuesto también se utiliza
para el umbral de niveles múltiples en la segmentación de imágenes. Los experimentos y análisis numéricos demuestran
que el algoritmo propuesto (ISCA) puede ser altamente efectivo para resolver problemas de optimización de la vida real.
Análisis
Antecedentes
El Algorítmo seno coseno es un algoritmo desarrollado recientemente y basado en las características de las funciones
trigonométricas de seno y coseno, para resolver problemas de optimización global.
Resultados
Este artículo presenta una versión mejorada del algoritmo seno coseno, que mejora la capacidad de explotación de las
soluciones y reduce el desbordamiento de la diversidad presente en las ecuaciones de búsqueda de SCA clásico.
Objetivo
Resultados
La característica clave en el algoritmo propuesto es la hibridación de las habilidades de explotación del crossover con el
mejor estado personal de las soluciones individuales y la integración del autoaprendizaje y los mecanismos de búsqueda
global.
Metodología
Para evaluar estas habilidades en ISCA, se han tomado un conjunto de problemas clásicos conocidos, la prueba de
referencia estándar IEEE CEC 2014 y un conjunto reciente de problemas de referencia, IEEE CEC 2017.
Resultados
Varios indicadores de rendimiento (como la convergencia, la prueba estadística, el índice de rendimiento), empleados en
ISCA, garantizan la robustez y la eficiencia del algoritmo. En el documento, el algoritmo propuesto ISCA también se usa
para resolver cinco problemas de optimización de ingeniería bien conocidos. Al final del documento, el algoritmo propuesto
también se utiliza para el umbral de niveles múltiples en la segmentación de imágenes.
Conclusiones
Los experimentos y análisis numéricos demuestran que el algoritmo propuesto (ISCA) puede ser altamente efectivo para
resolver problemas de optimización de la vida real.
DIFFERENTIAL GEOMETRY AND ITS APPLICATIONS
Publica trabajos de investigación originales en Geometría Diferencial y en todas las áreas de las matemáticas que usen
métodos de Geometría Diferencial y que investiguen estructuras geométricas. Las áreas que se cubren son: Ecuaciones
Diferenciales en Variedades, análisis global, Grupos de Lie, Geometría Diferencial local y global, el Cálculo de Variaciones
en variedades, Topología de Variedades y física matemática. (ELSEVIER B.V., 2019)
Artículos
1.- Título: Gravitational radiation and the evolution of gravitational collapse in cylindrical symmetry
Abstract
Using the Sparling form and a geometric construction adapted to spacetimes with a 2-dimensional isometry group, we
analyse a quasi-local measure of gravitational energy. We then study the gravitational radiation through spacetime
junctions in cylindrically symmetric models of gravitational collapse to singularities. The models result from the matching
of collapsing dust fluids interiors with gravitational wave exteriors, given by the Einstein–Rosen type solutions. For a given
choice of a frame adapted to the symmetry of the matching hypersurface, we are able to compute the total gravitational
energy radiated during the collapse and state whether the gravitational radiation is incoming or outgoing, in each case.
This also enables us to distinguish whether a gravitational collapse is being enhanced by the gravitational radiation.
Resumen
Usando la forma Sparling y una construcción geométrica adaptada a tiempos espaciales con un grupo de isometría
bidimensional, analizamos una medida casi local de la energía gravitacional. Luego estudiamos la radiación gravitacional a
través de uniones espaciotemporales en modelos cilíndricos simétricos de colapso gravitacional a singularidades. Los
modelos resultan de la combinación de los interiores de fluidos de polvo colapsados con los exteriores de ondas
gravitacionales, dados por las soluciones de tipo Einstein-Rosen. Para una elección dada de un marco adaptado a la simetría
de la hipersuperficie correspondiente, podemos calcular la energía gravitacional total irradiada durante el colapso y
establecer si la radiación gravitacional es entrante o saliente, en cada caso. Esto también nos permite distinguir si un
colapso gravitacional está siendo mejorado por la radiación gravitacional.
Análisis
Metodología
Usando la forma Sparling y una construcción geométrica adaptada a tiempos espaciales con un grupo de isometría
bidimensional,
Objetivo
Analizamos una medida casi local de la energía gravitacional. Luego estudiamos la radiación gravitacional
Metodología
Resultados
Los modelos resultan de la combinación de los interiores de fluidos de polvo colapsados con los exteriores de ondas
gravitacionales, dados por las soluciones de tipo Einstein-Rosen.
Conclusiones
Para una elección dada de un marco adaptado a la simetría de la hipersuperficie correspondiente, podemos calcular la
energía gravitacional total irradiada durante el colapso y establecer si la radiación gravitacional es entrante o saliente, en
cada caso. Esto también nos permite distinguir si un colapso gravitacional está siendo mejorado por la radiación
gravitacional.
2.- Título: Umbilical routes along geodesics and hypercycles in the hyperbolic space
Abstract
Given a geodesic line γ in the hyperbolic space Hn we formulate a necessary and sufficient condition for a function along
this geodesic which measure the mean curvature of totally umbilical leaves of a foliation orthogonal to γ. Then we extend
the result to γ being a hypercycle i.e. a geodesic on a hypersurface equidistant from the totally geodesic one.
Resumen
Dada una línea geodésica γ en el espacio hiperbólico Hn, formulamos una condición necesaria y suficiente para una función
a lo largo de esta geodésica que mide la curvatura media de hojas totalmente umbilicales de una foliación ortogonal a γ.
Luego extendemos el resultado a que γ es un hiperciclo, es decir, una geodésica en una hipersuperficie equidistante de la
geodésica total.
Análisis
Metodología
Objetivo
Formulamos una condición necesaria y suficiente para una función a lo largo de esta geodésica
Resultados
Que mide la curvatura media de hojas totalmente umbilicales de una foliación ortogonal a γ. Luego extendemos el resultado
a que γ es un hiperciclo, es decir,
Conclusiones
Abstract
Of concern is the study of the space of curves in homogeneous spaces. Motivated by applications in shape analysis we
identify two curves if they only differ by their parametrization and/or a rigid motion. For curves in Euclidean space the
Square-Root-Velocity-Function (SRVF) allows to define and efficiently compute a distance on this infinite
dimensional quotient space. In this article we present a generalization of the SRVF to curves in homogeneous spaces. We
prove that, under mild conditions on the curves, there always exist optimal reparametrizations realizing the quotient
distance and demonstrate the efficiency of our framework in selected numerical examples.
Resumen
Es de interés el estudio del espacio de curvas en espacios homogéneos. Motivados por las aplicaciones en el análisis de
formas, identificamos dos curvas si solo difieren por su parametrización y / o un movimiento rígido. Para curvas en el
espacio euclidiano, la función de velocidad de raíz cuadrada (SRVF) permite definir y calcular de manera eficiente una
distancia en este espacio de cociente de dimensión infinita. En este artículo presentamos una generalización del SRVF a
curvas en espacios homogéneos. Probamos que, en condiciones suaves en las curvas, siempre existen reparametrizaciones
óptimas calculando la distancia cociente y demostramos la eficiencia de nuestro marco en ejemplos numéricos
seleccionados.
Análisis
Objetivo
Metodología
Resultados
Antecedentes
Para curvas en el espacio euclidiano, la función de velocidad de raíz cuadrada (SRVF) permite definir y calcular de manera
eficiente una distancia en este espacio de cociente de dimensión infinita.
Resultados
En este artículo presentamos una generalización del SRVF a curvas en espacios homogéneos. Probamos que, en condiciones
suaves en las curvas, siempre existen reparametrizaciones óptimas calculando la distancia cociente y demostramos la
eficiencia de nuestro marco en ejemplos numéricos seleccionados.
1) Departamento de matemáticas, Brooklyn College y CUNY Graduate Center, Nueva York, Estados Unidos
2) Departamento de matemáticas, Universidad de Colorado, Estados Unidos
Abstract
In this paper we prove that for s>3/2, all Hs solutions of the Euler–Weil–Petersson equation, which describes geodesics on
the universal Teichmüller space under the Weil–Petersson metric, will remain in Hs for all time. This extends the work of
Escher–Kolev for strong Riemannian metrics to the borderline case of H3/2 metrics. In addition we show that
all Hs solutions of the Wunsch equation, a variation of the Constantin–Lax–Majda equation which also describes geodesics
on the universal Teichmüller curve under the Velling–Kirillov metric, must blow up in finite time due to wave breaking,
extending work of Castro–Córdoba and Bauer–Kolev–Preston. Finally we illustrate these phenomena numerically.
Resumen
En este artículo probamos que para s>3/2, todas las Hs soluciones de la ecuación de Euler-Weil-Petersson, la cual describe
geodésicas en el espacio universal de Teichmüller bajo la métrica de Weil-Petersson, permanecerá en Hs en todo momento.
Esto extiende el trabajo de Escher-Kolev para métricas fuertes Riemannianas en el caso límite de métricas H3/2. Además
mostramos que todas las Hs soluciones de la ecuación de Wunsch, son una variación de la ecuación de Constantin-Lax-
Majda la cual también describe geodésicas en la curva universal de Teichmüller bajo la métrica de Velling-Kirillov, y debe
explotar en un tiempo finito debido al rompimiento de ondas, extendiendo el trabajo de Castro-Córdova y Bauer-Kolev-
Preston. Finalmente ilustramos este fenómeno numéricamente.
Análisis
Conclusiones
En este artículo probamos que para s>3/2, todas las Hs soluciones de la ecuación de Euler-Weil-Petersson, la cual describe
geodésicas en el espacio universal de Teichmüller bajo la métrica de Weil-Petersson, permanecerá en Hs en todo momento.
Antecedentes
Esto extiende el trabajo de Escher-Kolev para métricas fuertes Riemannianas en el caso límite de métricas H3/2.
Resultados
Además mostramos que todas las Hs soluciones de la ecuación de Wunsch, son una variación de la ecuación de Constantin-
Lax-Majda
Antecedentes
La cual también describe geodésicas en la curva universal de Teichmüller bajo la métrica de Velling-Kirillov,
Resultados
Antecedentes
Resultados
Abstract
An (α,β)-metric is defined by a Riemannian metric α and 1-form β. We have characterized a class of two-dimensional (α,β)-
metrics of isotropic (thus vanishing) S-curvature. In this paper, we determine the local structure of those metrics and show
that those metrics are Einsteinian (equivalently, of isotropic flat curvature) but not Ricci-flat in general.
Resumen
Una (α,β)-métrica se define por una métrica Riemanniana α y una 1-forma β. Hemos caracterizado una clase de métricas
bidimensionales (α, β) de S-curvatura isotrópica (desapareciendo). En este documento, determinamos la estructura local
de esas métricas y mostramos que esas métricas son Einsteinianas (equivalentemente, de curvatura isotrópica plana) pero
no planas de Ricci en general.
Análisis
Antecedentes
Resultados
Hemos caracterizado una clase de métricas bidimensionales (α, β) de S-curvatura isotrópica (desapareciendo).
Conclusiones
En este documento, determinamos la estructura local de esas métricas y mostramos que esas métricas son Einsteinianas
(equivalentemente, de curvatura isotrópica plana) pero no planas de Ricci en general.
Abstract
We give an explicit description of the non-flat parallel even Clifford structures of rank 8, 6, 5 on some real, complex and
quaternionic Grassmannians, and discuss the rôle of the octonions in them, in particular for some low dimensional
examples.
Resumen
Damos una descripción explícita de las estructuras de Clifford paralelas no planas de rango 8, 6, 5 en algunos
Grassmannianos reales, complejos y cuaterniónicos, y discutimos el papel de los octoniones en ellos, en particular para
algunos ejemplos de baja dimensión.
Análisis
Objetivo-Antecedentes
Damos una descripción explícita de las estructuras de Clifford paralelas no planas de rango 8, 6, 5 en algunos
Grassmannianos reales, complejos y cuaterniónicos, y
Resultados
Discutimos el papel de los octoniones en ellos, en particular para algunos ejemplos de baja dimensión.
7.- Título: Hypersurfaces with constant scalar curvature in space forms
Abstract
In this paper we study the rigidity of complete hypersurfaces with constant scalar curvature in Riemannian space forms.
Under an appropriate constraint on Φ, the traceless part of its second fundamental form, we prove that either the
hypersurface is totally umbilical or it holds a sharp estimate for the supremum of the norm of Φ, with equality if and only
if the hypersurface is isoparametric with two distinct principal curvatures. Moreover, we also construct complete non-
isoparametric rotational examples which show that our constraint on Φ is sharp and necessary.
Resumen
En este trabajo estudiamos la rigidez de las hipersuperficies completas con curvatura escalar constante en las formas
espaciales de Riemann. Bajo una restricción en Φ apropiada, la parte sin rastro de su segunda forma fundamental,
demostramos que la hipersuperficie es totalmente umbilical o tiene una estimación aproximada para el supremo de la
norma de Φ, con igualdad si y solo si la hipersuperficie es isoparamétrica con dos curvaturas principales distintas. Además,
también construimos ejemplos completos de rotación no isoparamétricos que muestran que nuestra restricción en Φ es
precisa y necesaria.
Análisis
Objetivo
En este trabajo estudiamos la rigidez de las hipersuperficies completas con curvatura escalar constante en las formas
espaciales de Riemann.
Metdología
Bajo una restricción en Φ apropiada, la parte sin rastro de su segunda forma fundamental,
Resultados
Demostramos que la hipersuperficie es totalmente umbilical o tiene una estimación aproximada para el supremo de la
norma de Φ, con igualdad si y solo si la hipersuperficie es isoparamétrica con dos curvaturas principales distintas. Además,
también construimos ejemplos completos de rotación no isoparamétricos que muestran que nuestra restricción en Φ es
precisa y necesaria.
8.- Título: Blow-up rate of the scalar curvature along the conical Kähler-Ricci flow with finite time singularities
We investigate the scalar curvature behavior along the normalized conical Kähler–Ricci flow ωt, which is the conic version
of the normalized Kähler–Ricci flow, with finite maximal existence time T<∞. We prove that the scalar curvature of ωt is
bounded from above by C/(T−t)2 under the existence of a contraction associated to the limiting cohomology class [ωT].
This generalizes Zhang's work to the conic case.
Resumen
Investigamos el comportamiento de la curvatura escalar a lo largo del flujo de Kähler-Ricci cónico normalizado, que es la
versión cónica del flujo de Kähler-Ricci normalizado, con un tiempo de existencia máximo finito T <∞. Probamos que la
curvatura escalar de ωt está limitada desde arriba por C / (T − t) 2 bajo la existencia de una contracción asociada a la clase
de cohomología limitante [[T]. Esto generaliza el trabajo de Zhang al caso cónico.
Análisis
Objetivo
Investigamos el comportamiento de la curvatura escalar a lo largo del flujo de Kähler-Ricci cónico normalizado,
Antecedentes
Que es la versión cónica del flujo de Kähler-Ricci normalizado, con un tiempo de existencia máximo finito T <∞.
Resultados
Probamos que la curvatura escalar de ωt está limitada desde arriba por C / (T − t) 2 bajo la existencia de una contracción
asociada a la clase de cohomología limitante [[T].
Conclusiones
Abstract
In this paper we review the well-known fact that the only spheres admitting an almost complex structure are S2 and S6.
The proof described here uses characteristic classes and the Bott periodicity theorem in topological K-theory. This paper
originates from the talk “Almost Complex Structures on Spheres” given by the second author at the MAM1 workshop
“(Non)-existence of complex structures on S6”, held in Marburg from March 27th to March 30th, 2017. It is a review paper,
and as such no result is intended to be original. We tried to produce a clear, motivated and as much as possible self-
contained exposition.
Resumen
En este artículo revisamos el hecho bien conocido de que las únicas esferas que admiten una estructura casi compleja son
S2 y S6. La prueba aquí descrita utiliza clases de características y el teorema de periodicidad de Bott en la K-teoría
topológica. Este documento se origina en la charla “Estructuras casi complejas en esferas” impartida por el segundo autor
en el taller de MAM1 “(No) existencia de estructuras complejas en S6”, que tuvo lugar en Marburg del 27 al 30 de marzo
de 2017. Es un documento de revisión, y como tal, ningún resultado pretende ser original. Intentamos producir una
exposición autocontenida clara y lo más posible motivada.
Análisis
Antecedentes
En este artículo revisamos el hecho bien conocido de que las únicas esferas que admiten una estructura casi compleja son
S2 y S6.
Metodología
La prueba aquí descrita utiliza clases de características y el teorema de periodicidad de Bott en la K-teoría topológica.
Antecedentes
Este documento se origina en la charla “Estructuras casi complejas en esferas” impartida por el segundo autor en el taller
de MAM1 “(No) existencia de estructuras complejas en S6”, que tuvo lugar en Marburg del 27 al 30 de marzo de 2017.
Objetivo
Conclusiones
10.- Título: Notes on G2: The Lie algebra and the Lie group
Abstract
These notes have been prepared for the Workshop on “(Non)-existence of complex structures on S6”, celebrated in
Marburg in March, 2017. The material is not intended to be original. It contains a survey about the smallest of the
exceptional Lie groups: G2, its definition and different characterizations as well as its relationship to the spheres S6 and S7.
With the exception of the summary of the Killing–Cartan classification, this survey is self-contained, and all the proofs are
provided. Although these proofs are well-known, they are scattered, some of them are difficult to find, and others require
stronger background, while we will usually stick to linear algebra arguments. The approach is algebraical, working at the Lie
algebra level most often. We analyze the complex Lie algebra (and group) of type G2 as well as the two real Lie algebras of
type G2, the split and the compact one. The octonion algebra will play its role, but it is not the starting point. Also, both the
3-forms approach and the spinorial approach are viewed and connected. Special emphasis is put on relating all the
viewpoints by providing precise models.
Resumen
Estas notas se han preparado para el Taller sobre "(No) existencia de estructuras complejas en S6", celebrado en Marburg
en marzo de 2017. El material no pretende ser original. Contiene un estudio sobre los grupos de Lie excepcionales más
pequeños: G2, su definición y diferentes caracterizaciones, así como su relación con las esferas S6 y S7. Con la excepción
del resumen de la clasificación de Killing-Cartan, este estudio es independiente y se proporcionan todas las pruebas.
Aunque estas pruebas son bien conocidas, están dispersas, algunas de ellas son difíciles de encontrar, y otras requieren
antecedentes más sólidos, mientras que generalmente nos atenemos a los argumentos de álgebra lineal. El enfoque es
algebraico, trabajando a nivel de álgebra de Lie con mayor frecuencia. Analizamos el complejo álgebra de Lie (y grupo) de
tipo G2, así como las dos álgebras de Lie reales de tipo G2, la división y la compacta. El álgebra de octonión desempeñará
su papel, pero no es el punto de partida. Además, tanto el enfoque de 3 formas como el enfoque espinal se ven y se
conectan. Se hace especial hincapié en relacionar todos los puntos de vista proporcionando modelos precisos.
Análisis
Antecedentes
Estas notas se han preparado para el Taller sobre "(No) existencia de estructuras complejas en S6", celebrado en Marburg
en marzo de 2017. El material no pretende ser original.
Resultados
Contiene un estudio sobre los grupos de Lie excepcionales más pequeños: G2, su definición y diferentes caracterizaciones,
así como su relación con las esferas S6 y S7.
Metodología
Con la excepción del resumen de la clasificación de Killing-Cartan, este estudio es independiente y se proporcionan todas
las pruebas. Aunque estas pruebas son bien conocidas, están dispersas, algunas de ellas son difíciles de encontrar, y otras
requieren antecedentes más sólidos, mientras que generalmente nos atenemos a los argumentos de álgebra lineal. El
enfoque es algebraico, trabajando a nivel de álgebra de Lie con mayor frecuencia.
Objetivo
Analizamos el complejo álgebra de Lie (y grupo) de tipo G2, así como las dos álgebras de Lie reales de tipo G2, la división y
la compacta.
Conclusiones
El álgebra de octonión desempeñará su papel, pero no es el punto de partida. Además, tanto el enfoque de 3 formas como
el enfoque espinal se ven y se conectan. Se hace especial hincapié en relacionar todos los puntos de vista proporcionando
modelos precisos.
DYNAMIC SYSTEMS AND APPLICATIONS
Esta revista publica artículos originales de alto impacto, libros y monografías sobre sistemas dinámicos, desigualdades
integrales, teoría de control, teoría de aproximación, cálculo de variaciones, control óptimo, optimización, análisis
numérico. Las aplicaciones incluyen el modelado y análisis de problemas de ingeniería, biológicos, económicos e
industriales. (Academic Solutions Ltd. and Dynamic Publishers, Inc, 2016)
Artículos
Departamento de matemáticas, Universidad de Tecnología Química y Metalurgia, Kliment Ohridski, Sofía, Bulgaria
Abstract
In this article we introduce some impulsive models of tumor growth based on classical models as inhibition model,
Piantadosi model, and autostimulation model. The basic goal is to describe the medical interventions during the treatment
of the cancer process. The used technique is based on the theory of impulsive differential equations.
Resumen
En este artículo presentamos algunos modelos impulsivos de crecimiento tumoral basados en modelos clásicos como el
modelo de inhibición, el modelo de Piantadosi y el modelo de autoestimulación. El objetivo básico es describir las
intervenciones médicas durante el tratamiento del proceso del cáncer. La técnica utilizada se basa en la teoría de las
ecuaciones diferenciales impulsivas.
Análisis
Conclusiones
En este artículo presentamos algunos modelos impulsivos de crecimiento tumoral basados en modelos clásicos
Metodología
Objetivo
El objetivo básico es describir las intervenciones médicas durante el tratamiento del proceso del cáncer.
Metodología
2.- Título: Differential Equations associated with degenerate tangent polynomials and computation of their zeros
Autor: C. S. Ryoo
Abstract
In this paper, we study differential equations arising from the generating functions of degenerate tangent polynomials. We
give explicit identities for the degenerate tangent polynomials. Finally, we observe an interesting phenomenon of
“scattering” of the zeros of degenerate tangent polynomials of higher order.
Resumen
En este trabajo, estudiamos las ecuaciones diferenciales que surgen de las funciones generadoras de polinomios tangentes
degenerados. Damos identidades explícitas para los polinomios tangentes degenerados. Finalmente, observamos un
fenómeno interesante de "dispersión" de los ceros de polinomios tangentes degenerados de orden superior.
Análisis
Objetivo-Antecedentes
En este trabajo, estudiamos las ecuaciones diferenciales que surgen de las funciones generadoras de polinomios tangentes
degenerados.
Conclusiones
Resultados
Finalmente, observamos un fenómeno interesante de "dispersión" de los ceros de polinomios tangentes degenerados de
orden superior.
Abstract
In this paper, we study some properties of Laplace-type integral transforms, which have been introduced as a
computational tool for solving differential equations, and present some examples to illustrate the effectiveness of its
applicability. Moreover, we give an example that cannot be solved by Laplace, Sumudu, and Elzaki transforms, but it can
be solved by Laplace-type integral transforms; this means that Laplace-type integral transforms are a powerful tool for
solving some differential equations with variable coefficients.
Resumen
En este artículo, estudiamos algunas propiedades de las transformadas integrales de tipo Laplace, que se han introducido
como una herramienta computacional para resolver ecuaciones diferenciales, y presentamos algunos ejemplos para
ilustrar la efectividad de su aplicabilidad. Además, damos un ejemplo que no puede resolverse mediante las transformadas
de Laplace, Sumudu y Elzaki, pero puede resolverse mediante transformadas integrales de tipo Laplace; esto significa que
las transformaciones integrales de tipo Laplace son una herramienta poderosa para resolver algunas ecuaciones
diferenciales con coeficientes variables.
Análisis
Objetivo
En este artículo, estudiamos algunas propiedades de las transformadas integrales de tipo Laplace,
Antecedentes
Que se han introducido como una herramienta computacional para resolver ecuaciones diferenciales,
Resultados
Y presentamos algunos ejemplos para ilustrar la efectividad de su aplicabilidad. Además, damos un ejemplo que no puede
resolverse mediante las transformadas de Laplace, Sumudu y Elzaki, pero puede resolverse mediante transformadas
integrales de tipo Laplace;
Conclusiones
Esto significa que las transformaciones integrales de tipo Laplace son una herramienta poderosa para resolver algunas
ecuaciones diferenciales con coeficientes variables.
4.- Título: Explicit criteria for the oscillation of differential equations with several arguments
Abstract
In this paper we are concerned with the oscillations of differential equations with several non-monotone deviating
arguments and nonnegative coefficients. We present new sufficient conditions, involving lim sup and lim inf, for the
oscillation of all solutions which essentially improve several known criteria existing in the literature. We illustrate the results
and the improvement over other known oscillation criteria by examples, numerically solved in MATLAB.
Resumen
En este artículo nos ocupamos de las oscilaciones de las ecuaciones diferenciales con varios argumentos desviadores no
monótonos y coeficientes no negativos. Presentamos nuevas condiciones suficientes, que involucran lim sup y lim inf, para
la oscilación de todas las soluciones que esencialmente mejoran varios criterios conocidos existentes en la literatura.
Ilustramos los resultados y la mejora con respecto a otros criterios de oscilación conocidos mediante ejemplos, resueltos
numéricamente en MATLAB.
Análisis
Objetivo
En este artículo nos ocupamos de las oscilaciones de las ecuaciones diferenciales con varios argumentos desviadores no
monótonos y coeficientes no negativos.
Resultados
Presentamos nuevas condiciones suficientes, que involucran lim sup y lim inf, para la oscilación de todas las soluciones que
esencialmente mejoran varios criterios conocidos existentes en la literatura.
Metodología
Ilustramos los resultados y la mejora con respecto a otros criterios de oscilación conocidos mediante ejemplos, resueltos
numéricamente en MATLAB.
5.- Título: Investigations on a hyper-logistic model. Some applications
Abstract
In this paper we prove upper and lower estimates for the one-sided Hausdorff approximation of the Heaviside step-function
ht ∗ (t) by means of a HyperLogistic family. We will explore the interesting methodological task for constructing new
activation functions using “correcting amendments” of “Hyper-Logistic- type” (HLAF). We also define the new family of
recurrence generated activation functions based on “Hyper-Logistic correction”. We prove upper and lower estimates for
the Hausdorff approximation of the sign function by means of this new class of parametric activation functions. Numerical
examples, illustrating our results are given.
Resumen
En este documento, comprobamos las estimaciones superiores e inferiores para la aproximación de Hausdorff de una cara
de la función de paso de Heaviside ht ∗ (t) por medio de una familia HiperLogistica. Exploraremos la interesante tarea
metodológica para construir nuevas funciones de activación utilizando "correcciones de enmiendas" de "tipo hiper-
logístico" (HLAF). También definimos la nueva familia de funciones de activación generadas por recurrencia basadas en la
"Corrección hiper logística". Probamos las estimaciones superiores e inferiores de la aproximación de Hausdorff de la
función de signo mediante esta nueva clase de funciones de activación paramétrica. Se dan ejemplos numéricos, ilustrando
nuestros resultados.
Análisis
Objetivo-Conclusiones
En este documento, comprobamos las estimaciones superiores e inferiores para la aproximación de Hausdorff de una cara
de la función de paso de Heaviside ht ∗ (t) por medio de una familia HiperLogistica.
Metodología
Exploraremos la interesante tarea metodológica para construir nuevas funciones de activación utilizando "correcciones de
enmiendas" de "tipo hiper-logístico" (HLAF).
Resultados
También definimos la nueva familia de funciones de activación generadas por recurrencia basadas en la "Corrección hiper
logística". Probamos las estimaciones superiores e inferiores de la aproximación de Hausdorff de la función de signo
mediante esta nueva clase de funciones de activación paramétrica. Se dan ejemplos numéricos, ilustrando nuestros
resultados.
6.- Título: Analysis of solutions of some fractional delta differential equations on time scales
Abstract
Some new generalized Gronwall-Bellman type fractional delta integral inequalities have been derived to discuss the
qualitative analysis of the solutions of Cauchy type and nonlinear fractional delta stochastic differential equation.
Resumen
Se han derivado algunas nuevas desigualdades integrales delta fraccionarias del tipo Gronwall-Bellman para discutir el
análisis cualitativo de las soluciones de tipo Cauchy y la ecuación diferencial estocástica delta fraccional no lineal
Análisis
Resultados
Se han derivado algunas nuevas desigualdades integrales delta fraccionarias del tipo Gronwall-Bellman
Objetivo
Para discutir el análisis cualitativo de las soluciones de tipo Cauchy y la ecuación diferencial estocástica delta fraccional no
lineal
7.- Título: Approximate controllability of impulsive stochastic fractional differential equations with nonlocal conditions
Abstract
This paper studies the approximate controllability of an impulsive neutral stochastic integro-differential equation with
nonlocal conditions and infinite delay involving the Caputo fractional derivative of order 𝑞 ∈ (1,2) in separable Hilbert
space. The existence of the mild solution to fractional stochastic system with nonlocal and impulsive conditions is first
proved utilizing fixed point theorem, stochastic analysis, fractional calculus and solution operator theory. Then, a new set
of sufficient conditions proving approximate controllability of nonlocal semilinear fractional stochastic system involving
impulsive effects is derived by assuming the associated linear system is approximately controllable. Illustrating the obtained
abstract results, an example is considered at the end of the paper.
Resumen
Este trabajo estudia la capacidad de control aproximada de una ecuación integro-diferencial estocástica neutra impulsiva
con condiciones no locales y un retardo infinito que involucra la derivada fraccional de Caputo de orden q∈ (1,2) en el
espacio de Hilbert separable. La existencia de la solución suave para el sistema estocástico fraccional con condiciones no
locales e impulsivas se demuestra primero utilizando el teorema de punto fijo, el análisis estocástico, el cálculo fraccional
y la teoría del operador de la solución. Luego, se deriva un nuevo conjunto de condiciones suficientes que demuestran la
capacidad de control aproximada del sistema estocástico fraccional semilineal no local que involucra efectos impulsivos
suponiendo que el sistema lineal asociado es aproximadamente controlable. Al ilustrar los resultados abstractos obtenidos,
se considera un ejemplo al final del documento.
Análisis
Objetivo
Este trabajo estudia la capacidad de control aproximada de una ecuación integro-diferencial estocástica neutra impulsiva
Metodología
Con condiciones no locales y un retardo infinito que involucra la derivada fraccional de Caputo de orden q∈ (1,2) en el
espacio de Hilbert separable.
Resultados
La existencia de la solución suave para el sistema estocástico fraccional con condiciones no locales e impulsivas se
demuestra primero
Metodología
Utilizando el teorema de punto fijo, el análisis estocástico, el cálculo fraccional y la teoría del operador de la solución.
Luego,
Conclusiones
Se deriva un nuevo conjunto de condiciones suficientes que demuestran la capacidad de control aproximada del sistema
estocástico fraccional semilineal no local que involucra efectos impulsivos
Metodología
Suponiendo que el sistema lineal asociado es aproximadamente controlable. Al ilustrar los resultados abstractos obtenidos,
se considera un ejemplo al final del documento.
8.- Título: A limit result associated with certain random two-point boundary value problems
Abstract
A nonlinear differential equation with wide-band random noise and random boundary conditions is considered in this work.
Our main effort is on obtaining a diffusion limit using weak convergence methods. The limit can be used as approximation
to the original problem leading to reduction of computational complexity.
Resumen
En este trabajo se considera una ecuación diferencial no lineal con ruido aleatorio de banda ancha y condiciones de límites
aleatorios. Nuestra meta es obtener un límite de difusión utilizando métodos de convergencia débil. El límite se puede usar
como aproximación al problema original que conduce a la reducción de la complejidad computacional.
Análisis
Metodología
En este trabajo se considera una ecuación diferencial no lineal con ruido aleatorio de banda ancha y condiciones de límites
aleatorios.
Objetivo
Conclusión
El límite se puede usar como aproximación al problema original que conduce a la reducción de la complejidad
computacional.
Abstract
The dynamics of quadratic polynomials is commonly studied by using the family of maps 𝑓𝐶 (𝑥) = 𝑥 2 + 𝑐, where 𝑐 ∈ ℂ .
In this paper we form equations of periodic orbits of periods six and seven on a new (𝑢, 𝑣) −plane and consider also the
corresponding equations on the (𝑥, 𝑦) −plane. The new (𝑢, 𝑣) −model produces equations for the periods six and seven
with significantly lower degree than the ones obtained by the previous models which enables us to find their solutions.
Resumen
La dinámica de los polinomios cuadráticos se estudia comúnmente usando la familia de mapas 𝑓𝐶 (𝑥) = 𝑥 2 + 𝑐, donde
𝑐 ∈ ℂ. En este documento formamos ecuaciones de órbitas periódicas de los períodos seis y siete en un nuevo plano (u, v)
y consideramos también las ecuaciones correspondientes en el plano (x, y). El nuevo modelo (u, v) produce ecuaciones
para los períodos seis y siete con un grado significativamente menor que los obtenidos por los modelos anteriores, lo que
nos permite encontrar sus soluciones.
Análisis
Antecedentes
La dinámica de los polinomios cuadráticos se estudia comúnmente usando la familia de mapas 𝑓𝐶 (𝑥) = 𝑥 2 + 𝑐, donde
𝑐 ∈ ℂ.
Objetivo
En este documento formamos ecuaciones de órbitas periódicas de los períodos seis y siete en un nuevo plano (u, v) y
consideramos también las ecuaciones correspondientes en el plano (x, y).
Conclusiones
El nuevo modelo (u, v) produce ecuaciones para los períodos seis y siete con un grado significativamente menor que los
obtenidos por los modelos anteriores, lo que nos permite encontrar sus soluciones.
Abstract
In this paper, we consider the impacts of noise on ordinary differential equations. We first prove that the weak noise can
change the value of equilibrium and the strong noise can destroy the stability of equilibrium. Then we consider the
competition between the nonlinear term and noise term, which shows that noise can induce singularities (finite time blow
up of solutions) and that the nonlinear term can prevent the singularities. Besides that, some simulations are given in order
to illustrate our results.
Resumen
En este documento, consideramos los impactos del ruido en las ecuaciones diferenciales ordinarias. Primero probamos que
el ruido débil puede cambiar el valor del equilibrio y el ruido fuerte puede destruir la estabilidad del equilibrio. Luego,
consideramos la competencia entre el término no lineal y el término de ruido, que muestra que el ruido puede inducir
singularidades (el finito de las soluciones) y que el término no lineal puede evitar las singularidades. Además de eso, se dan
algunas simulaciones para ilustrar nuestros resultados.
Análisis
Objetivo
En este documento, consideramos los impactos del ruido en las ecuaciones diferenciales ordinarias.
Resultados
Primero probamos que el ruido débil puede cambiar el valor del equilibrio y el ruido fuerte puede destruir la estabilidad
del equilibrio.
Metodología
Conclusiones
Que muestra que el ruido puede inducir singularidades (el finito de las soluciones) y que el término no lineal puede evitar
las singularidades. Además de eso, se dan algunas simulaciones para ilustrar nuestros resultados.
IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS
Publica artículos técnicos que hablan sobre la teoría, el diseño y las aplicaciones de las redes neuronales y los sistemas de
aprendizaje relacionados. Se enfoca en redes neuronales artificiales y los sistemas de aprendizaje. (IEEE Xplore, s.f.)
Artículos
Abstract
Universal memcomputing machines (UMMs) represent a novel computational model in which memory (time nonlocality)
accomplishes both tasks of storing and processing of information. UMMs have been shown to be Turing-complete, namely,
they can simulate any Turing machine. In this paper, we first introduce a novel set theory approach to compare different
computational models and use it to recover the previous results on Turing-completeness of UMMs. We then relate UMMs
directly to liquid-state machines (or “reservoir-computing”) and quantum machines (“quantum computing”). We show that
UMMs can simulate both types of machines, hence they are both “liquid-” or “reservoir-complete” and “quantum-
complete.” Of course, these statements pertain only to the type of problems these machines can solve and not to the
amount of resources required for such simulations. Nonetheless, the set-theoretic method presented here provides a
general framework which describes the relationship between any computational models.
Resumen
Las máquinas de memorización universal (UMM) representan un modelo computacional novedoso en el que la memoria
(tiempo no local) cumple tareas de almacenamiento y procesamiento de la información. Se ha demostrado que los UMM
son Turing-completos, es decir, pueden simular cualquier máquina de Turing. En este artículo, primero presentamos un
enfoque novedoso de la teoría de conjuntos para comparar diferentes modelos computacionales y utilizarlo para recuperar
los resultados anteriores de Turing-completos de UMMs. Luego relacionamos los UMM directamente con las máquinas de
estado líquido (o “computación de yacimientos”) y las máquinas cuánticas (“computación cuántica”). Mostramos que los
UMM pueden simular ambos tipos de máquinas, por lo tanto, son “líquidos” o “de depósito completo” y “cuánticos
completos”. Por supuesto, estas declaraciones se refieren solo al tipo de problemas que estas máquinas pueden resolver y
no a la cantidad de recursos requeridos para tales simulaciones. No obstante, el método de la teoría de conjuntos que se
presenta aquí proporciona un marco general que describe la relación entre cualquier modelo computacional.
Análisis
Antecedentes
Las máquinas de memorización universal (UMM) representan un modelo computacional novedoso en el que la memoria
(tiempo no local) cumple tareas de almacenamiento y procesamiento de la información. Se ha demostrado que los UMM
son Turing-completos, es decir, pueden simular cualquier máquina de Turing.
Resultados
En este artículo, primero presentamos un enfoque novedoso de la teoría de conjuntos para comparar diferentes modelos
computacionales y utilizarlo para recuperar los resultados anteriores de Turing-completos de UMMs. Luego relacionamos
los UMM directamente con las máquinas de estado líquido (o “computación de yacimientos”) y las máquinas cuánticas
(“computación cuántica”). Mostramos que los UMM pueden simular ambos tipos de máquinas, por lo tanto, son “líquidos”
o “de depósito completo” y “cuánticos completos”.
Conclusiones
Por supuesto, estas declaraciones se refieren solo al tipo de problemas que estas máquinas pueden resolver y no a la
cantidad de recursos requeridos para tales simulaciones. No obstante, el método de la teoría de conjuntos que se presenta
aquí proporciona un marco general que describe la relación entre cualquier modelo computacional.
Abstract
This paper provides the stability analysis for a model-free action-dependent heuristic dynamic programing (HDP) approach
with an eligibility trace long-term prediction parameter (λ). HDP(λ) learns from more than one future reward. Eligibility
traces have long been popular in Q-learning. This paper proves and demonstrates that they are worthwhile to use with
HDP. In this paper, we prove its uniformly ultimately bounded (UUB) property under certain conditions. Previous works
present a UUB proof for traditional HDP [HDP(λ)], but we extend the proof with the λ parameter. By using Lyapunov
stability, we demonstrate the boundedness of the estimated error for the critic and actor neural networks as well as
learning rate parameters. Three case studies demonstrate the effectiveness of HDP(λ). The trajectories of the internal
reinforcement signal nonlinear system are considered as the first case. We compare the results with the performance of
HDP and traditional temporal difference [TD(λ)] with different λ values. The second case study is a single-link inverted
pendulum. We investigate the performance of the inverted pendulum by comparing HDP(λ) with regular HDP, with
different levels of noise. The third case study is a 3-D maze navigation benchmark, which is compared with state action
reward state action, Q(λ), HDP, and HDP(λ). All these simulation results illustrate that HDP(λ) has a competitive
performance; thus this contribution is not only UUB but also useful in comparison with traditional HDP.
Resumen
Este documento proporciona el análisis de estabilidad para un enfoque de programación dinámica heurística (HDP)
dependiente de acción sin modelo con un parámetro de predicción a largo plazo de rastreo de elegibilidad (λ). HDP (λ)
aprende de más de una recompensa futura. Los rastros de elegibilidad han sido populares en Q-learning. Este documento
muestra y demuestra que vale la pena usarlos con HDP. En este documento, probamos su propiedad uniformemente en
última instancia delimitada (UUB) bajo ciertas condiciones. Los trabajos anteriores presentan una prueba UUB para HDP
tradicional [HDP (λ)], pero extendemos la prueba con el parámetro λ. Al usar la estabilidad de Lyapunov, demostramos la
delimitación del error estimado para las redes neuronales de los críticos y los actores, así como los parámetros de la tasa
de aprendizaje. Tres estudios de caso demuestran la efectividad de HDP (λ). Las trayectorias del sistema no lineal de señal
de refuerzo interno se consideran como el primer caso. Comparamos los resultados con el rendimiento de HDP y la
diferencia temporal tradicional [TD (λ)] con diferentes valores de λ. El segundo estudio de caso es un péndulo invertido de
un solo enlace. Investigamos el rendimiento del péndulo invertido comparando HDP (λ) con HDP regular, con diferentes
niveles de ruido. El tercer estudio de caso es un punto de referencia de navegación en laberinto 3-D, que se compara con
la acción de estado de recompensa de acción estatal, Q (λ), HDP y HDP (λ). Todos estos resultados de simulación ilustran
que HDP (λ) tiene un rendimiento competitivo; por lo tanto, esta contribución no solo es UUB sino que también es útil en
comparación con el HDP tradicional.
Análisis
Objetivo
Este documento proporciona el análisis de estabilidad para un enfoque de programación dinámica heurística (HDP)
dependiente de acción sin modelo
Metodología
Antecedentes
HDP (λ) aprende de más de una recompensa futura. Los rastros de elegibilidad han sido populares en Q-learning.
Resultados
Este documento muestra y demuestra que vale la pena usarlos con HDP. En este documento, probamos su propiedad
uniformemente en última instancia delimitada (UUB) bajo ciertas condiciones.
Antecedentes
Los trabajos anteriores presentan una prueba UUB para HDP tradicional [HDP (λ)],
Metodología
Resultados
Demostramos la delimitación del error estimado para las redes neuronales de los críticos y los actores, así como los
parámetros de la tasa de aprendizaje.
Metodología
Tres estudios de caso demuestran la efectividad de HDP (λ). Las trayectorias del sistema no lineal de señal de refuerzo
interno se consideran como el primer caso. Comparamos los resultados con el rendimiento de HDP y la diferencia temporal
tradicional [TD (λ)] con diferentes valores de λ. El segundo estudio de caso es un péndulo invertido de un solo enlace.
Investigamos el rendimiento del péndulo invertido comparando HDP (λ) con HDP regular, con diferentes niveles de ruido.
El tercer estudio de caso es un punto de referencia de navegación en laberinto 3-D, que se compara con la acción de estado
de recompensa de acción estatal, Q (λ), HDP y HDP (λ).
Conclusiones
Todos estos resultados de simulación ilustran que HDP (λ) tiene un rendimiento competitivo; por lo tanto, esta contribución
no solo es UUB sino que también es útil en comparación con el HDP tradicional.
3.- Título: Inverting the Generator of a Generative Adversarial Network
Abstract
Generative adversarial networks (GANs) learn a deep generative model that is able to synthesize novel, high-dimensional
data samples. New data samples are synthesized by passing latent samples, drawn from a chosen prior distribution, through
the generative model. Once trained, the latent space exhibits interesting properties that may be useful for downstream
tasks such as classification or retrieval. Unfortunately, GANs do not offer an “inverse model,” a mapping from data space
back to latent space, making it difficult to infer a latent representation for a given data sample. In this paper, we introduce
a technique, inversion, to project data samples, specifically images, to the latent space using a pretrained GAN. Using our
proposed inversion technique, we are able to identify which attributes of a data set a trained GAN is able to model and
quantify GAN performance, based on a reconstruction loss. We demonstrate how our proposed inversion technique may
be used to quantitatively compare the performance of various GAN models trained on three image data sets. We provide
codes for all of our experiments in the website (https://github.com/ToniCreswell/InvertingGAN).
Resumen
Las redes de confrontación generativa (GAN) generan un modelo generativo profundo que puede sintetizar muestras de
datos novedosas y de alta dimensión. Las nuevas muestras de datos se sintetizan pasando muestras latentes, extraídas de
una distribución previa elegida, a través del modelo generativo. Una vez entrenado, el espacio latente exhibe propiedades
interesantes que pueden ser útiles para tareas posteriores como la clasificación o recuperación. Desafortunadamente, las
GAN no ofrecen un "modelo inverso", una asignación del espacio de datos al espacio latente, lo que dificulta la deducción
de una representación latente para una muestra de datos determinada. En este documento, introducimos una técnica,
inversión, para proyectar muestras de datos, específicamente imágenes, al espacio latente usando una GAN pre-entrenada.
Al utilizar nuestra técnica de inversión propuesta, podemos identificar qué atributos de un conjunto de datos en el que una
GAN entrenada puede modelar y cuantificar el rendimiento de la GAN, en función de una pérdida de reconstrucción.
Demostramos cómo se puede usar nuestra técnica de inversión propuesta para comparar cuantitativamente el rendimiento
de varios modelos GAN entrenados en tres conjuntos de datos de imagen. Proporcionamos códigos para todos nuestros
experimentos en el sitio web (https://github.com/ToniCreswell/InvertingGAN).
Análisis
Antecedentes
Las redes de confrontación generativa (GAN) generan un modelo generativo profundo que puede sintetizar muestras de
datos novedosas y de alta dimensión. Las nuevas muestras de datos se sintetizan pasando muestras latentes, extraídas de
una distribución previa elegida, a través del modelo generativo. Una vez entrenado, el espacio latente exhibe propiedades
interesantes que pueden ser útiles para tareas posteriores como la clasificación o recuperación. Desafortunadamente, las
GAN no ofrecen un "modelo inverso", una asignación del espacio de datos al espacio latente, lo que dificulta la deducción
de una representación latente para una muestra de datos determinada.
Objetivo
En este documento, introducimos una técnica, inversión, para proyectar muestras de datos, específicamente imágenes, al
espacio latente
Metodología
Conclusiones
Al utilizar nuestra técnica de inversión propuesta, podemos identificar qué atributos de un conjunto de datos en el que una
GAN entrenada puede modelar y cuantificar el rendimiento de la GAN, en función de una pérdida de reconstrucción.
Resultados
Demostramos cómo se puede usar nuestra técnica de inversión propuesta para comparar cuantitativamente el rendimiento
de varios modelos GAN entrenados en tres conjuntos de datos de imagen. Proporcionamos códigos para todos nuestros
experimentos en el sitio web
(https://github.com/ToniCreswell/InvertingGAN).
Introduction
Generative adversarial networks (GANs) [10], [20] are a class of generative model which are able to synthesize novel,
realistic looking images of faces, digits, and street numbers [20]. GANs involve two networks: a generator, G, and a
discriminator, D. The generator, G, is trained to generate synthetic images, taking a random vector, z, drawn from a prior
distribution, P(Z), as input. The prior is often chosen to be a normal or uniform distribution.
Radford et al. [20] demonstrated that GANs learn a “rich linear structure,” meaning that algebraic operations in Z -space
often lead to semantically meaningful synthetic samples in image space. Since images represented in Z -space are often
meaningful, direct access to a z∈Z for a given image, x∈X may be useful for discriminative tasks such as retrieval or
classification. Recently, it has also become desirable to be able to access Z -space in order to manipulate original
images [27]. Thus, there are many reasons we may wish to invert the generator.
Typically, inversion is achieved by finding a vector z∈Z which when passed through the generator produces an image that
is very similar to the target image. If no suitable zexists, this may be an indicator that the generator is unable to model
either the whole image or certain attributes of the image. We give a concrete example in Section VI-B. Therefore, inverting
the generator, additionally, provides interesting insights to highlight what a trained GAN has learned.
Mapping an image, from image space, X, to Z -space is nontrivial, as it requires inversion of the generator, which is often
many layered, nonlinear model [4], [10], [20]. Dumoulin et al. [9] (ALI) and Donahue et al. (BiGAN) [8] proposed learning a
third, decoder network along side the generator and discriminator to map image samples back to Z -space. Collectively,
they demonstrated results on MNIST, ImageNet, CIFAR-10, SVHN, and CelebA. However, reconstructions of inversions are
often poor. Specifically, reconstructions of inverted MNIST digits using methods of Donahue et al. [7], often fail to preserve
the style and character class. Recently, Li et al. [16] proposed a method to improve reconstructions. Some drawbacks to
these approaches [8], [9], [16] include the need to train a third network, which increases the number of parameters that
have to be learned; with more parameters, there is generally a greater chance of overfitting [23], or even of
memorizing [12] input samples.
When employing a decoder model to perform inversion, its value as a diagnostic tool for evaluating GANs is hindered. GANs
suffer from several pathologies [1], [2], [13], [19], [21], [26], including overfitting [11], [24], that we may be able to detect
using inversion. If an additional encoder model is trained to perform inversion [8], [9], [16], [17], the encoder itself may
overfit, thus not portraying the true nature of a trained GAN. Since our approach does not involve training an additional
encoder model, we may use our approach for “trouble-shooting” and evaluating different pretrained GAN models.
1. We propose a novel approach to invert the generator of any pretrained GAN, provided that the
computational graph for the generator network is available (Section II).
2. We demonstrate that, we are able to infer a Z -space representation for a target image, such that when
passed through the GAN, it produces a sample visually similar to the target image (Section VI).
3. We demonstrate several ways in which our proposed inversion technique may be used to both
qualitatively (Section VI-B) and quantitatively compare GAN models (Section VII).
4. In addition, we show that batches of z samples can be inferred from batches of image samples, which improve
the efficiency of the inversion process by allowing multiple images to be inverted in parallel (Section II-A).
We begin, by describing our proposed inversion technique.
Introducción
Las redes de confrontación generativa (GAN) [10], [20] son una clase de modelo generativo que son capaces de
sintetizar imágenes novedosas de apariencia realista de caras, dígitos y números de calles [20]. Las GAN incluyen dos
redes: un generador, G y un discriminador, D. El generador, G, está capacitado para generar imágenes sintéticas,
tomando un vector aleatorio, z, extraído de una distribución anterior, P (Z), como entrada. El prior es a menudo
elegido para ser una distribución normal o uniforme.
Radford et al. [20] demostraron que las GAN aprenden una "estructura lineal rica", lo que significa que las operaciones
algebraicas en el espacio Z a menudo conducen a muestras sintéticas semánticamente significativas en el espacio de
la imagen. Dado que las imágenes representadas en el espacio Z a menudo son significativas, el acceso directo a una
z∈Z para una imagen dada, x∈X puede ser útil para tareas discriminativas como la recuperación o clasificación.
Recientemente, también se ha vuelto deseable poder acceder al espacio Z para manipular imágenes originales [27].
Por lo tanto, hay muchas razones por las que podemos desear invertir el generador.
Típicamente, la inversión se logra al encontrar un vector z∈Z que cuando pasa a través del generador produce una
imagen que es muy similar a la imagen objetivo. Si no existen zexistas adecuados, esto puede ser un indicador de que
el generador no puede modelar la imagen completa o ciertos atributos de la imagen. Damos un ejemplo concreto en
la Sección VI-B. Por lo tanto, invertir el generador, además, proporciona información interesante para resaltar lo que
un GAN capacitado ha aprendido.
El mapeo de una imagen, desde el espacio de la imagen, X, hasta el espacio Z no es trivial, ya que requiere la inversión
del generador, que a menudo es un modelo no lineal en capas [4], [10], [20]. Dumoulin et al. [9] (ALI) y Donahue et
al. (BiGAN) [8] propuso aprender una tercera red de decodificadores junto con el generador y el discriminador para
mapear muestras de imágenes de nuevo al espacio Z. En conjunto, demostraron resultados en MNIST, ImageNet,
CIFAR-10, SVHN y CelebA. Sin embargo, las reconstrucciones de las inversiones son a menudo pobres.
Específicamente, las reconstrucciones de dígitos MNIST invertidos utilizando los métodos de Donahue et al. [7], a
menudo no logran preservar el estilo y la clase de caracteres. Recientemente, Li et al. [16] propuso un método para
mejorar las reconstrucciones. Algunos inconvenientes de estos enfoques [8], [9], [16] incluyen la necesidad de
capacitar a una tercera red, lo que aumenta la cantidad de parámetros que deben aprenderse; con más parámetros,
generalmente hay una mayor probabilidad de sobrecalentar [23], o incluso de memorizar [12] muestras de entrada.
Cuando se emplea un modelo de decodificador para realizar la inversión, su valor como herramienta de diagnóstico
para evaluar GAN se ve obstaculizado. Las GANs sufren de varias patologías [1], [2], [13], [19], [21], [26], incluido el
sobreajuste [11], [24], que podemos detectar utilizando la inversión. Si se entrena un modelo de codificador adicional
para realizar la inversión [8], [9], [16], [17], el codificador en sí puede sobre adaptarse, por lo que no representa la
verdadera naturaleza de una GAN entrenada. Dado que nuestro enfoque no implica la capacitación de un modelo de
codificador adicional, podemos utilizar nuestro enfoque para "solucionar problemas" y evaluar diferentes modelos
de GAN pre-entrenados.
1. Proponemos un nuevo enfoque para invertir el generador de cualquier GAN pre-entrenada, siempre que el
gráfico computacional para la red del generador esté disponible (Sección II).
2. Demostramos que podemos inferir una representación de espacio Z para una imagen de destino, de manera
que cuando se pasa a través de la GAN, produce una muestra visualmente similar a la imagen de destino
(Sección VI).
3. Demostramos varias formas en las que nuestra técnica de inversión propuesta se puede utilizar para calificar
cualitativamente (Sección VI-B) y comparar cuantitativamente los modelos GAN (Sección VII).
4. Además, mostramos que los lotes de z muestras pueden inferirse a partir de lotes de imágenes, lo que mejora
la eficiencia del proceso de inversión al permitir que múltiples imágenes se inviertan en paralelo (Sección II-
A).
5. Comenzamos describiendo nuestra técnica de inversión propuesta.
4.- Título: Broad Learning System: An effective and efficient incremental learning system without the need for deep
architecture.
Abstract
Broad Learning System (BLS) that aims to offer an alternative way of learning in deep structure is proposed in this paper.
Deep structure and learning suffer from a time-consuming training process because of a large number of connecting
parameters in filters and layers. Moreover, it encounters a complete retraining process if the structure is not sufficient to
model the system. The BLS is established in the form of a flat network, where the original inputs are transferred and placed
as “mapped features” in feature nodes and the structure is expanded in wide sense in the “enhancement nodes.” The
incremental learning algorithms are developed for fast remodeling in broad expansion without a retraining process if the
network deems to be expanded. Two incremental learning algorithms are given for both the increment of the feature nodes
(or filters in deep structure) and the increment of the enhancement nodes. The designed model and algorithms are very
versatile for selecting a model rapidly. In addition, another incremental learning is developed for a system that has been
modeled encounters a new incoming input. Specifically, the system can be remodeled in an incremental way without the
entire retraining from the beginning. Satisfactory result for model reduction using singular value decomposition is
conducted to simplify the final structure. Compared with existing deep neural networks, experimental results on the
Modified National Institute of Standards and Technology database and NYU NORB object recognition dataset benchmark
data demonstrate the effectiveness of the proposed BLS.
Abstract
We present a method for binary classification using neural networks (NNs) that performs training and classification on the
same data using the help of a pretraining heuristic classifier. The heuristic classifier is initially used to segment data into
three clusters of high-confidence positives, high-confidence negatives, and low-confidence sets. The high-confidence sets
are used to train an NN, which is then used to classify the low-confidence set. Applying this method to the binary
classification of hair versus nonhair patches, we obtain a 2.2% performance increase using the heuristically trained NN over
the current state-of-the-art hair segmentation method.
6.- Título: A Bi-criteria active learning algorithm for dynamic data streams
Abstract
Active learning (AL) is a promising way to efficiently build up training sets with minimal supervision. A learner deliberately
queries specific instances to tune the classifier's model using as few labels as possible. The challenge for streaming is that
the data distribution may evolve over time, and therefore the model must adapt. Another challenge is the sampling bias
where the sampled training set does not reflect the underlying data distribution. In the presence of concept drift, sampling
bias is more likely to occur as the training set needs to represent the whole evolving data. To tackle these challenges, we
propose a novel bi-criteria AL (BAL) approach that relies on two selection criteria, namely, label uncertainty criterion and
density-based criterion. While the first criterion selects instances that are the most uncertain in terms of class membership,
the latter dynamically curbs the sampling bias by weighting the samples to reflect on the true underlying distribution. To
design and implement these two criteria for learning from streams, BAL adopts a Bayesian online learning approach and
combines online classification and online clustering through the use of online logistic regression and online growing
Gaussian mixture models, respectively. Empirical results obtained on standard synthetic and real-world benchmarks show
the high performance of the proposed BAL method compared with the state-of-the-art AL methods.
7.- Título: Finite-Time stabilization of delayed memristive neural networks: Discontinuous state-feedback and adaptive
control approach
Abstract
In this paper, a general class of delayed memristive neural networks (DMNNs) system described by functional differential
equation with discontinuous right-hand side is considered. Under the extended Filippov-framework, we investigate the
finite-time stabilization problem for DMNNs by using the famous finite-time stability theorem and the generalized
Lyapunov functional method. To do so, we design two classes of novel controllers including discontinuous state-feedback
controller and discontinuous adaptive controller. Without assuming the boundedness and monotonicity of the activation
functions, several sufficient conditions are given to stabilize the states of this class of DMNNs in finite time. Moreover, the
upper bounds of the settling time for stabilization are estimated. Finally, numerical examples are provided to demonstrate
the effectiveness of the developed method and the theoretical results.
Abstract
This paper studies the problem of exactly identifying the structure of a probabilistic Boolean network (PBN) from a given
set of samples, where PBNs are probabilistic extensions of Boolean networks. Cheng et al. studied the problem while
focusing on PBNs consisting of pairs of AND/OR functions. This paper considers PBNs consisting of Boolean threshold
functions while focusing on those threshold functions that have unit coefficients. The treatment of Boolean threshold
functions, and triplets and n-tuplets of such functions, necessitates a deepening of the theoretical analyses. It is shown that
wide classes of PBNs with such threshold functions can be exactly identified from samples under reasonable constraints,
which include: 1) PBNs in which any number of threshold functions can be assigned provided that all have the same number
of input variables and 2) PBNs consisting of pairs of threshold functions with different numbers of input variables. It is also
shown that the problem of deciding the equivalence of two Boolean threshold functions is solvable in pseudopolynomial
time but remains co-NP complete.
Introduction
Identifying the network structure is an important challenge both in neuroscience and in systems biology. Extensive studies
have been done for identifying the network structure of a human brain by developing various experimental
techniques [1], [2]. However, the human brain’s network is too huge to be determined by the current experimental
technologies, and thus, computational methods may be helpful to support this big challenge. The identification of the
structure of gene regulatory networks has also been extensively studied. Since it is quite difficult to identify the gene
regulatory network structure using only experimental technologies, many computational methods have been developed
to identify the structure from gene expression time series data [3]–[4][5].
Various mathematical models have been employed and/or developed for computationally identifying network structures.
Among them, the Boolean network (BN) is a well-studied discrete mathematical model, which was proposed by
Kauffman [6], [7] in 1969 as a model of gene regulatory networks. The BN has also been used in modeling neural
networks [8], [9], because neurons are often modeled as Boolean threshold functions. In a BN, each node takes a Boolean
value, 0 or 1, at each time step, where each node corresponds to a gene (resp., a neuron), and 1 and 0 mean that genes
(resp., neurons) are active and inactive, respectively. In a widely studied synchronous BN, the states of all nodes are
updated synchronously according to Boolean functions assigned to nodes.
In order to identify BNs from gene expression time series data, extensive studies have been done based on combinatorial
methods [10]–[11][12][13] and on algebraic methods [14], [15] with semitensor product [16]. It is known that a BN
with n nodes is uniquely determined with high probability from randomly selected O(logn) state-transition samples if the
maximum indegree (i.e., the maximum number of input nodes) is bounded by a constant, whereas O(2n) samples are
required if there is no constraint on the structure of a BN [11], where logn stands for log2n in this paper. It should be noted
that this result is independent of identification algorithms and holds for BNs consisting of Boolean threshold functions with
at most K input variables.
While BNs are deterministic, both gene regularity networks [17] and neural networks [18]contain intrinsic stochasticity and
observed data also include noise. Therefore, various extensions of BNs have been proposed for including effects of noise
or control [19]–[20][21][22][23]. Among them, the probabilistic BN (PBN) model has been extensively studied [24]–
[25][26][27], including recent studies on its control [28]–[29][30][31]. In this model, multiple Boolean functions can be
assigned to each node and one of them is randomly selected at each time step according to the prescribed probability
distribution. Although several studies have been done on the inference of PBNs [24], [27], [32], there had been no result
on the sample complexity analogous to the one for BNs.
Recently, Cheng et al. [33] studied the number of samples needed to exactly identify the structure of a PBN (i.e., a set of
Boolean functions assigned to each node). They showed that there are cases for which it is impossible to uniquely
determine a PBN from samples, which is reasonable because of stochasticity of a PBN. However, they also showed that the
structure of a PBN can be identified with high probability from O(logn) samples for theoretically interesting classes of PBNs
of bounded indegree, in particular, a class in which a pair of AND/OR functions with the same number of input variables is
assigned to each node under the condition that each variable appears in the pair either positively or negatively (not both).
However, their work was limited because: 1) they focused on AND/OR Boolean functions and a very limited subclass of
canalyzing functions [34] and 2) at most two functions could be assigned to one node. In order to extend their approach to
neural networks, we need to be able to deal with threshold functions. It is to be noted that the class of threshold functions
is much wider than that of AND/OR functions [9]and is very different from the subclass of canalyzing functions considered
in [33].
In this paper, we describe broad classes of PBNs with threshold functions whose structure can be exactly identified from
samples. Hereafter, PBNs with threshold functions are referred to as probabilistic Boolean threshold networks (PBTNs). As
a first step toward this extension, we mainly consider threshold functions with unit coefficients. As in [33], we consider two
models for identification: the partial information model (PIM) and the full information model (FIM), but we introduce novel
ideas and deeper analyses. We show that broad classes of PBTNs can be exactly identified from samples, in particular the
following classes: 1) PBTNs in which any number of threshold functions can be assigned provided all functions assigned to
a node have the same number of input variables and satisfy certain reasonable conditions and 2) PBTNs consisting pairs of
threshold functions with different numbers of input variables under reasonable conditions, where the PIM and FIM are
assumed for 1) and 2), respectively. Furthermore, we show that a certain class of PBTNs with general coefficients can be
identified under the PIM; we analyze the number of samples required for identification in both models, and present some
biologically relevant class. In addition to the identification problem, we study the problem of deciding the equivalence of
two given Boolean threshold functions, because it might be needed to test whether an identified network is intrinsically
the same as some known network. We show that the problem is co-NP complete although it can be solved in
pseudopolynomial time. Note that a co-NP complete problem is the complement (i.e., exchanging “yes” and “no” in the
output) of the corresponding NP complete problem, and that no co-NP complete problem has a polynomial time algorithm
unless P=NP [35].
Abstract
Graphlets are induced subgraphs of a large network and are important for understanding and modeling complex networks.
Despite their practical importance, graphlets have been severely limited to applications and domains with relatively small
graphs. Most previous work has focused on exact algorithms; however, it is often too expensive to compute graphlets
exactly in massive networks with billions of edges, and finding an approximate count is usually sufficient for many
applications. In this paper, we propose an unbiased graphlet estimation framework that is: (a) fast with large speedups
compared to the state of the art; (b) parallel with nearly linear speedups; (c) accurate with less than 1% relative error; (d)
scalable and space efficient for massive networks with billions of edges; and (e) effective for a variety of real-world settings
as well as estimating global and local graphlet statistics (e.g., counts). On 300 networks from 20 domains, we obtain <;1%
relative error for all graphlets. This is vastly more accurate than the existing methods while using less data. Moreover, it
takes a few seconds on billion edge graphs (as opposed to days/weeks). These are by far the largest graphlet computations
to date.
Introduction
Graphlets are small induced subgraphs1 and are important for many predictive and descriptive modeling and learning
systems/tasks [1]–[2][3][4][5][6][7][8] such as image processing and computer vision learning systems that use neural
networks [1], [9], network alignment [6], [10]–[11][12], classification [2], [3], visualization and sensemaking [13], [14],
dynamic network analysis [15], [16], community detection [17]–[18][19], role discovery [20], anomaly detection [21], [22],
and link prediction [8], [23], [24]. Unfortunately, the application and general use of graphlets (especially those of
size k=4 nodes and larger) remain severely limited to networks that are small enough to avoid the scalability and
performance limitations of exact algorithms [13], [25]–[26][27][28]. For instance, Shervashidze et al. [3] take hours to
count graphlets on small networks (i.e., a few hundreds/thousands of nodes/edges) for the graph classification [2].
In many applications, finding an “approximate” answer is usually sufficient where the exact answer is not worth the extra
cost and time. The recent rise of big data [29] has made approximation methods even more critical [30], especially for
practical applications [31]–[32][33][34][35]. More recently, the approximation methods have been proposed for important
problems such as triangle counting [36]–[37][38][39][40], the shortest path problems [33], [41], finding max cliques [42],
and many others.
This paper aims to overcome the above-mentioned computational limitations to make graphlets more accessible to other
applications/domains with much larger graphs. In particular, this paper proposes a general graphlet estimation framework
for deriving unbiased estimates2 of a variety of graphlet statistics (e.g., frequency of an arbitrary k -vertex-induced
subgraph) from a small set of edge-induced neighborhoods. The graphlet estimators provide accurate and fast
approximations of a variety of global and local graphlet properties.3 Intuitively, a global graphlet property assigns a single
value (or distribution/map) to a graph G , whereas a local graphlet property assigns a single value (or distribution/map) to
a particular graph element such as an edge or node of G [43]. An example of a global graphlet statistic is the total number
of 4-cliques in G , whereas an example of a local statistic is the number of 4-cliques containing a certain graph element such
as an edge or node.4 Furthermore, a number of important machine learning tasks are likely to benefit from the proposed
graphlet estimation framework, including graph anomaly detection [21], [22], entity resolution [44], role discovery [45],
and relational classification [46].
Graphlet estimation framework: A general unbiased estimation framework is proposed for approximating global and local
graphlet properties (such as counts) in massive networks with billions of edges. The framework is shown to be accurate,
fast, and scalable for both dense and sparse networks of arbitrary size.
Accurate: For all graphlets and data (300 graphs from 20 domains), the methods are more accurate than the existing state-
of-the-art methods (<1% relative error) while using only a small fraction of the data. Provable error bounds are also derived
and shown to be tight (see Section IV-B).
Efficient: The proposed estimation algorithms are orders of magnitude faster than the recent state-of-the-art algorithm
and take a few seconds as opposed to days/months.
Parallel methods: This paper proposes parallel graphlet estimation methods for shared and distributed memory
architectures. Strong scaling results with nearly linear speedups are observed across a variety of networks.
Estimation of graphlet statistics—beyond counts: This paper proposes estimation methods for both global and local
graphlet counts, as well as other graphlet properties beyond simple counts (see Section II-B). This is in contrast to the
existing estimation methods for graphlets [47]–[48][49] that focus only on approximating global graphlet counts.
Largest investigation and graphlet computations: To the best of our knowledge, this paper provides: (i) the largest graphlet
computations to date and (ii) the largest empirical investigation using 300+ networks from 20+ domains.
10.- Título: Fractional Hopfield neural networks: Fractional dynamic associative recurrent neural networks
Abstract
This paper mainly discusses a novel conceptual framework: fractional Hopfield neural networks (FHNN). As is commonly
known, fractional calculus has been incorporated into artificial neural networks, mainly because of its long-term memory
and nonlocality. Some researchers have made interesting attempts at fractional neural networks and gained competitive
advantages over integer-order neural networks. Therefore, it is naturally makes one ponder how to generalize the first-
order Hopfield neural networks to the fractional-order ones, and how to implement FHNN by means of fractional calculus.
We propose to introduce a novel mathematical method: fractional calculus to implement FHNN. First, we implement fractor
in the form of an analog circuit. Second, we implement FHNN by utilizing fractor and the fractional steepest descent
approach, construct its Lyapunov function, and further analyze its attractors. Third, we perform experiments to analyze the
stability and convergence of FHNN, and further discuss its applications to the defense against chip cloning attacks for
anticounterfeiting. The main contribution of our work is to propose FHNN in the form of an analog circuit by utilizing a
fractor and the fractional steepest descent approach, construct its Lyapunov function, prove its Lyapunov stability, analyze
its attractors, and apply FHNN to the defense against chip cloning attacks for anticounterfeiting. A significant advantage of
FHNN is that its attractors essentially relate to the neuron's fractional order. FHNN possesses the fractional-order-stability
and fractional-order-sensitivity characteristics.
Introduction
It is well known that the classical first-order Hopfield neural networks (HNNs) is one of the most influential neural
networks [1]–[2][3][4]. The circuit configuration of HNN’s first-order neuron is based on a first-order integral circuit. Each
first-order neuron of HNN consists of one operational amplifier and its related capacitor and resistors. Each first-order
neuron has the same circuit configuration. There are many classical applications of HNN in content addressable memory [1],
analog-to-digital converters [5], linear programming [3], and so on. Meanwhile, there are also many dynamic associative
memories that are closely related to HNN, such as the Li et al. neural networks [6], [7], bidirectional associative
memories [8], [9], and so on. Furthermore, with the widespread application of HNN, some model modifications of HNN,
such as the high-order HNNs [10]–[11][12][13], fuzzy HNNs [14], [15], and stochastic HNNs [16], [17], are proposed,
respectively. In addition, fractional calculus has been incorporated into artificial neural networks, mainly because of its
long-term memory and nonlocality. Some researchers have made interesting attempts at fractional neural networks and
gained competitive advantages over the integer-order neural networks. For instance, Özdemir et al. [18]proposed a new
type of activation function for a complex valued neural network. Alofi et al. [19] studied the finite-time stability of Caputo
fractional neural networks with distributed delay. Kaslik and Sivasundaram [20] discussed the stability analysis of the
fractional-order neural networks of Hopfield type. Zhang et al. [21] discussed a fractional-order financial system based on
a fractional-order 3-D Hopfield type neural network. Raja et al. [22]–[23][24][25] proposed stochastic techniques as well as
evolutionary techniques for the solution of the fractional-order systems represented by fractional differential equations,
respectively. In these approaches, feedforward artificial neural networks are employed for accurate mathematical
modeling. The advantage of these approaches is that the solution of fractional differential equations is available in the
domain of continuous inputs unlike the other integer-order calculation-based numerical techniques. Therefore, it naturally
makes one to ponder how to generalize HNN to the fractional-order ones, and how to implement the fractional HNNs
(FHNNs) by means of fractional calculus. This paper discusses a novel conceptual framework: FHNN.
In over the past 300 years, fractional calculus has been an important novel branch of mathematical analyses [26]–
[27][28][29][30][31]. Fractional calculus is as old as the integer one, although till date, its application has been exclusively
in the field of mathematics. It seems as if fractional calculus is a promising mathematical method for physical scientists and
engineering technicians. Scientific study has shown that a fractional order or a fractional dimensional approach is now the
best description for many natural phenomena. Fractional calculus is used currently in many fields such as specific physical
problems [32], [33], biomedical engineering [34], diffusion processes [35]–[36][37], viscoelasticity theory [38], fractal
dynamics [39], and fractional control [40]. Unfortunately, its major application still focuses on describing the transient state
of physical change, but seldom involves systemic evolution processes.
How to apply fractional calculus to signal analysis and processing, especially to neural networks, is an emerging field of
study and few studies have been seldom performed in this area. The properties of the fractional calculus of a signal are
quite different from those of its integer-order calculus [41]–[42][43]. Therefore, the fractional differential can nonlinearly
enhance the complex texture details of an image [44]–[45][46] and implement texture image denoising approaches [47]–
[48][49][50]. Following the success in the synthesis of a fractional differentiator in the form of an analog circuit, the
emergence of a novel electrical circuit element has been named fractor [26], [43], [51]–[52][53][54][55][56][57]. As in our
previous studies [51], [52], an ideal fractor consists of an ordinary resistor and an ordinary capacitor or inductor in the form
of an analog circuit on the tree-type [26], two-circuit-type [43], [53], H-type [43], [54], net-grid-type [43], [55]–[56][57],
and other infinite recursive structures, which are of extreme self-similar fractal structure. On this basis, the first preliminary
attempt at implementation of a fractional-order neural network of the Hopfield type by means of fractional calculus was
reported [57]. Another prior study [58] showed that, in fractional adaptive signal processing and fractional adaptive
control, the fractional extreme point is quite different from a traditional integer-order extreme one, such as the first-order
stationary point. In order to seek the fractional extreme points of the energy norm, we have generalized the integer-order
steepest descent approach to a fractional approach [58]. Based on the prior studies mentioned above [26], [43], [45], [51]–
[52][53][54][55][56][57][58], we propose to introduce a novel mathematical method: fractional calculus to implement
FHNN. A significant advantage of FHNN is that its attractors essentially relate to the neuron’s fractional order. FHNN
possesses the fractional-order stability and the fractional-order-sensitivity characteristics.
The rest of this paper is organized as follows. Section II recalls the necessary theoretical background of fractional calculus
and fractional neural works. Section III implements FHNN and studies its stability and convergence. First, we implement
fractor in the form of an analog circuit. Second, we implement FHNN by utilizing fractor and the fractional steepest descent
approach. Third, we construct the Lyapunov function of FHNN. Fourth, we analyze the attractors of FHNN. Section
IV reports the experiment results and analysis. First, we deduce numerical implementation of FHNN. Second, we analyze
the stability and convergence of FHNN. Third, we study the applications of FHNN to the defense against chip cloning attacks
for anticounterfeiting. In Section V, the conclusions of this paper are presented.
References
1) J. J. Hopfield, "Neural networks and physical systems with emergent collective computational abilities", Proc. Nat. Acad.
Sci. USA, vol. 79, no. 8, pp. 2554-2558, 1982.
2) J. J. Hopfield, "Neurons with graded response have collective computational properties like those of two-state
neurons", Proc. Nat. Acad. Sci. USA, vol. 81, no. 10, pp. 3088-3092, 1984.
3) J. J. Hopfield, D. W. Tank, "‘Neural’ computation of decisions in optimization problems", Biol. Cybern., vol. 52, no. 3, pp.
141-152, 1985.
4) J. J. Hopfield, D. W. Tank, "Computing with neural circuits: A model", Science, vol. 233, no. 4764, pp. 625-633, 1986.
5) D. W. Tank, J. J. Hopfield, "Simple ‘neural’ optimization networks: An A/D converter signal decision circuit and a linear
programming circuit", IEEE Trans. Circuits Syst., vol. 33, no. 5, pp. 533-541, May 1986.
6) J.-H. Li, A. N. Michel, W. Porod, "Analysis and synthesis of a class of neural networks: Linear systems operating on a
closed hypercube", IEEE Trans. Circuits Syst., vol. 36, no. 11, pp. 1405-1422, Nov. 1989.
7) A. N. Michel, J. A. Farrell, "Associative memories via artificial neural networks", IEEE Control Syst. Mag., vol. 10, no. 3,
pp. 6-17, Apr. 1990.
8) B. Kosko, "Adaptive bidirectional associative memories", Appl. Opt., vol. 26, no. 23, pp. 4947-4960, 1987.
9) B. Zhang, S. Xu, G. Zong, Y. Zou, "Delay-dependent exponential stability for uncertain stochastic Hopfield neural networks
with timevarying delays", IEEE Trans. Circuits Syst. I Reg. Papers, vol. 56, no. 6, pp. 1241-1247, Jun. 2009.
10) R. C. Koeller, "Applications of fractional calculus to the theory of viscoelasticity", J. Appl. Mech., vol. 51, no. 2, pp. 299-
307, 1984.
ENGINEERING APPLICATIONS OF ARTIFICIAL INTELLIGENCE
Publica artículos que describen la aplicación práctica de los métodos de Inteligencia Artificial en todas las ramas de
la ingeniería.
Automatización inteligente en tiempo real, sus metodologías y técnicas de soporte, incluida la teoría de control y
la informática industrial.
Arquitecturas, algoritmos y técnicas para sistemas de inteligencia artificial distribuidos, control basado en agentes
múltiples.
Sistemas de soporte a la decisión.
Razonamiento abductivo basado en casos, modelos, no monotómico, incompleto, progresivo y aproximado.
Aplicaciones de Teoría del caos y los fractales.
Aplicaciones en automatización inteligente y optimización global de algoritmos evolutivos, inteligencia de
enjambres, etcétera.
Procesamiento, obtención, adquisición, representación y compactación de conocimiento.
Redes neuronales, sistemas difusos, sistemas neuro-difusos.
Aprendizaje profundo.
Procesamiento de imágenes, reconocimiento de patrones, sistemas de visión, sistemas táctiles, reconocimiento
de voz y síntesis.
Entornos de programación inteligente, verificación y validación de arquitectura de software basada en inteligencia
artificial.
Detección, análisis, diagnóstico monitoreo de fallas.
Análisis de Big Data, redes complejas, internet de las cosas, sistemas cibernéticos, sistema de transporte y
vehículos inteligentes. (ELSEVIER B.V., 2019)
DYNAMICAL SYSTEMS-AN INTERNATIONAL JOURNAL
Publica artículos de investigación de Sistemas Dinámicos, especialmente de sistemas no lineales. Se publican cuatro
volúmenes por año, tanto impresas como de manera electrónica. Se presentan avances en los siguientes temas:
Ecuaciones Diferenciales
Teoría de Bifurcación
Dinámica Hamiltoniana y Lagrangiana
Dinámica Hiperbólica
Teoría Ergódica
Dinámica topológica suave
Sistemas dinámicos aleatorios
Aplicaciones en tecnología, ingeniería y ciencias naturales (Taylor & Francis Online, 2018)
CELESTIAL MECHANICS & DYNAMICAL ASTRONOMY
Los artículos publicados en esta revista se basan en aspectos matemáticos, físicos y computacionales de la teoría planetaria,
la teoría lunar, la teoría de la resonancia, la geodesia de la Tierra y los planetas, problema de los 3 cuerpos, problema de
los n cuerpos, la mecánica espacial, los sistemas de anillos, la dinámica galáctica, los marcos de referencia, el tiempo, la
relatividad, fuerzas no gravitacionales, los métodos informáticos para desarrollos analíticos y la gestión de bases de datos.
(Springer Link, 2019)
Artículos
Abstract
We classify the full set of convex central configurations in the Newtonian planar four-body problem. Particular attention is
given to configurations possessing some type of symmetry or defining geometric property. Special cases considered include
kite, trapezoidal, co-circular, equidiagonal, orthodiagonal, and bisecting-diagonal configurations. Good coordinates for
describing the set are established. We use them to prove that the set of four-body convex central configurations with
positive masses is three-dimensional, a graph over a domain D that is the union of elementary regions in R+3R+3.
2.- Título: Symplectic propagators for the Kepler problem with time-dependent mass
Abstract
New numerical integrators specifically designed for solving the two-body gravitational problem with a time-varying mass
are presented. They can be seen as a generalization of commutator-free quasi-Magnus exponential integrators and are
based on the compositions of symplectic flows. As a consequence, in their implementation they use the mapping that
solves the autonomous problem with averaged masses at intermediate stages. Methods up to order eight are constructed
and shown to be more efficient than other symplectic schemes on numerical examples.
Resumen
Objetivo-Resultados
Se presentan nuevos integradores numéricos diseñados específicamente para resolver el problema gravitacional de dos
cuerpos con una masa variable en el tiempo.
Metodología
Pueden verse como una generalización de los integradores exponenciales casi magnéticos sin conmutadores y se basan en
las composiciones de flujos simplécticos. Como consecuencia, en su implementación utilizan el mapeo que resuelve el
problema autónomo con masas promediadas en etapas intermedias.
Conclusiones
Los métodos hasta el orden ocho se construyen y se demuestra que son más eficientes que otros esquemas simplécticos
en ejemplos numéricos.
3.- Título: A first integral to the partially averaged Newtonian potential of the three-body problem
Abstract
We consider the partial average, i.e. the Lagrange average with respect to just one of the two mean anomalies, of the
Newtonian part of the perturbing function in the three-body problem Hamiltonian. We prove that such a partial average
exhibits a non-trivial first integral. We show that this integral is fully responsible for certain cancellations in the averaged
Newtonian potential, including a property noticed by Harrington in the 1960s. We also highlight its joint role (together with
certain symmetries) in the appearance of the so-called Herman resonance. Finally, we discuss an application and an open
problem.
Resumen
Metodología
Consideramos el promedio parcial, es decir, el promedio de Lagrange con respecto a solo una de las dos anomalías medias,
de la parte newtoniana de la función perturbadora en el problema de los tres cuerpos del hamiltoniano.
Objetivo
Demostramos que tal promedio parcial exhibe una primera integral no trivial.
Resultados
Mostramos que esta integral es totalmente responsable de ciertas cancelaciones en el potencial newtoniano promediado,
incluida una propiedad observada por Harrington en la década de 1960. También destacamos su papel conjunto (junto con
ciertas simetrías) en la aparición de la llamada resonancia de Herman. Finalmente, discutimos una aplicación y un problema
abierto.
Abstract
Central configurations give rise to self-similar solutions to the Newtonian N-body problem and play important roles in
understanding its complicated dynamics. Even the simple question of whether or not there are finitely many planar central
configurations for N positive masses remains unsolved in most cases. Considering central configurations as critical points
of a function f, we explicitly compute the eigenvalues of the Hessian of f for all N for the point vortex potential for the
regular polygon with equal masses. For homogeneous potentials including the Newtonian case, we compute bounds on
the eigenvalues for the regular polygon with equal masses and give estimates on where bifurcations occur. These
eigenvalue computations imply results on the Morse indices of f for the regular polygon. Explicit formulae for the
eigenvalues of the Hessian are also given for all central configurations of the equal-mass four-body problem with a
homogeneous potential. Classic results on collinear central configurations are also generalized to the homogeneous
potential case. Numerical results, conjectures, and suggestions for the future work in the context of a homogeneous
potential are given.
Resumen
Las configuraciones centrales dan lugar a soluciones similares al problema de N cuerpos de Newton y juegan un papel
importante en la comprensión de su dinámica complicada. Incluso la simple pregunta de si hay o no infinidad de
configuraciones centrales planas para N masas positivas sigue sin resolverse en la mayoría de los casos. Teniendo en cuenta
las configuraciones centrales como puntos críticos de una función f, calculamos explícitamente los valores propios del
Hessiano para todo N para el potencial de vórtice de puntos para el polígono regular con masas iguales. Para potenciales
homogéneos, incluido el caso newtoniano, calculamos los límites de los valores propios del polígono regular con masas
iguales y proporcionamos estimaciones sobre dónde ocurren las bifurcaciones. Estos cálculos de valores propios implican
resultados en los índices Morse de f para el polígono regular. Fórmulas explícitas para los valores propios del Hessiano
también se dan para todas las configuraciones centrales del problema de cuatro cuerpos de igual masa con un potencial
homogéneo. Los resultados clásicos sobre configuraciones centrales colineales también se generalizan al caso de potencial
homogéneo. Se dan resultados numéricos, conjeturas y sugerencias para el trabajo futuro en el contexto de un potencial
homogéneo.
Análisis
Antecedentes
Las configuraciones centrales dan lugar a soluciones similares al problema de N cuerpos de Newton y juegan un papel
importante en la comprensión de su dinámica complicada. Incluso la simple pregunta de si hay o no infinidad de
configuraciones centrales planas para N masas positivas sigue sin resolverse en la mayoría de los casos.
Metodología
Teniendo en cuenta las configuraciones centrales como puntos críticos de una función f,
Resultados
Calculamos explícitamente los valores propios del Hessiano para todo N para el potencial de vórtice de puntos para el
polígono regular con masas iguales. Para potenciales homogéneos, incluido el caso newtoniano, calculamos los límites de
los valores propios del polígono regular con masas iguales y proporcionamos estimaciones sobre dónde ocurren las
bifurcaciones. Estos cálculos de valores propios implican resultados en los índices Morse de f para el polígono regular.
Fórmulas explícitas para los valores propios del Hessiano también se dan para todas las configuraciones centrales del
problema de cuatro cuerpos de igual masa con un potencial homogéneo. Los resultados clásicos sobre configuraciones
centrales colineales también se generalizan al caso de potencial homogéneo.
Conclusiones
Se dan resultados numéricos, conjeturas y sugerencias para el trabajo futuro en el contexto de un potencial homogéneo.
Abstract
A family of periodic orbits is proven to exist in the spatial lunar problem that are continuations of a family of consecutive
collision orbits, perpendicular to the primary orbit plane. This family emanates from all but two energy values. The orbits
are numerically explored. The global properties and geometry of the family are studied.
Resumen
Se ha comprobado que existe una familia de órbitas periódicas en el problema espacial lunar que son continuaciones de
una familia de órbitas de colisión consecutivas, perpendiculares al plano de la órbita primaria. Esta familia emana de
todos menos dos valores de energía. Las órbitas son exploradas numéricamente. Se estudian las propiedades globales y la
geometría de la familia.
Análisis
Conclusiones
Se ha comprobado que existe una familia de órbitas periódicas en el problema espacial lunar que son continuaciones de
una familia de órbitas de colisión consecutivas, perpendiculares al plano de la órbita primaria.
Resultados
Esta familia emana de todos menos dos valores de energía. Las órbitas son exploradas numéricamente. Se estudian las
propiedades globales y la geometría de la familia.
Referencias
Academic Solutions Ltd. and Dynamic Publishers, Inc. (2016). Dynamic Systems and Applications. Obtenido de Dynamic
Systems and Applications: https://acadsol.eu/dsa/
ACM Digital Library. (2019). ACM Digital Library. Obtenido de ACM Transactions on Intelligent Systems and Technology:
https://tist.acm.org/index.cfm
ELSEVIER B.V. (2019). Differential Geometry and its Applications. Obtenido de Differential Geometry and its Applications:
https://www.journals.elsevier.com/differential-geometry-and-its-applications
ELSEVIER B.V. (2019). Engineering Applications of Artificial Intelligence. Obtenido de Engineering Applications of Artificial
Intelligence: https://www.journals.elsevier.com/engineering-applications-of-artificial-intelligence
IEEE Xplore . (21 de julio de 2019). ieeexplore. Obtenido de IEEE Xplore Digital Library:
https://ieeexplore.ieee.org/xpl/RecentIssue.jsp?punumber=5962385
IEEE Xplore. (s.f.). IEEE Transactions on Neural Networks and Learning Systems. Obtenido de IEEE Transactions on Neural
Networks and Learning Systems: https://ieeexplore.ieee.org/xpl/RecentIssue.jsp?punumber=5962385
Springer Link. (2019). Celestial Mechanics and Dynamical Astronomy. An International Journal of Space Dynamics.
Obtenido de Celestial Mechanics and Dynamical Astronomy. An International Journal of Space Dynamics:
https://link.springer.com/journal/volumesAndIssues/10569
Taylor & Francis Online. (2018). Journal Dynamical Systems, an International Journal. Obtenido de Journal Dynamical
Systems, an International Journal:
https://www.tandfonline.com/action/journalInformation?show=aimsScope&journalCode=cdss20