Meetings
David Atienza
Exponential Family and Prior Conjugates
CIG seminar. January 31st, 2019,14:00-15:00 . Hemiciclo H-1002, Bloque 1.
En esta charla se introducirá la familia exponencial de distribuciones. Posteriormente, se explicará el funcionamiento de las distribuciones conjugadas, dado que la familia exponencial es la unica familia de distribuciones con distribuciones conjugadas. Las distribuciones conjugadas nos permiten obtener una formula cerrada con la que obtener la probabilidad a posteriori a partir de una probabilidad a priori con la misma forma.
Santiago Gil-Begué
Medidas de evaluación de rendimiento para clasificadores multi-dimensionales
CIG seminar. January 24th, 2019,14:00-15:00. Aula A-5002 (Bloque 5)
El problema de clasificación multi-dimensional (supervisada) es una extensión del problema tradicional de clasificación uni-dimensional, en el que una instancia se asigna a múltiples variables clase. La evaluación de modelos en un contexto multi-dimensional debe tener en cuenta el rendimiento simultáneo de todas las variables clase. En este seminario describiremos el conjunto de medidas que permiten evaluar el rendimiento de clasificadores multi-dimensionales, las cuales las dividiremos en medidas de clasificación, probabilísticas y de ranking. También abordaremos el problema de una evaluación estratificada para un problema de clasificación multi-dimensional
Carlos Esteban Puerto
Selección de variables en procesos ocultos de Markov
CIG seminar. January 17th, 2019,14:00-15:00. Aula A-5002 (Bloque 5)
En esta charla se revisará el articulo de Stephen Adams, et al. que se titula “Feature Selection for Hidden Markov Models and Hidden Semi-Markov Models” (2016). En la charla se expondrá un método de selección de variables embebido durante el aprendizaje de procesos ocultos de Markov. El aprendizaje dará como resultado un indicador de la relevancia de cada variable y su mivel de relevancia en el proceso. Adicionalmente, se mostrará los resultados obteniedos en datos sinteticos y reales por parte de Adams, et al.
Enlaces importantes: https://ieeexplore.ieee.org/document/7450620
Fernando Rodríguez Sánchez
Introduction to Variational inference
CIG seminar. January 10th, 2019,14:00-15:00. Hemiciclo H-1002, Bloque 1.
One of the core problems of modern statistics is to approximate difficult-to-compute probability densities. This problem is especially important in Bayesian statistics. Variational methods have recently become popular in the context of inference problems because they provide an analytical approximation to the posterior probability of the unobserved variables. Compared to the approximate methods such as MCMC sampling, variational inference tends to be faster and easier to scale to large data. The objective of this talk is to provide an introduction to this topic with special attention to probabilistic graphical models
Nikolás Bernaola
Redes de corregulacion genetica con redes bayesianas
CIG seminar. December 20th, 2018,12:00-13:00. Hemiciclo H-1002, Bloque 1.
En este seminario se explicará en que consiste el Human Brain Project europeo, cuales son sus principales objetivos y el trabajo que se ha realizado hasta ahora. En concreto se hablará también del trabajo del SP5 y de los proyectos en los que está involucrado el CIG. Después se hablará de las redes de regulación genética, su importancia para la investigación en biología y los métodos más comunes para aprender sus estructuras. Finalmente se hablará de las ventajas e inconvenientes que tiene el usar Redes Bayesianas para resolver el problema.
Bojan Mihaljevic
CIG seminar. December 12th, 2018,12:00-13:00. Hemiciclo H-1002, Bloque 1.
La mayoría de los estudios en neurociencia se hacen en roedores. Para entender mejor cómo los resultados obtenidos se pueden extrapolar al humano es necesario comprender las diferencias entre sus neuronas y las del humano, más allá de las obvias diferencias en tamaño. Estudios previos han comparado las morfologías de manera univariantes. Nuestro objetivo es hacer comparaciones multivariantes, al modelar la morfología neuronal de cada especie con una red Bayesiana y comparar estas dos redes. Voy a presentar nuestros analisis iniciales en neuronas de hipocampo de ratón y humano. Primero, el estudio de factibilidad de modelar los datos con una red Gaussiana, comparando distintos algoritmos de aprendizaje. Segundo, con redes Bayesianas híbridas con variables Gausianas y variables latentes discretas.
Carlos Villa
Selección de variables sobre datos dinámicos.
CIG seminar. November 29th, 2018,12:00-13:00. Hemiciclo H-1002, Bloque 1.
En este seminario se introducirá la selección, o reducción, de variables incremental, un proceso que aporta importantes beneficios al reducir la dimensionalidad de nuestros datos mediante la eliminación de aquellas variables irrelevantes o redundantes. Estos algoritmos son de especial interés cuando trabajamos sobre flujos de datos continuos, donde es necesario adaptar las variables seleccionas a los nuevos datos recibidos, pero también son de gran utilidad cuando trabajamos con datasets de gran tamaño y debemos realizar una selección de variables incremental debido a problemas de memoria. En esta charla se estructurará el estado actual del arte, además de analizar algunos de los enfoques utilizados tanto para data streams como feature streams supervisados y no supervisados.
David Atienza
Introduction to Kernel Density Estimation.
CIG seminar. November 22th, 2018, 12:00-13:00. Hemiciclo H-1002, Bloque 1.
En está charla se introducirá Kernel Density Estimation. Kernel Density Estimation es un método no paramétrico de estimación de una distribución de probabilidad. Al ser un método no paramétrico, tienen una gran flexibilidad para estimar cualquier distribución de probabilidad sin realizar asunciones acerca de la distribución de probabilidad a estimar, a cambio de una (habitualmente) mayor carga computacional que los modelos paramétricos. En la charla se presentarán los conceptos más básicos y alguno de los problemas que podemos encontrar al utilizar Kernel Density Estimation. En función del desarrollo de la charla, se presentará un algoritmo para aprender Kernel Density Estimation de forma on-line combinando Kernel Density Estimation con un modelo de mixtura de Gaussianas
Santiago Gil Begué
Propuesta de un nuevo clasificador multi-dimensional de redes Bayesianas en árbol.
CIG seminar. November 15th, 2018, 12:00-13:00. Hemiciclo H-1002, Bloque 1.
Los clasificadores multi-dimensionales de redes Bayesianas (conocidos por sus siglas en inglés, MBCs) son modelos gráficos probabilísticos hechos a medida para resolver problemas de clasificación multi-dimensional, en los que una instancia se debe asignar a múltiples variables clase. En este trabajo proponemos un nuevo clasificador multi-dimensional, el cual consiste en un árbol de clasificación con MBCs en los nodos hoja. También presentamos una aproximación wrapper para aprender este clasificador desde un conjunto de datos. Un estudio experimental llevado a cabo sobre datos sintéticos generados de manera aleatoria muestra resultados alentadores en términos de precisión predictiva
Esteban Puerto Santana
Asymmetric hidden Markov models with continuous variables.
CIG seminar. November 8th, 2018, 12:00-13:00. Hemiciclo H-1002, Bloque 1.
Hidden Markov models have been successfully applied to model signals and dynamic data. However, when dealing with many variables,traditional hidden Markov models do not take into account asymmetric dependencies, leading to models with overfitting and poor problem insight. To deal with the previous problem, asymmetric hidden Markov models were recently proposed, whose emission probabilities are modified to follow a state-dependent graphical model. However, only discrete models have been developed. We introduce asymmetric hidden Markov models with continuous variables using state-dependent linear Gaussian Bayesian networks. We propose a parameter and structure learning algorithm for this new model. We run experiments with real data from bearing vibration. Since vibrational data is continuous, with the proposed model we can avoid any variable discretization step and perform learning and inference in an asymmetric information frame
Fernando Rodríguez Sánchez
Multidimensional clustering with Bayesian networks
CIG seminar. October 25th, 2018
El objetivo de esta charla es presentar el clustering probabilistico multidimensional como alternativa al enfoque tradicional. Si bien los metodos tradicionales de clustering asumen la premisa de que existe una forma única de agrupar las instancias, ésta no suele
cumplirse cuando trabajamos con datos complejos (alta dimensionalidad, atributos pertenecientes a varios dominios, etc.). Nuestro objetivo es por tanto presentar las carencias de este tipo de metodos, el trabajo realizado actualmente y como podemos mejorarlo. Todo ello en el marco de las redes Bayesianas.
Irene Córdoba Sánchez
A partial orthogonalization method for generating covariance and concentration graph matrices
CIG seminar. October 11th, 2018
Structure learning methods for covariance and concentration graphs are often validated on synthetic models, usually obtained by randomly generating: (i) an undirected graph, and (ii) a compatible symmetric positive definite (SPD) matrix. In order to ensure positive definiteness in (ii), a dominant diagonal is usually imposed. However, the link strengths in the resulting graphical model, determined by off-diagonal entries in the SPD matrix, are in many scenarios extremely weak. Recovering the structure of the undirected graph thus becomes a challenge, and algorithm validation is notably affected. In this paper, we propose an alternative method which overcomes such problem yet yielding a compatible SPD matrix. We generate a partially row-wise-orthogonal matrix factor, where pairwise orthogonal rows correspond to missing edges in the undirected graph. In numerical experiments ranging from moderately dense to sparse scenarios, we obtain that, as the dimension increases, the link strength we simulate is stable with respect to the structure sparsity. Importantly, we show in a real validation setting how structure recovery is greatly improved for all learning algorithms when using our proposed method, thereby producing a more realistic comparison framework.
Juan Antonio Fernandez del Pozo
Magerit
CIG Meeting. September 15th, 2014
Bojan Mihaljevic
Multi-expert multi-dimensional classification of GABAergic interneurons with label Bayesian networks
CIG Meeting. July 14th, 2014
Gherardo Varando
Decision Boundary for Discrete Bayesian Network Classifier
CIG Meeting. May 26th, 2014
Laura Antón-Sánchez
Modeling replicated 3D spatial point patterns of cerebral cortex synapses
CIG Meeting. May 19th, 2014
Gherardo Varando
Conditional Density Approximations with Mixtures of Polynomials
CIG Meeting. May 12th, 2014
Bojan Mihaljevic
Classifying GABAergic interneurons with semi-supervised projected model-based clustering
CIG Meeting. March 17th, 2014
Juan Antonio Fernández del Pozo
Representación de datos Multidimensionales: descripción de tablas de reglas y conjuntos de datos
CIG Meeting. May 17th, 2013
Laura Antón-Sanchez
Optimal Neuronal Wiring through EDAs with Permutations Domains
CIG Meeting. April 25th, 2013
Luis Guerra
Clustering of dendritic spines on Prezi
CIG Meeting. April 11th, 2013
Rubén Armañanzas
Advices on Job Seeking
CIG Meeting. April 4th, 2013
Pedro L. López-Cruz
How to build an R package
CIG Meeting. March 21st, 2013
Hossein Karshenas
Multi-objective feature subset selection with EDAs
CIG Meeting. March 14th, 2013
Bojan Mihaljevic
BayesClass: an R package for learning Bayesian network classifiers
CIG Meeting. March 7th, 2013.
Juan A. Fernández del Pozo (2011)
Parameter Control of Genetic Algorithms by Learning and Simulation of Bayesian Networks
CIG Meeting. 9th June, 2011
L. Guerra (2011)
Partially labelled data: classification and discovery of unknown labels using subspaces of features
CIG Meeting. February, 2011
Linda C. van der Gaar (2010)
CIG Meeting. 11th November, 2010
D. Vidaurre (2010)
L1-Regularization for supervised learning data
CIG Meeting. 25th September, 2010