Meetings

David Atienza

Exponential Family and Prior Conjugates

CIG seminar. January 31st, 2019,14:00-15:00 . Hemiciclo H-1002, Bloque 1.

En esta charla se introducirá la familia exponencial de distribuciones. Posteriormente, se explicará el funcionamiento de las distribuciones conjugadas, dado que la familia exponencial es la unica familia de distribuciones con distribuciones conjugadas. Las distribuciones conjugadas nos permiten obtener una formula cerrada con la que obtener la probabilidad a posteriori a partir de una probabilidad a priori con la misma forma.


Santiago Gil-Begué

Medidas de evaluación de rendimiento para clasificadores multi-dimensionales

CIG seminar. January 24th, 2019,14:00-15:00. Aula A-5002 (Bloque 5)

El problema de clasificación multi-dimensional (supervisada) es una extensión del problema tradicional de clasificación uni-dimensional, en el que una instancia se asigna a múltiples variables clase. La evaluación de modelos en un contexto multi-dimensional debe tener en cuenta el rendimiento simultáneo de todas las variables clase. En este seminario describiremos el conjunto de medidas que permiten evaluar el rendimiento de clasificadores multi-dimensionales, las cuales las dividiremos en medidas de clasificación, probabilísticas y de ranking. También abordaremos el problema de una evaluación estratificada para un problema de clasificación multi-dimensional


Carlos Esteban Puerto

Selección de variables en procesos ocultos de Markov

CIG seminar. January 17th, 2019,14:00-15:00. Aula A-5002 (Bloque 5)

En esta charla se revisará el articulo de Stephen Adams, et al. que se titula “Feature Selection for Hidden Markov Models and Hidden Semi-Markov Models” (2016). En la charla se expondrá un método de selección de variables embebido durante el aprendizaje de procesos ocultos de Markov. El aprendizaje dará como resultado un indicador de la relevancia de cada variable y su mivel de relevancia en el proceso. Adicionalmente, se mostrará los resultados obteniedos en datos sinteticos y reales por parte de Adams, et al.


Enlaces importantes: https://ieeexplore.ieee.org/document/7450620


Fernando Rodríguez Sánchez

Introduction to Variational inference

CIG seminar. January 10th, 2019,14:00-15:00. Hemiciclo H-1002, Bloque 1.

One of the core problems of modern statistics is to approximate difficult-to-compute probability densities. This problem is especially important in Bayesian statistics. Variational methods have recently become popular in the context of inference problems because they provide an analytical approximation to the posterior probability of the unobserved variables. Compared to the approximate methods such as MCMC sampling, variational inference tends to be faster and easier to scale to large data. The objective of this talk is to provide an introduction to this topic with special attention to probabilistic graphical models


Nikolás Bernaola

Redes de corregulacion genetica con redes bayesianas

CIG seminar. December 20th, 2018,12:00-13:00. Hemiciclo H-1002, Bloque 1.

En este seminario se explicará en que consiste el Human Brain Project europeo, cuales son sus principales objetivos y el trabajo que se ha realizado hasta ahora. En concreto se hablará también del trabajo del SP5 y de los proyectos en los que está involucrado el CIG. Después se hablará de las redes de regulación genética, su importancia para la investigación en biología y los métodos más comunes para aprender sus estructuras. Finalmente se hablará de las ventajas e inconvenientes que tiene el usar Redes Bayesianas para resolver el problema.


Bojan Mihaljevic

CIG seminar. December 12th, 2018,12:00-13:00. Hemiciclo H-1002, Bloque 1.

La mayoría de los estudios en neurociencia se hacen en roedores. Para entender mejor cómo los resultados obtenidos se pueden extrapolar al humano es necesario comprender las diferencias entre sus neuronas y las del humano, más allá de las obvias diferencias en tamaño. Estudios previos han comparado las morfologías de manera univariantes. Nuestro objetivo es hacer comparaciones multivariantes, al modelar la morfología neuronal de cada especie con una red Bayesiana y comparar estas dos redes. Voy a presentar nuestros analisis iniciales en neuronas de hipocampo de ratón y humano. Primero, el estudio de factibilidad de modelar los datos con una red Gaussiana, comparando distintos algoritmos de aprendizaje. Segundo, con redes Bayesianas híbridas con variables Gausianas y variables latentes discretas.


Carlos Villa

Selección de variables sobre datos dinámicos.

CIG seminar. November 29th, 2018,12:00-13:00. Hemiciclo H-1002, Bloque 1.

En este seminario se introducirá la selección, o reducción, de variables incremental, un proceso que aporta importantes beneficios al reducir la dimensionalidad de nuestros datos mediante la eliminación de aquellas variables irrelevantes o redundantes. Estos algoritmos son de especial interés cuando trabajamos sobre flujos de datos continuos, donde es necesario adaptar las variables seleccionas a los nuevos datos recibidos, pero también son de gran utilidad cuando trabajamos con datasets de gran tamaño y debemos realizar una selección de variables incremental debido a problemas de memoria. En esta charla se estructurará el estado actual del arte, además de analizar algunos de los enfoques utilizados tanto para data streams como feature streams supervisados y no supervisados.


David Atienza

Introduction to Kernel Density Estimation.

CIG seminar. November 22th, 2018, 12:00-13:00. Hemiciclo H-1002, Bloque 1.

En está charla se introducirá Kernel Density Estimation. Kernel Density Estimation es un método no paramétrico de estimación de una distribución de probabilidad. Al ser un método no paramétrico, tienen una gran flexibilidad para estimar cualquier distribución de probabilidad sin realizar asunciones acerca de la distribución de probabilidad a estimar, a cambio de una (habitualmente) mayor carga computacional que los modelos paramétricos. En la charla se presentarán los conceptos más básicos y alguno de los problemas que podemos encontrar al utilizar Kernel Density Estimation. En función del desarrollo de la charla, se presentará un algoritmo para aprender Kernel Density Estimation de forma on-line combinando Kernel Density Estimation con un modelo de mixtura de Gaussianas


Santiago Gil Begué

Propuesta de un nuevo clasificador multi-dimensional de redes Bayesianas en árbol.

CIG seminar. November 15th, 2018, 12:00-13:00. Hemiciclo H-1002, Bloque 1.

Los clasificadores multi-dimensionales de redes Bayesianas (conocidos por sus siglas en inglés, MBCs) son modelos gráficos probabilísticos hechos a medida para resolver problemas de clasificación multi-dimensional, en los que una instancia se debe asignar a múltiples variables clase. En este trabajo proponemos un nuevo clasificador multi-dimensional, el cual consiste en un árbol de clasificación con MBCs en los nodos hoja. También presentamos una aproximación wrapper para aprender este clasificador desde un conjunto de datos. Un estudio experimental llevado a cabo sobre datos sintéticos generados de manera aleatoria muestra resultados alentadores en términos de precisión predictiva


Esteban Puerto Santana

Asymmetric hidden Markov models with continuous variables.

CIG seminar. November 8th, 2018, 12:00-13:00. Hemiciclo H-1002, Bloque 1.

Hidden Markov models have been successfully applied to model signals and dynamic data. However, when dealing with many variables,traditional hidden Markov models do not take into account asymmetric dependencies, leading to models with overfitting and poor problem insight. To deal with the previous problem, asymmetric hidden Markov models were recently proposed, whose emission probabilities are modified to follow a state-dependent graphical model. However, only discrete models have been developed. We introduce asymmetric hidden Markov models with continuous variables using state-dependent linear Gaussian Bayesian networks. We propose a parameter and structure learning algorithm for this new model. We run experiments with real data from bearing vibration. Since vibrational data is continuous, with the proposed model we can avoid any variable discretization step and perform learning and inference in an asymmetric information frame


Fernando Rodríguez Sánchez

Multidimensional clustering with Bayesian networks

CIG seminar. October 25th, 2018

El objetivo de esta charla es presentar el clustering probabilistico multidimensional como alternativa al enfoque tradicional. Si bien los metodos tradicionales de clustering asumen la premisa de que existe una forma única de agrupar las instancias, ésta no suele
cumplirse cuando trabajamos con datos complejos (alta dimensionalidad, atributos pertenecientes a varios dominios, etc.). Nuestro objetivo es por tanto presentar las carencias de este tipo de metodos, el trabajo realizado actualmente y como podemos mejorarlo. Todo ello en el marco de las redes Bayesianas.


Irene Córdoba Sánchez

A partial orthogonalization method for generating covariance and concentration graph matrices

CIG seminar. October 11th, 2018

Structure learning methods for covariance and concentration graphs are often validated on synthetic models, usually obtained by randomly generating: (i) an undirected graph, and (ii) a compatible symmetric positive definite (SPD) matrix. In order to ensure positive definiteness in (ii), a dominant diagonal is usually imposed. However, the link strengths in the resulting graphical model, determined by off-diagonal entries in the SPD matrix, are in many scenarios extremely weak. Recovering the structure of the undirected graph thus becomes a challenge, and algorithm validation is notably affected. In this paper, we propose an alternative method which overcomes such problem yet yielding a compatible SPD matrix. We generate a partially row-wise-orthogonal matrix factor, where pairwise orthogonal rows correspond to missing edges in the undirected graph. In numerical experiments ranging from moderately dense to sparse scenarios, we obtain that, as the dimension increases, the link strength we simulate is stable with respect to the structure sparsity. Importantly, we show in a real validation setting how structure recovery is greatly improved for all learning algorithms when using our proposed method, thereby producing a more realistic comparison framework.


Juan Antonio Fernandez del Pozo

Magerit

CIG Meeting. September 15th, 2014


Bojan Mihaljevic

Multi-expert multi-dimensional classification of GABAergic interneurons with label Bayesian networks

CIG Meeting. July 14th, 2014


Gherardo Varando

Decision Boundary for Discrete Bayesian Network Classifier

CIG Meeting. May 26th, 2014


Laura Antón-Sánchez

Modeling replicated 3D spatial point patterns of cerebral cortex synapses

CIG Meeting. May 19th, 2014


Gherardo Varando

Conditional Density Approximations with Mixtures of Polynomials

CIG Meeting. May 12th, 2014


Bojan Mihaljevic

Classifying GABAergic interneurons with semi-supervised projected model-based clustering

CIG Meeting. March 17th, 2014


Juan Antonio Fernández del Pozo

Representación de datos Multidimensionales: descripción de tablas de reglas y conjuntos de datos

CIG Meeting. May 17th, 2013


Laura Antón-Sanchez

Optimal Neuronal Wiring through EDAs with Permutations Domains

CIG Meeting. April 25th, 2013


Luis Guerra

Clustering of dendritic spines on Prezi

CIG Meeting. April 11th, 2013


Rubén Armañanzas

Advices on Job Seeking

CIG Meeting. April 4th, 2013


Pedro L. López-Cruz

How to build an R package

CIG Meeting. March 21st, 2013


Hossein Karshenas

Multi-objective feature subset selection with EDAs

CIG Meeting. March 14th, 2013


Bojan Mihaljevic

BayesClass: an R package for learning Bayesian network classifiers

CIG Meeting. March 7th, 2013.


Juan A. Fernández del Pozo (2011)

Parameter Control of Genetic Algorithms by Learning and Simulation of Bayesian Networks

CIG Meeting. 9th June, 2011


L. Guerra (2011)

Partially labelled data: classification and discovery of unknown labels using subspaces of features

CIG Meeting. February, 2011


Linda C. van der Gaar (2010)

When in Doubt … Be Indecisive

CIG Meeting. 11th November, 2010


D. Vidaurre (2010)

L1-Regularization for supervised learning data

CIG Meeting. 25th September, 2010