iniciativa en 
Inteligencia Artificial

+52 473 732 7155

consorcio.ia@cimat.mx

Edificio C, Nivel 3

Callejón Jalisco s/n, Valenciana,

36023 Guanajuato

  • Blanca Facebook Icono
  • Twitter Icono blanco
  • Blanco Icono de YouTube

©2019 Iniciativa en Inteligencia Artificial - Conacyt

logo_conacyt_18b.png

INVESTIGADORES ASOCIADOS

Alejandro Flores Lamas

CICESE

An FPT-algorithm to find a maximum 2-packing set in outerplanar graphs

Proyecto de investigación

Introducción

El problema del conjunto 2-packing máximo, en teoría de grafos, busca encontrar un conjunto de vértices $S$ donde el camino más corto entre $u, v \in S$ tiene al menos tres aristas. Encontrar este conjunto es un problema NP-difícil (Hochbaum y Shmoys, 1985).

Este trabajo se enfoca en encontrar un conjunto 2-packing de mayor cardinalidad o máximo, esto es NP-difícil para un grafo arbitrario; i.e., en general no se sabe cómo encontrarlo de forma exacta en tiempo polinomial. Este problema aparece en áreas tanto de la industria, ciencia y sociedad.

Las herramientas de inteligencia artificial (IA) y sus aplicaciones han crecido rápidamente desde sus inicios (Engelbrecht, 2013; Konar, 2005). Dichas herramientas se extienden desde lógica difusa, cómputo evolutivo y métodos híbridos. A pesar de su gran poder para encontrar soluciones, las IA requieren (generalmente) un alto costo computacional y sufren convergencia lenta hacia la solución.

El objetivo de este trabajo de investigación es someter un artículo de un algoritmo de 'complejidad paramétrica' para encontrar un conjunto 2-packing máximo en tiempo polinomial en ciertos grafos planos. Dicho algoritmo se puede usar como rutina dentro de las IA para resolver, de forma exacta, subproblemas y coadyuvar a mejorar el desempeño de las IA, tanto en tiempo como en calidad de soluciones encontradas.

Antecedentes e importancia

Downey y Fellows (2013) presentan una forma de lidiar con problemas NP-difícil bajo la observación de que, en algunos casos, existen 'parámetros' adicionales asociados a la complejidad de un problema. A esto se le conoce como 'complejidad paramétrica'. La *complejidad paramétrica* mide los recursos que necesita un algoritmo en términos del tamaño del problema, $n$, y de un parámetro numérico, $k$, que no depende de $n$ (Fomin y Kratsch, 2010). Si $k$ es pequeño, es posible de desarrollar algoritmos polinomiales para resolver dicho problema.

Por su parte, los grafos outerplanares modelan escenarios como el de ubicación de instalaciones, asignación de frecuencias, ciertos tipos de redes telefónicas, diseño de circuitos VLSI y comparador de genomas. Adicionalmente, algunos problemas teóricos admiten soluciones en tiempo polinomial en estos grafos (Manne y Mjelde, 2006; Kariv y Hakimi, 1979; Bodlaender, 1993; Paten et al., 2010).

El conjunto 2-packing, y sus generalizaciones, tiene aplicación en el área de recuperación de información, teoría de clasificación, ingeniería biomédica, modelado de mercados, entre otros (Butenko, 2013; Michael y Battiston, 2009; Gairing et al., 2004).

Referencias

- Bodlaender, H. L., Fellows, M. R., y Warnow, T. (1992). Two strikes against perfect phylogeny. En: Proceedings of the 19th International Colloquium on Automata, Languages and Programming, London, UK, UK. Springer-Verlag, ICALP ’92, pp. 273–283.
- Butenko, S. (2003). Maximum Independent Set and Related Problems, with Applications. Tesis de doctorado, University of Florida, Gainesville, FL, USA.
- Downey, R. G. y Fellows, M. R. (2013). Fundamentals of parameterized complexity, Vol. 4. Springer.
- Engelbrecht, A.P. (2003). Computational Intelligence: An Introduction. John Wiley & Sons, Chichester 
- Fomin, F. V. y Kratsch, D. (2010). Exact Exponential Algorithms. Springer-Verlag, primera edición. Berlin, Heidelberg.
- Gairing, M., Geist, R. M., Hedetniemi, S. T., y Kristiansen, P. (2004). A self-stabilizing algorithm for maximal 2-packing. Nordic J. of Computing, **11**(1): 1–11.
- Hochbaum, D. S. y Shmoys, D. B. (1985). A best possible heuristic for the k-center problem. Math. Oper. Res., **10**: 180–184.
- Kariv, O. y Hakimi, S. L. (1979). An algorithmic approach to network location problems.I: The p-centers. SIAM J. on Appl. Math., **37**(3): pp. 513–538.
- Konar, A. (2005). Computational Intelligence: Principles, Techniques and Applications. Springer, Berlin 
- Manne, F. y Mjelde, M. (2006). A memory efficient self-stabilizing algorithm for maximal k-packing. En: A. Datta y M. Gradinariu (eds.), Stabilization, Safety, and Security of Distributed Systems, Vol. 4280 de Lecture Notes in Computer Science. Springer Berlin Heidelberg, pp. 428–439.
- Michael, D. y Battiston, S. (2009). From graph theory to models of economic networks. a tutorial. En: A. Naimzada, S. Stefani, y A. Torriero (eds.), Networks, Topology and Dynamics, Vol. 613 de Lecture Notes in Economics and Mathematical Systems. Springer Berlin Heidelberg, pp. 23–63.
- Paten, B., Diekhans, M., Earl, D., St. John, J., Ma, J., Suh, B., y Haussler, D. (2010). Cactus graphs for genome comparisons. En: B. Berger (ed.), Research in Computational Molecular Biology, Vol. 6044 de Lecture Notes in Computer Science. Springer Berlin Heidelberg, pp. 410–425."

 

DOCTORADO

An FPT-algorithm to find a maximum 2-packing set in outerplanar graphs

Matemáticas para IA

Categoría:

Antonio de Jesús García Chavez

CICESE

Proponemos impulsar el área del procesamiento del lenguaje natural, específicamente en el idioma español. En la actualidad los diferentes métodos y técnicas para lidiar con problemas del lenguaje natural, se concentran en lenguajes como el Inglés, Francés, Alemán entre otros. En lenguajes como el español, no suele ser común encontrar métodos o modelos que se encuentren sintonizados o diseñados bajo la estructura del lenguaje en español, lo cual limita el desarrollo de métodos y modelos que involucren una mejor comprensión del lenguaje.
 
 Por lo que el realizar un mejor modelado lingüístico [1] [2], semántico [3] y sintáctico [4] del lenguaje en español, permitiría construir un mejor panorama de la tarea principal en el área del procesamiento del lenguaje, que es la comprensión del lenguaje; tarea la cual es clave para lo que se denomina como inteligencia artificial general. Una mayor comprensión del lenguaje natural en español permite impactar el sector industrial, logrando diseñar y mejorar sistemas que traten con análisis de textos en redes sociales, predicciones de campañas políticas, análisis del impacto de un producto en el mercado e inclusive en sector salud, mediante el análisis de expedientes médicos de un país o sector de una población. 
 
 De manera similar, existe un impacto positivo para el sector de la academia, la metodología que proponemos, se enfoca en mejorar la comprensión del lenguaje, por lo que buscamos beneficiar el mayor número de tareas del procesamiento del lenguaje en español. Planteamos el modelar el lenguaje como una tarea de pre-entrenamiento [5], [6], [7] esto ya que modelar el lenguaje es un problema clave para una amplia gama de tareas de procesamiento de lenguaje natural, como por ejemplo: Etiquetado semántico de roles [8], Extracción de entidades identificadas [9], desambiguación linguı́stica [5], respuesta a preguntas[10], Implicación textual [11] y análisis de sentimiento [12], por mencionar algunas. 
 
 [1] Linzen, T., Dupoux, E., & Goldberg, Y. (2016). Assessing the Ability of LSTMs to Learn Syntax-Sensitive Dependencies. Proceedings of TACL 2016.
 [2] Gulordava, K., Bojanowski, P., Grave, E., Linzen, T., & Baroni, M. (2018). Colorless green recurrent networks dream hierarchically. In Proceedings of NAACL-HLT 2018.
 [3] Radford, A., Jozefowicz, R., & Sutskever, I. (2017). Learning to Generate Reviews and Discovering Sentiment. arXiv preprint arXiv:1704.01444.
 [4] Zhang, K. W., & Bowman, S. R. (2018). Language Modeling Teaches You More Syntax than Translation Does: Lessons Learned Through Auxiliary Task Analysis. Retrieved from http://arxiv.org/abs/1809.10040
 [5] Peters, M. E., Neumann, M., Iyyer, M., Gardner, M., Clark, C., Lee, K., & Zettlemoyer, L. (2018). Deep contextualized word representations. In Proceedings of NAACL-HLT 2018. 
 [6] Howard, J., & Ruder, S. (2018). Universal Language Model Fine-tuning for Text Classification. In Proceedings of ACL 2018. Retrieved from http://arxiv.org/abs/1801.06146 
 [7] Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2018). BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. Retrieved from http://arxiv.org/abs/1810.04805 
 [8] Luheng He, Kenton Lee, Mike Lewis, and Luke S. Zettlemoyer. 2017. Deep semantic role labeling: What works and what’s next. In ACL.
 [9] Matthew E. Peters, Waleed Ammar, Chandra Bhaga- vatula, and Russell Power. 2017. Semi-supervised sequence tagging with bidirectional language models. In ACL.
 [10] Christopher Clark and Matthew Gardner. 2017. Simple and effective multi-paragraph reading compre- hension. CoRR abs/1710.10723.
 [11] Qian Chen, Xiao-Dan Zhu, Zhen-Hua Ling, Si Wei, Hui Jiang, and Diana Inkpen. 2017. Enhanced lstm for natural language inference. In ACL.
 [12] McCann, B., Bradbury, J., Xiong, C., & Socher, R. (2017). Learned in Translation: Contextualized Word Vectors. In Advances in Neural Information Processing Systems.

MAESTRÍA

Modelado del lenguaje natural como tarea de pre-entrenamiento

Problemas de salud

Categoría:

Arquímedes Méndez Molina

INAOE

Autonomy in robots depends to a large extent on their ability to learn to perform new tasks as they are required. The current techniques for learning tasks strongly depend on information given by expert users and often, for a robot, what is learned is hardly reusable on new or similar tasks. In this research, we propose a method for a robot to learn simple multi-step pick and place tasks using information of humans instructors demonstrating different tasks, ensuring that what it is learned can be used under different initial configurations of the given task. To do that, we use a precise camera system for demonstration perception to capture the spatial relations between the involved objects while focusing on goal and sub- goals identification for the given task. Then, we use a state-action representation based on relative positions and distances in combination with a traditional Reinforcement Learning algorithm to learn an off-line policy for pick and place a single object. Finally, we use a Constraint Satisfaction Problem Solver to determine a feasible positions for involved objects that meet all spatial relations at the goal state, and used the goal and sub-goals information in combination with the learned policy to reproduce the given task step by step. We identify three major contributions in our work:

  • An algorithm to automatically identify goal and sub-goals of manipulation tasks, given information of human demonstrations.

  • An algorithm that combines Relational Reinforcement Learning with a Constraint Satisfaction Problem Solver to learn pick and place task for multiple objects.

  • A method that allows a robot to learn multi-steps pick and place tasks as they are required, from a single demonstration, involving more than one object and under different initial configurations.

To test our method, we used both, a simulator and a real manipulator robot, to reproduce thirteen tasks (seven predefined and six open-ended created by instructors not related to our research) under different initial configurations. We obtain an average accuracy of $80 % for predefined tasks and $65 % for open- ended tasks. In most cases, failures are produced by aspects such as the grip, which were not the focus of the current implementation. The results provide a good starting point to work on some specific aspects that would make our method even more natural, such as automatic grip pose identification, human feedback during the repetition phase and the use of a practical vision system for demonstration perception.

MAESTRÍA

Learning robotic manipulation tasks using Relational Reinforcement Learning and human demonstrations

Matemáticas para IA

Categoría:

Carlos Alfonso Ruiz Guido

CIMAT

Uno de los modelos más utilizados para discernir cuando un algoritmo aprende es el llamado PAC-learning (Probably Approximately Correct). El paradigma de este modelo es que un agente (el algoritmo) no siempre acertará, sin embargo algunos de estos algoritmos son considerados eficaces, pues con alta probabilidad su predicción será correcta. Otra de las novedades de este modelo es el de estudiar la complejidad combinatoria en las clases de funciones que pueden ser aprendibles, así mismo introducen conceptos de Complexity Theory por primera vez al estudio de Machine Learning. Una de las herramientas fundamentales en este acercamiento al aprendizaje es la introducción de la dimensión VC, la cual clasifica a las familias de funciones PAC-aprendibles como aquellas que tienen dimensión finita. Es un hecho remarcable que al mismo tiempo en un área de la lógica Matemática (a saber la Teoría de Modelos) se estaban estudiando aquellas teorías cuyas fórmulas tenían dimensión VC finita y por tanto son PAC-aprendibles.

El objetivo de este proyecto es estudiar tanto fortalecimientos, generalizaciones y problemas paralelos de las teorías que son PAC-learnable (todas sus fórmulas definen una clase tal, para ser más precisos). Es un hecho remarcable que la mismas técnicas que se pueden estudiar en el contexto de dimensión VC finita se pueden adaptar con éxito a muchas otras circunstancias. Las implicaciones de este hecho a la geometría, el álgebra y la teoría de números son numerosas y el objetivo de este proyecto es intentar adaptar esos paralelismos que existen en la Teoría de Modelos a Learning Theory.

Siendo un poco más concretos nos gustaría entender a qué clase de funciones -en términos de aprendizaje- corresponden las teorías estables (los complejos con su estructura polinomial o los espacios vectoriales de dimensión finita por ejemplo), qué tipo de funciones se podrían aprender si consideramos un modelo que extienda lo PAC-learnable a las teorías meta-estables (las series de potencias sobre los complejos por ejemplo) y por último entender por qué en teorías simples (las gráficas aleatorias o los campos pseudo-finitos por ejemplo) no son son PAC-learnable. Un ejemplo de por qué estas líneas de investigación podrían ser susceptibles de éxito es la pre-publicación Machine Learning and Model Theory desarrollada por Freitag-Chase donde relacionan la teoría de la estabilidad con Online Learning y Littlestone dimension, haciendo un símil con PAC-learnability y dimensión VC.|

MAESTRÍA

Propuesta de Investigación en Machine Learning: Estudiar tanto fortalecimientos, generalizaciones y problemas paralelos de las teorías que son PAC-learnable

Matemáticas para IA

Categoría:

Gamaliel Sanchez Orellana

IPICYT

El objetivo de esta investigación consiste en desarrollar una metodología de aprendizaje profundo para predecir estructuras subcelulares a partir de imágenes de microscopía óptica de campo claro. Se busca crear una herramienta de aprendizaje de máquina, basada en redes neuronales convolucionales, que resuelva el problema de informar acerca del tipo y el contenido celulares sin necesidad de emplear tinción en las muestras. Anticipamos que este desarrollo multidisciplinario proveerá de información valiosa en las áreas biológicas y de la salud. Los objetivos específicos se pueden resumir de la siguiente manera:

  • Analizar las metodologías ya utilizadas para el entrenamiento y predicción de elementos subcelulares. 

  • Replicar los protocolos estudiados enteriormente

  • Adaptar y estandarizar la metodología estudiada en los sistemas de microscopía ótica del laboratorio de biofísica del IPICyT

  • Discutir la posibilidad de emplear y expandir la metodología desarrollada con el consorcio en inteligencia artificial. 

DOCTORADO

Redes neuronales aplicadas a la obtención de imágenes subcelulares en muestras de microscopía óptica sin tinción

Problemas de salud

Categoría:

Gloria Ivonne Monarca Pintle

CICESE

El reconocimiento de contexto es importante para la inteligencia artificial. Existen muchos trabajos que han explorado diferentes técnicas de aprendizaje de máquina para estimar diferentes variables contextuales como la identidad de las personas, su ubicuación y sus movimientos; o discriminar entre diferentes grupos de personas (adultos mayores vs niños o entre personas con capacidades diferentes). Estos algoritmos de reconocimiento de contexto se utilizan para desarrollar sistemas inteligentes que de manera automática se adaptan a las necesidades de lo usuarios, o nos permiten conocer sus comportamientos a un nivel individual y colectivo. Estos trabajos han argumentado que se puede con cierta eficacia estimar y discriminar contexto y que se requieren de casos de uso que ejemplifiquen el éxito del uso de las técnicas de aprendizaje de máquina en escenarios reales.
 En los últimos 2 años hemos trabajado en entender como podemos utilizar técnicas de aprendizaje de máquina para discriminar entre niños con autismo y niños neurotípicos utilizando la fuerza como variable de control al interactuar con una superficie elástica e interactiva.
 El diagnóstico del autismo es una tarea compleja, tardada y subjetiva; se basa en el auto-reporte y la observación de comportamientos. En este trabajo se realizó un estudio en sitio donde participaron 43 niños neurotípicos y 26 niños con autismo utilizando una superficie elástica que llamamos Música Flexible. MúsicaFlexible permite a los niños con autismo crear música y practicar patrones de movimiento cuando tocan una tela spandex. MúsicaFlexible utiliza un sensor óptico indirecto para detectar el toque el usuario. Todos los niños realizaron diferentes gestos de interacción incluyendo variaciones al empujar y deslizar elementos interactivos que aparecen en la tela. Se extrajeron diferentes características de los datos de interacción obtenidos por una cámara de profundidad y se utilizaron técnicas de aprendizaje de máquina para discriminar entre los gestos de interacción de los niños con autismo y los niños neurotípicos. Los resultados indican que la fuerza es altamente determinante para discriminar entre niños con autismo y niños neurotípicos con una precisión de 100% y una sensibilidad de 97.3%. Un análisis de los patrones gestuales de los niños con autismo al interactuar con MúsicaFlexible reveló que los niños con autismo interactúan de manera diferente que los niños neurotípicos. Los niños con autismo realizan gestos más pequeños y más angostos, sus gestos son más profundos y duran más.

MAESTRÍA

Patrones gestuales para la deteccion temprana de autismo

Problemas de salud

Categoría:

Kenneth Carl Jeffries

CIMAT

Problema. Caracterizar obstrucciones locales de convexidad en términos de las resoluciones libres de anillos neuronales polarizados. Una respuesta satisfactoria al problema anterior daría mejores algoritmos para detectar obstrucciones locales. El trabajo de Chen, Frick, y Shiu desarrollaron una clase mas amplia de obstrucciones a la convexidad, llamada obstrucciones del segundo tipo. Esta noción es el análogo a la otra obstrucción local, exceptuando las condiciones de desvanecimiento de homolog´ıa son reem-plazadas por condiciones de colapso de complejos simpliciales. Sería interesante encontrar propiedades algebraicas que detectaran obstrucciones locales del segundo tipo. Sin embargo, cuando la relación entre la homología de complejos simpliciales y las propiedades algebraicas de ciertos ideales, específicamente los ideales de Stanley-Reisner de estos complejos, es bien conocida, por otro lado no se sabe como el colapso es reflejado en las propiedades algebraicas. Entonces, se propone estudiar el siguiente problema: 
Problema. Determinar propiedades algebraicas de los anillos de Stanley-Reisner que dan obstrucciones al colapso. Resultados en esta dirección podrían ser usados para desarrollar algoritmos para detectar obstrucciones locales del segundo tipo. La investigación en este tipo de preguntas nos daría idea del procesamiento espacial en el cerebro humano que podría ser traducido a procesamiento espacial para una una red neuronal artificial.
Problema. Determinar si modelos multi-factores, en particular, variedades secantes de Segre-Veronese, son Cohen-Macaulay. Técnicas en Álgebra Conmutativa en característica prima serian probablemente útiles en este problema. En particular, la noción de F-regularidad, y la noción más reciente de F-regularidad diagonal, pueden resultar útiles para este problema.

DOCTORADO

Aplicaciones de Álgebra Conmutativa Combinatoria a Neurociencia y a Modelos Estadísticos

Matemáticas para IA

Categoría:

Marco Antonio Canchola Chavez

INAOE

En las unidades de incubación del CIBNOR, los expertos en ventilación mecánica y manejo de los especímenes permanecen poco tiempo al lado de los tanques criadero para ajustar las configuraciones de ventilación y analizar el impacto de estos ajustes en el metabolismo de los especímenes que están dentro de los estanques. Actualmente para la realización de bioensayos se cuenta con sistemas de monitoreo sumamente delicados y de alto costo cuyo manejo es susceptible a daños, esto aunado al hecho que dichos dispositivos son independientes y despliegan la información mediante interfaces graficas sin la posibilidad de guardar dichas lecturas en archivos digitales, motivo por el cual las mediciones no pueden ser sincronizadas, manipuladas y procesadas por otros sistemas debido a la arquitectura cerrada de sus fabricantes.

En estos tanques las variables que se monitorean para la generación de un ecosistema controlado son: saturación de oxigeno (SpO2), salinidad, pH, CO2, Nitrógeno(N), incluso análisis de movimiento de los especímenes. El desarrollo de sistemas de apoyo a la decisión de ajuste que analizan los datos de los sistemas biológicos en tiempo real ofrece una oportunidad para llenar este vacío ya que actualmente todos estos ajustes se realizan de manera manual lo cual incrementa el tiempo de análisis y los errores del tipo humano en los análisis.

El objetivo de este estudio es determinar si un modelo predictivo de aprendizaje automático podría entrenarse con los conjuntos de datos experimentales de todas las variables anteriormente mencionadas que intervienen en el proceso metabólico de los sistemas biológicos e implementarse para predecir la saturación de oxígeno en los tanques criadero (SpO2) y autorregular todas las variables a niveles óptimos mediante un control de válvulas de flujo. Debido a las múltiples fuentes de las variables y la complejidad de las mismas, se aplicarán dos modelos de aprendizaje automático (red neuronal artificial y lógica difusa). Una vez que los datos sean pre-procesados, se entrenara un modelo predictivo de aprendizaje automático en un subconjunto de datos de entrenamiento etiquetados.

Actualmente se desarrolla un prototipo en el INAOE que permite el monitoreo de las variables usadas en los bioensayos, así como de la configuración de las electroválvulas y con la ayuda de la IA se busca tener un sistema global y completo de control. Este proyecto es de largo alcance, las actividades para los fines de esta convocatoria se muestran a continuación y abarcan los meses de julio y agosto de 2019.|

DOCTORADO

Aprendizaje automático para predicción de saturación de oxígeno en tanques criadero

Riesgos mediambientales

Categoría:

Mario Canul

CIMAT

Análisis de factibilidad para la detección de derrames de petróleo a partir de percepción remota y análisis computacional:


1. Estudio del estado del arte (parte de Radar de Apertura Sintética-SAR).

2. Búsqueda imágenes con diferentes sensores y a diferentes tiempos para la detección de falsos positivos y derrame real.

3. Etiquetado de imágenes.

4. Implementación de un esquema para la detección de derrames de petróleo usando imágenes SAR.
 

DOCTORADO

Derrames de petróleo

Riesgos mediambientales

Categoría:

María Alejandra Menendez Ortiz

CIMAT

Los medios de comunicación actuales permiten transmitir gran cantidad de información y contenido multimedia, como imágenes. Asimismo, existen gran cantidad de herramientas para la edición y manipulación de imágenes. Por lo que se vuelve evidente el riesgo que tienen los contenidos originales de ser alterados para su posterior transmisión. Sin embargo, en el ámbito médico es indispensable que las imágenes, como rayos x, resonancias magnéticas, o tomografías computarizadas por mencionar algunas, sean fidedignas con el objetivo de realizar diagnósticos adecuados. Además, es de vital importancia preservar la confidencialidad de los pacientes y que información sensible no pueda ser visualizada por cualquier persona. Una alternativa que se ha utilizado en años recientes para proteger la información del paciente al mismo tiempo de autentificar el contenido de las imágenes han sido las técnicas de marcas de agua digitales. No obstante, técnicas tradicionales modifican las imágenes al insertar la información de tal manera que, aunque es posible extraer la información oculta no es posible restaurar las imágenes a su calidad original. Esto presenta una problemática para el diagnóstico médico, ya que mínimas alteraciones en el contenido puede producir diagnósticos incorrectos. Por lo tanto, el uso de técnicas reversibles de marcas de agua surge como una solución ante tal situación. Las técnicas reversibles de marcas de agua permiten no sólo extraer la información que fue ocultada, sino que permiten restaurar el contenido original de las imágenes, manteniendo su calidad original y por lo tanto permitiendo la realización de diagnósticos adecuados. No obstante, un reto que existe en los esquemas reversibles de marcas de agua es preservar la transparencia de la marca de agua, es decir, que la inserción de la información no sea notoria para un observador humano y que al mismo tiempo se mantenga la reversibilidad del esquema. Recientemente, se han empezado a explorar técnicas de inteligencia artificial para ayudar a resolver este último reto. Es decir, se empieza a explorar cómo utilizar la inteligencia artificial para ayudar a encontrar cuáles son las regiones en las imágenes donde se puede insertar la marca de agua sin que se produzcan alteraciones visuales notorias y que al mismo tiempo permitan garantizar la reversibilidad. En este trabajo se plantea el uso de técnicas de inteligencia artificial para la mejora de un esquema reversible de marcas de agua desarrollado en un proyecto anterior, para poder identificar las regiones de inserción de una mejor manera.

DOCTORADO

Esquema reversible de marcas de agua digitales para imágenes médicas usando técnicas de inteligencia artificial

Matemáticas para IA

Categoría:

Oscar Miguel Gonzalez Vazquez

CIMAT

Este trabajo parte de la idea de que a pesar de que los autores aseguran que el mecanismo de truncamiento del archivo garantiza la preservación de las mejores soluciones de cada objetivo, esto podría no ocurrir en algunos casos, llevando a la pérdida de estas soluciones. El plan para trabajar en la solución de ello consiste en analizar y corregir este detalle, de igual manera revisar si con la preservación de los mejores indviduos por objetivo, las soluciones para pruebas ya usadas con este algoritmo mejoran. Para ello se han planificado algunas acciones como : 

1) Confirmar que en los códigos disponibles para el SPEA2 (Strength Pareto Evolutionary Algorithm.
2) Implementar SPEA2 y probar con las mismas pruebas que se usaron en el artículo para revisar en cuántos casos se da esa condición. 
3) Implementar una variante del SPEA2 que garantice la conservación de los mejores individuos por objetivo. 
4) Usar la variante con las pruebas anteriores y verificar la conservación de los dato. 
5) Comparar los resultados entre el SPEA2 y el SPEA2 modificado para analizar si con esta modificación los resultados mejoran. 

MAESTRÍA

Análisis del método de truncamiento del archivo del SPEA2

Matemáticas para IA

Categoría:

Selene Montes Fuentes

INAOE

Los avances en la Inteligencia Artificial prometen que los sistemas inteligentes podrán percibir, aprender, decidir y actuar por sí mismos. En especial las soluciones que contengan subsistemas que puedan explicar la forma en la que llegaron al resultado final en un diagnóstico.
Más específicamente, la efectividad de los sistemas de aprendizaje automático está limitada por la incapacidad de explicar a los usuarios las decisiones que se tomaron para llegar a una clasificación, como es el caso del aprendizaje profundo. Por ello surge la metodología de Inteligencia Artificial Explicativa (XAI) que consiste en hacer una modificación a la metodología tradicional de un sistema de aprendizaje e incluir un nuevo proceso, que colecciona evidencia en cada paso de razonamiento produciendo un sistema inteligente explicativo.
La creación de un sistema inteligente explicativo ayudaría en el campo médico para la identificación en detección temprana, diagnóstico y tratamiento de la enfermedad.
El uso de un sistema inteligente en hospitales es relativamente bajo, debido a que los médicos perciben a los sistemas inteligentes como cajas negras, es decir, no confían en los resultados generados para tomar decisiones en un diagnóstico.
Los médicos tendrán confianza en un sistema inteligente si este es capaz de dar una explicación completa, es decir, si está diseñado para pensar y actuar como ellos en el momento de dar un diagnóstico médico.
Con el crecimiento y disponibilidad de grandes bases de datos, el rendimiento de estos sistemas está alcanzando, incluso superando el nivel humano en la realización de tareas complejas. Gracias al incremento de datos médicos, los sistemas inteligentes explicativos pueden ser aplicados al área de la salud, ya que son capaces de extraer información útil de una gran cantidad de datos, la cual incluso apoyaría al diagnóstico de médicos especializados.
El proceso de un diagnóstico en el campo médico, se considera como una combinación de conocimiento básico de una enfermedad y la experiencia ganada atendiendo a pacientes previos en condiciones similares, incluyendo responsabilidades y
riesgos que conllevan a tomar una decisión.
En este trabajo se plantea un proyecto de investigación y desarrollo para la identificación del grado de retinopatía diabética en imágenes de fondo del ojo, utilizando redes convolucionales e implementando un subsistema explicativo (XAI).

MAESTRÍA

Proyecto de investigación y desarrollo para la identificación del grado de retinopatía diabética en imágenes de fondo del ojo, utilizando redes convolucionales e implementando un subsistema explicativo (XAI)

Problemas de salud

Categoría: