AIA_vertical_blanco.png
SMIA-blanco.png

Logica Clasica de Orden Superior: Automatizacion y APlicaciones Seleccionadas

Prof. Dr. Christoph Benzmüller

Científico en Inteligencia Artificial, Ciencias de la Computación y Matemáticas en Freia Universität Berlin

Christoph recibió su maestría, doctorado y habilitación en ciencias de la computación de la Universidad de Saarland, Alemania y su investigación de doctorado sobre semántica y automatización de la lógica de orden superior, que realizó en la Universidad Carnegie Mellon en Pittsburgh, Estados Unidos.

Reseña:

Demostración automática de teoremas (ATP) y demostración interactiva de teoremas (ITP) en La lógica de orden superior (HOL) ha logrado un progreso significativo en las últimas décadas. 

Hoy en día hay disponibles potentes sistemas HOL-ATP que pueden resolver problemas no triviales automáticamente. Además, los sistemas ATP para La lógica proposicional y de primer orden se han integrado con éxito con sistemas ITP modernos como Isabelle, HOL-light, Coq, Lean y otros, y Estas integraciones son clave para futuras aplicaciones más allá de lo académico. contexto. Junto con colegas y estudiantes a los que he estado contribuyendo esta área de desafío durante más de 25 años. El resultado de la investigación incluye, entre otros, la familia Leo de sistemas ATP para HOL, el desarrollo de un infraestructura HOL-ATP internacional asociada (TPTP THF), y trabajo fundamental sobre la semántica y la teoría de la prueba de HOL. En el primero parte de mi presentación describiré estas contribuciones a la automatización de HOL.

Moderador:

Dr. Raúl Rojas

Enero 2021

Machine Learning, IA

Redes modernas de Hopfield

Prof. Dr. Sepp Hochreiter

Profesor de la Universidad Johannes Kepler de Linz

Dirige el Instituto de Machine Learning, el Laboratorio de LIT IA y el Centro de Aprendizaje Profundo AUDI.JKU de la Universidad Johannes Kepler de Linz, Director del Instituto de Investigación Avanzada de Inteligencia Artificial, Ex-Director del Instituto de Bioinformática

Reseña:

Las memorias asociativas son uno de los primeros modelos neuronales artificiales que se remontan a las décadas de 1960 y 1970. Las más conocidas son las redes Hopfield, presentadas por John Hopfield en 1982. Recientemente se han introducido las redes modernas Hopfield, que aumentan enormemente la capacidad de almacenamiento y convergen extremadamente rápido. Generalizamos la función energética de las modernas redes Hopfield a patrones continuos y proponemos una nueva regla de actualización.

Moderador:

Dr. Raúl Rojas

Diciembre 2020

Razonamiento y Aprendizaje Manipulable con Aritmética y Circuitos Booleanos

Prof. Dr. Adnan Darwiche

Profesor del departamento de ciencias computacionales de la UCLA, Ex-Director del departamento de ciencias computacionales de la UCLA, Director del Grupo de Razonamiento Automatizado en la UCLA

Adnan Darwiche es un profesor y ex-presidente del departamento de informática de la UCLA. Dirige el Grupo de Razonamiento Automatizado, que se centra en el razonamiento simbólico, el razonamiento probabilístico y el aprendizaje automático. El profesor Darwiche es miembro de la AAAI y de la ACM. Fue editor jefe del Journal of Artificial Intelligence Research (JAIR) y autor de "Modeling and Reasoning with Bayesian Networks", de Cambridge University Press.

Reseña:

Los circuitos manipulables han estado jugando un papel cada vez más importante en IA y más allá, particularmente en las áreas de la simbología y la probabilística razonamiento. Esto incluye proporcionar un enfoque sistemático para abordando los problemas más allá de NP, permitiendo que uno aprenda de ciertos combinaciones de conocimientos y datos, y el razonamiento sobre la el comportamiento de algunos sistemas de aprendizaje de máquinas. En esta charla, el Dr. Darwiche revisará los fundamentos teóricos y algunas aplicaciones de los tractables los circuitos, tanto los booleanos como los aritméticos.

Moderador:

Dr. Enrique Sucar

Noviembre 2020

IA, Aprendizaje Profundo y Virtualización

Prof. Dr. Pierre Baldi

Profesor distinguido del Departamento de Informática, Director del Instituto de Genómica y Bioinformática, Director Asociado del Centro de Aprendizaje de Máquinas y Sistemas Inteligentes de la Universidad de California en Irvine

Pierre Baldi obtuvo una maestría en Matemáticas y Psicología de la Universidad de París, y un doctorado en matemáticas del Instituto Tecnológico de California. Actualmente es profesor distinguido en el Departamento de Ciencias de la Computación, Director del Instituto de Genómica y Bioinformática y Director Asociado del Centro para el Aprendizaje Automático y Sistemas Inteligentes en la Universidad de California Irvine. El enfoque a largo plazo de su investigación es la comprensión de la inteligencia en los cerebros y las máquinas.
Ha hecho varias contribuciones a la teoría del aprendizaje profundo, desarrolló y aplicó métodos de aprendizaje profundo para los problemas en las ciencias naturales como la detección de partículas exóticas en la física, la predicción de las reacciones en la química y la predicción de la estructura secundaria y terciaria de las proteínas en la biología. Ha escrito cinco libros y más de 300 artículos revisados por expertos. Ha recibido el premio Lew Allen de 1993 en el JPL, el premio E. R. Caianiello 2010 por investigación en aprendizaje de máquinas, y un premio de investigación de la facultad de Google en 2014. Es miembro electo de la AAAS, AAAI, IEEE, ACM y ISCB.

Reseña:


En esta charla demostraré cómo el concepto de virtualización es fundamental para la IA.

La aplicación del concepto de virtualización al aprendizaje profundo conduce al principio de aprendizaje local que, como el principio de relatividad, es simple de enunciar pero tiene consecuencias de gran alcance. Mostraremos cómo el principio de aprendizaje local resuelve una serie de problemas abiertos en la teoría del Aprendizaje Profundo (por ejemplo, por qué el aprendizaje Hebbiano no funciona en las redes neuronales convolucionales para la visión por computadora) y conduce naturalmente a las nociones de canal de aprendizaje profundo (DLC), retropropagación aleatoria y recirculación.

Finalmente, especularemos sobre el papel de la virtualización y el futuro de la IA.

Moderador:

Dr. Félix Castro

Octubre 2020

Deep Learning, Virtualización, IA

Aprendizaje automático y la IA para las ciencias. Hacia la comprensión

Prof. Dr. Klaus-Robert Müller

Universidad Técnica de Berlín, Universidad de Corea, MPI for Informatics and Google Research, Brain Team.

​Klaus-Robert Müller recibió su doctorado en informática teórica de la Universidad de Karlsruhe. De 1994 a 1995 fue investigador en el laboratorio Shun'ichi Amaris de la Universidad de Tokio. En 1999 Müller se convirtió en profesor asociado de neuroinformática en la Universidad de Potsdam, y en 2003 pasó a ser profesor titular de Redes Neurales y Análisis de Series Temporales. 

Desde 2006 ocupa la cátedra de Aprendizaje Automático en la Universidad Técnica de Berlín, donde ha realizado trabajos pioneros sobre SVM, clasificación EEG y NN aplicados a la física. Desde 2012 es profesor distinguido en la Universidad de Corea en Seúl. Es cofundador y codirector del Gran Centro de Datos de Berlín (BBDC) de la Universidad Técnica de Berlín. El Prof. Müller es uno de los científicos de la IA más citados en el mundo.

Reseña:

En los últimos años, los métodos de aprendizaje por máquina (ML) y de inteligencia artificial (AI) han empezado a desempeñar un papel cada vez más favorable en las ciencias y en la industria. En particular, la aparición de grandes y/o complejos corpus de datos ha dado lugar a nuevos desafíos y posibilidades tecnológicas.

En su ponencia, Müller abordará el tema de las aplicaciones de la ML en las ciencias, en particular en la neurociencia, la medicina y la física. También discutirá las posibilidades de extraer información de los modelos de aprendizaje de las máquinas para mejorar nuestra comprensión mediante la explicación de los modelos no lineales de ML. Por ejemplo, los modelos de aprendizaje automático para la química cuántica pueden, mediante la aplicación de la ML interpretable, contribuir a mejorar la comprensión de la química. Por último, Müller esbozará brevemente las perspectivas y limitaciones.

Moderador:

Dr. Raúl Rojas

Septiembre 2020

Machine Learning, Science
Correo blanco.png
Youtube blanco.png