Cursos UMA

 

 

  • Curso I: Lógicas proposicionales.
    Profesor: José Luis Castiglioni, Universidad Nacional de La Plata.
    Resumen: Hay diversas formas de presentar una lógica (proposicional); por ejemplo, mediante un sistema de deducción natural o un sistema tipo Hilbert, mediante un sistema tipo Gentzen, o mediante una matriz lógica. Las primeras son presentaciones sintácticas y la última es una presentación semántica. Sin embargo, hablamos de presentaciones y no de lógicas distintas. Además, por ejemplo para la lógica clásica, sabemos que se la puede presentar usando como primitivos algunos conectivos y definiendo los demás en términos de los que tomamos como primitivos; y hay varias elecciones posibles de “conectivos primitivos”. Pero entonces, ¿qué es una lógica?; por ejemplo, ¿a qué vamos a llamar lógica clásica? ¿Qué es lo esencial si nos queremos independizar de la forma particular en que la estamos presentando? En este curso intentaremos dar algunas respuestas a estas preguntas, plantear otras y desarrollar algunas herramientas para el estudio de algunas propiedades metalógicas.
    Requisitos previos: Curso básico de álgebra.
  •  

  • Curso II: El rol del BMO en el análisis armónico: una introducción.
    Profesora: Raquel Crescimbeni, Universidad Nacional del Comahue.
    Resumen: En este curso presentaremos el espacio de las funciones de oscilación media acotada denotada como BMO. Este espacio surge naturalmente como la clase de funciones cuya desviación de su media sobre cubos es acotada. El espacio de las funciones esencialmente acotadas, es decir el L∞ cumple con esta propiedad, pero no son las únicas. Estudiaremos propiedades de estos espacios y su ubicación en la escala de los espacios de Lebesgue. Este espacio funcional es muy importante dentro del análisis armónico no sólo como sustituto del espacio L∞ , sino que su alcance es mucho más profundo: permite caracterizaciones de espacios funcionales muy importantes, analizaremos alguna de ellas. No dejaremos de lado el estudio de su relación con las ecuaciones diferenciales y con los pesos de Muckenhoupt.
    Requisitos previos: Conocimientos de medida e integral de Lebesgue.
  •  

  • Curso III: Programación Dinámica Estocástica.
    Profesor: Eugenio M. Della Vecchia, Universidad Nacional de Rosario.
    Resumen: El objetivo del curso propuesto es brindar una introducción a la modelización, evaluación y optimización de sistemas bajo incertidumbre. Especialmente aquéllos en los que la optimización involucre tomas de decisión en situaciones aleatorias. Para este tipo de problemas de decisión, la Teoría de los Procesos de Decisión de Markov (MDP: Markov Decision Processes) provee un cuadro formal adecuado, con numerosos resultados teóricos y aplicaciones concretas. El concepto de la Programación Dinámica Estocástica, debido a Bellman (1957) se torna un método de fundamental importancia en el análisis de este tipo de problemas. En la misma década, a partir del trabajo seminal sobre Juegos Markovianos (MG: Markov Games) debido a Shapley (1953) comienza la relación entre MDP y MG, de hecho un MG con un solo jugador es un MDP. El sistema bajo análisis es de naturaleza estocástica y sus transiciones se pueden controlar a lo largo del tiempo. Cada política de control define el proceso estocástico y el valor de la función objetivo asociada. El fin es seleccionar, antes de la toma de la primera decisión, buenas políticas de control a ser utilizadas.
    Requisitos previos: Conocimientos básicos de Probabilidad y Análisis Matemático.
  •  

  • Curso IV: Dominios de factorización única y la ecuación de Fermat x^3 + y^3 = z^3.
    Profesor: Ricardo Toledano, Universidad Nacional del Litoral.
    Resumen: Alrededor del año 1637 Pierre de Fermat, abogado de profesión y aficionado a la matemática, afirmaba que tenía un maravilloso argumento que demostraba que la ecuación x^n + y^n = z^n no puede tener solución en enteros, excepto las triviales (siempre que n sea un entero mayor a 2). No hay evidencia alguna, hasta ahora, de que Fermat hubiera dado a conocer tal argumento y recién a mediados de los años 90, el matemático inglés Andrew Wiles logró, despues de varios siglos de avances en matemática, transformar esta afirmación de Fermat en un teorema. En este curso veremos como se demuestra el caso n = 3 mediante un proceso típico de la matemática: abstracción y generalización. En nuestro caso se crea el concepto de dominio de factorización única que no es otra cosa que el resultado del proceso de abstracción y generalización de algunos conceptos y propiedades bien conocidas del anillo de los números enteros. La nvestigación de las propiedades de estos dominios de factorizaciónúnica no fue solamente de utilidad para resolver varios casos de la afirmación de Fermat sino que, en realidad, puede considerarse como uno de los motores que dió vida y movimiento a lo que hoy se conoce como teoría algebraica de números.
    Requisitos previos: Primer año de licenciatura en matemática cursado deberia ser más que suficiente. A nivel técnico hay que tener un poco de familiaridad con cuestiones muy básicas de grupos, anillos, cuerpos y números complejos.
  •  

  • Curso V: Poliedros y grafos en problemas de optimización combinatoria.
    Profesores: Paola Tolomei y Pablo Torres, Universidad Nacional de Rosario.
    Resumen: La Optimización Combinatoria permite representar una gran variedad de problemas reales, como distribución de bienes, horarios de producción, locación de distribuidoras, diseño de redes en transporte y comunicación. El enfoque de estos problemas puede ser llevado a cabo mediante las herramientas de la Teoría de Grafos y de la Teoría Poliedral, utilizando como puente de enlace para este último encuadre la Programación Lineal. En particular, la Teoría de Grafos está presente en la resolución de muchos problemas de variados campos. Esta área de estudio es abundante tanto en resultados teóricos como en aplicaciones a problemas del mundo real. Dada la creciente importancia de las ciencias de la computación y del uso de las computadoras, se ha generado un notable incremento en el estudio de las matemáticas discretas, entre ellas la teoría de grafos. Por otra parte, debido a la necesidad de dar respuesta a las múltiples aplicaciones que proveían instancias de gran tamaño de estos problemas, los desarrollos teóricos se vieron generalmente motivados y acompañados de avances en la resolución de los mismos. Tal es el caso del estudio poliedral asociado a los problemas que pueden ser modelados como programas lineales enteros. En este curso nos proponemos introducir las nociones básicas de la Teoría de Grafos y la Teoría Poliedral. A partir de estos conceptos analizaremos problemas de la optimización combinatoria con planteos desde ambas áreas. Además, en función de estos problemas estudiaremos la vinculación entre sendos puntos de vista. Consideramos que los conceptos a tratar en este curso son novedosos para los estudiantes de Lic. en Matemática, en función de los planes de estudios de grado actuales. Además, dado el presente crecimiento de las áreas mencionadas, creemos de gran importancia presentar algunos principios sobre ambas teorías y avanzar sobre los problemas de la optimización combinatoria.
    Requisitos previos: Conocimientos de matemática combinatoria y álgebra lineal.
  •  

  • Curso VI: Introducción a la estadística mediante la divergencia de Kullback Leibler.
    Profesora: Mariela Sued, Universidad de Buenos Aires.
    Resumen: Cuando cursamos probabilidades, estudiamos una serie de distribuciones que permiten modelar diferentes experimentos aleatorios. En una primera instancia, asumimos conocida la distribucion de la variable de interés y a partir de su distribución podemos calcular cualquier cantidad asociada a ella. A modo de ejemplo, podemos pensar que tenemos una variable X con distribución exponencial de parametro λ = 3 y con esta información podemos calcular P(X > 2), E[X] o el valor de la densidad en un determinado punto. En cambio, cuando hacemos estadística disponemos de muchas observaciones correspondiente a la variable aleatoria de interés pero no conocemos la distribución de la misma. La inferencia estadística procura estimar alguna magnitud de interés asociada a la distribución que genera los datos a partir de las observaciones obtenidas. A modo de ejemplo, podemos querer estimar P(X > 2), E[X] o el valor de la densidad en un determinado punto. En este curso presentaremos dos métodos de inferencia. Por un lado, trabajaremos con modelos paramétricos, donde la función de distribución es conocida, salvo por una cantidad finita de parámetros. En este contexto, nos concentraremos en los estimadores de máxima verosimilitud. Luego, presentaremos los estimadores no parámetricos de densidad de Rosenblatt y Parzen. En cada uno de estos escenarios, veremos como la divergencia de Kullback Leibler puede ser utilizada para caracterizar diferentes objetos estadísticos involucrados en estos problemas. Finalmente, contaremos una aplicación de estos metódos para la detección de eventos extremos. A modo de ejemplo, procuraremos estudiar cuanto tiene que llover para que estemos en presencia de un fenómeno atípico.
    Requisitos previos: Conocer conceptos básicos de probabilidad.