-
Curso I: Lógicas proposicionales.
Profesor: José Luis Castiglioni, Universidad Nacional de La Plata.
Resumen: Hay diversas formas de presentar una lógica (proposicional); por ejemplo, mediante
un sistema de deducción natural o un sistema tipo Hilbert, mediante un sistema tipo Gentzen,
o mediante una matriz lógica. Las primeras son presentaciones sintácticas y la última es una
presentación semántica. Sin embargo, hablamos de presentaciones y no de lógicas distintas.
Además, por ejemplo para la lógica clásica, sabemos que se la puede presentar usando como
primitivos algunos conectivos y definiendo los demás en términos de los que tomamos como
primitivos; y hay varias elecciones posibles de “conectivos primitivos”. Pero entonces, ¿qué
es una lógica?; por ejemplo, ¿a qué vamos a llamar lógica clásica? ¿Qué es lo esencial si nos
queremos independizar de la forma particular en que la estamos presentando? En este curso
intentaremos dar algunas respuestas a estas preguntas, plantear otras y desarrollar algunas
herramientas para el estudio de algunas propiedades metalógicas.
Requisitos previos: Curso básico de álgebra.
-
Curso II: El rol del BMO en el análisis armónico:
una introducción.
Profesora: Raquel Crescimbeni, Universidad Nacional del Comahue.
Resumen: En este curso presentaremos el espacio de las
funciones de oscilación media acotada denotada como BMO. Este espacio surge naturalmente como la clase de funciones cuya
desviación de su media sobre cubos es acotada. El espacio de las funciones esencialmente
acotadas, es decir el L∞ cumple con esta propiedad, pero no son las únicas. Estudiaremos
propiedades de estos espacios y su ubicación en la escala de los espacios de Lebesgue. Este
espacio funcional es muy importante dentro del análisis armónico no sólo como sustituto del
espacio L∞ , sino que su alcance es mucho más profundo: permite caracterizaciones de espacios
funcionales muy importantes, analizaremos alguna de ellas. No dejaremos de lado el estudio de
su relación con las ecuaciones diferenciales y con los pesos de Muckenhoupt.
Requisitos previos: Conocimientos de medida e integral de Lebesgue.
-
Curso III: Programación Dinámica Estocástica.
Profesor: Eugenio M. Della Vecchia, Universidad Nacional de Rosario.
Resumen: El objetivo del curso propuesto es brindar
una introducción a la modelización, evaluación y optimización de sistemas bajo incertidumbre. Especialmente aquéllos en los que
la optimización involucre tomas de decisión en situaciones aleatorias. Para este tipo de problemas de decisión, la Teoría de
los Procesos de Decisión de Markov (MDP: Markov Decision Processes) provee un cuadro formal adecuado, con numerosos resultados
teóricos y aplicaciones concretas. El concepto de la Programación Dinámica Estocástica, debido a Bellman (1957) se torna un
método de fundamental importancia en el análisis de este tipo de problemas. En la misma década, a partir del trabajo seminal
sobre Juegos Markovianos (MG: Markov Games) debido a Shapley (1953) comienza la relación entre MDP y MG, de hecho un MG con
un solo jugador es un MDP. El sistema bajo análisis es de naturaleza estocástica y sus transiciones se pueden controlar a
lo largo del tiempo. Cada política de control define el proceso estocástico y el valor de la función objetivo asociada. El fin
es seleccionar, antes de la toma de la primera decisión, buenas políticas de control a ser utilizadas.
Requisitos previos: Conocimientos básicos de Probabilidad y Análisis Matemático.
-
Curso IV: Dominios de factorización única y la ecuación
de Fermat x^3 + y^3 = z^3.
Profesor: Ricardo Toledano, Universidad Nacional del Litoral.
Resumen: Alrededor del año 1637 Pierre de Fermat,
abogado de profesión y aficionado a la matemática, afirmaba que tenía un maravilloso argumento que demostraba
que la ecuación x^n + y^n = z^n no puede tener solución en enteros, excepto las triviales (siempre que n sea
un entero mayor a 2). No hay evidencia alguna, hasta ahora, de que Fermat hubiera dado
a conocer tal argumento y recién a mediados de los años 90, el matemático inglés Andrew
Wiles logró, despues de varios siglos de avances en matemática, transformar esta afirmación
de Fermat en un teorema. En este curso veremos como se demuestra el caso n = 3 mediante
un proceso típico de la matemática: abstracción y generalización. En nuestro caso se crea el
concepto de dominio de factorización única que no es otra cosa que el resultado del proceso
de abstracción y generalización de algunos conceptos y propiedades bien conocidas del anillo
de los números enteros. La nvestigación de las propiedades de estos dominios de factorizaciónúnica no fue solamente de utilidad para resolver varios casos de la afirmación de Fermat sino
que, en realidad, puede considerarse como uno de los motores que dió vida y movimiento a lo
que hoy se conoce como teoría algebraica de números.
Requisitos previos: Primer año de licenciatura en matemática cursado deberia ser más que
suficiente. A nivel técnico hay que tener un poco de familiaridad con cuestiones muy básicas
de grupos, anillos, cuerpos y números complejos.
-
Curso V: Poliedros y grafos en problemas de optimización combinatoria.
Profesores: Paola Tolomei y Pablo Torres, Universidad Nacional de Rosario.
Resumen: La Optimización Combinatoria permite representar una gran variedad de problemas
reales, como distribución de bienes, horarios de producción, locación de distribuidoras, diseño
de redes en transporte y comunicación. El enfoque de estos problemas puede ser llevado a cabo
mediante las herramientas de la Teoría de Grafos y de la Teoría Poliedral, utilizando como
puente de enlace para este último encuadre la Programación Lineal. En particular, la Teoría de
Grafos está presente en la resolución de muchos problemas de variados campos. Esta área de
estudio es abundante tanto en resultados teóricos como en aplicaciones a problemas del mundo
real. Dada la creciente importancia de las ciencias de la computación y del uso de las computadoras,
se ha generado un notable incremento en el estudio de las matemáticas discretas, entre
ellas la teoría de grafos. Por otra parte, debido a la necesidad de dar respuesta a las múltiples
aplicaciones que proveían instancias de gran tamaño de estos problemas, los desarrollos teóricos
se vieron generalmente motivados y acompañados de avances en la resolución de los mismos.
Tal es el caso del estudio poliedral asociado a los problemas que pueden ser modelados como
programas lineales enteros. En este curso nos proponemos introducir las nociones básicas de
la Teoría de Grafos y la Teoría Poliedral. A partir de estos conceptos analizaremos problemas
de la optimización combinatoria con planteos desde ambas áreas. Además, en función de estos
problemas estudiaremos la vinculación entre sendos puntos de vista. Consideramos que los
conceptos a tratar en este curso son novedosos para los estudiantes de Lic. en Matemática, en
función de los planes de estudios de grado actuales. Además, dado el presente crecimiento de
las áreas mencionadas, creemos de gran importancia presentar algunos principios sobre ambas
teorías y avanzar sobre los problemas de la optimización combinatoria.
Requisitos previos: Conocimientos de matemática combinatoria y álgebra lineal.
-
Curso VI: Introducción a la estadística mediante la divergencia de Kullback
Leibler.
Profesora: Mariela Sued, Universidad de Buenos Aires.
Resumen: Cuando cursamos probabilidades,
estudiamos una serie de distribuciones que permiten
modelar diferentes experimentos aleatorios. En una primera instancia, asumimos conocida
la distribucion de la variable de interés y a partir de su distribución podemos calcular
cualquier cantidad asociada a ella. A modo de ejemplo, podemos pensar que tenemos una
variable X con distribución exponencial de parametro λ = 3 y con esta información podemos
calcular P(X > 2), E[X] o el valor de la densidad en un determinado punto.
En cambio, cuando hacemos estadística disponemos de muchas observaciones correspondiente
a la variable aleatoria de interés pero no conocemos la distribución de la misma. La
inferencia estadística procura estimar alguna magnitud de interés asociada a la distribución
que genera los datos a partir de las observaciones obtenidas. A modo de ejemplo, podemos
querer estimar P(X > 2), E[X] o el valor de la densidad en un determinado punto.
En este curso presentaremos dos métodos de inferencia. Por un lado, trabajaremos con
modelos paramétricos, donde la función de distribución es conocida, salvo por una cantidad
finita de parámetros. En este contexto, nos concentraremos en los estimadores de máxima
verosimilitud. Luego, presentaremos los estimadores no parámetricos de densidad de Rosenblatt
y Parzen. En cada uno de estos escenarios, veremos como la divergencia de Kullback
Leibler puede ser utilizada para caracterizar diferentes objetos estadísticos involucrados en
estos problemas.
Finalmente, contaremos una aplicación de estos metódos para la detección de eventos extremos.
A modo de ejemplo, procuraremos estudiar cuanto tiene que llover para que estemos
en presencia de un fenómeno atípico.
Requisitos previos: Conocer conceptos básicos de probabilidad.