¡Los invitamos cordialmente a participar del 9º Coloquio Uruguayo de Matemática! Este evento bienal reúne a la comunidad matemática nacional e internacional para compartir avances, ideas y experiencias en un ambiente académico enriquecedor. Contaremos con cursos, charlas y conferencias plenarias.
Facultad de Ciencias Económicas y de Administración (FCEA), Universidad de la República
Dirección: Av. Gonzalo Ramírez 1926, 11200 Montevideo, Departamento de Montevideo
Este curso introductorio pretende acercar al participante a lo que se suele hacer en modelización estadística cuando se dispone de un conjunto de datos. A partir del mismo se puede obtener distintos descriptores, tratar de entender las relaciones entre dos o más variables pero también hacer predicciones para futuras observaciones. Presentaremos varios tipos de modelos, pero nos focalizaremos e implementaremos ejemplos a partir del modelo lineal, sencillo por su comprensión matemática e interpretación. Para ilustrar los distintos conceptos, habrá una parte de implementación informática que será la más autocontenida posible.
La percolación fue introducida por Hammersley en 1957 para comprender la porosidad de una roca. Se trata de un modelo probabilístico muy sencillo: se modela la roca mediante una red y su porosidad conservando o eliminando cada arista con una probabilidad p. Nos interesan las propiedades del grafo aleatorio obtenido en función del parámetro p. En este minicurso, definiremos este modelo y estudiaremos algunas de sus propiedades utilizando herramientas básicas de probabilidad (existencia de una transición de fase, unicidad de la componente infinita). Nos basaremos tanto en pruebas originales de los años 80 (de Aizenman, Kesten y otros) como en pruebas muy recientes y simplificadas (de Duminil-Copin y Tassion). Mencionaremos problemas abiertos fáciles de formular, pero difíciles de demostrar, en los que trabajan los probabilistas actuales.
Las superficies solenoidales (o variedades solenoidales de dimensión dos) son espacios compactos y no localmente euclidianos que generalizan las superficies clásicas. Aparecen naturalmente en muchos problemas de topología, geometría y sistemas dinámicos. En este curso, definiremos estos objetos y mostraremos ejemplos, centrándonos en las superficies solenoidales construidas como el límite inverso de una torre de recubrimientos finitos de superficies compactas. Veremos un resultado que describe su topología, que surge de un trabajo en colaboración con S.Alvarez, J.Brum y R.Potrie. Para llegar a él, introduciremos las herramientas necesarias de topología de superficies y teoría de grupos.
En este curso introducimos las matemáticas de la inteligencia artificial (IA) y mostramos distintos formatos para enseñar IA (y su matemática) en la escuela. Los formatos presentados son aplicaciones y juegos interactivos donde, por ejemplo, se puede entrenar una red neuronal o jugar con un robotito virtual en un laberinto. Exploramos los algoritmos detrás del aprendizaje supervisado y el aprendizaje por refuerzo. También discutimos la ética de la IA y vemos aplicaciones que conectan la IA con la música. La idea es familiarizarse con el funcionamiento del aprendizaje automático, entendiendo los “numeritos detrás de todo”, y al mismo tiempo mostrar la magia, el poder y también las implicancias de la IA para nuestra sociedad. Todos los formatos y herramientas tienen licencia abierta y forman parte del ecosistema de la exposición I AM A.I., desarrollada por la organización sin fines de lucro IMAGINARY. El material didáctico que se difunde es parte de un curso en línea abierto que ya realizaron más de 2.500 docentes de nivel medio en Alemania (gran parte del material ya existe en castellano).
A lo largo de la historia, los humanos han creado distintos modelos de regresión para explicar fenómenos de la vida real. Sin embargo, la inmensa mayoría de los modelos paramétricos usados frecuentemente pueden verse bajo la perspectiva de la estimación por máxima verosimilitud. Esta perspectiva conceptual permite a los investigadores construir gradualmente desde modelos simples hasta especificaciones complejas, reconociendo que todos implementan el mismo principio estadístico fundamental. Partiremos de la regresión lineal ordinaria vista como regresión Gaussiana, y veremos cómo, basándonos en la estimación por máxima verosimilitud, podemos generalizar estos conceptos para modelar variables de distintos tipos y bajo diferentes supuestos (variables dependientes binarias, de conteo, continuas positivas, etc.) en los modelos lineales generalizados. A su vez, a estos modelos podemos agregarles efectos no observados (variables latentes) que pueden ser jerárquicos (modelos generalizados multinivel). Visualizaremos la aplicación de estos conceptos usando el comando de Stata -gsem- para sistemas de ecuaciones estructurales generalizados. Luego mostraremos cómo estos conceptos se aplican al metaanálisis, una técnica que ha revolucionado la forma de integrar la evidencia científica y que, de una u otra forma, nos afecta a todos.
Las simulaciones numéricas de sistemas físicos no predicen exactamente el comportamiento de dichos sistemas. Las diferencias entre simulaciones y el sistema real se pueden explicar por varias fuentes de error, particularmente errores de modelo, errores de discretización y errores numéricos. En esta charla, nos enfocaremos en el error de discretización para sistemas distribuidos, provocados por métodos tipo elementos finitos. Veremos herramientas como estimadores a posteriori que permiten estimar el error y controlarla mediante adaptación de mallas. Presentaremos ejemplos inspirados por la física, la mecánica y la biomecánica.
En esta charla se presentarán los aportes de Gonzalo Perera en lo que respecta a la creación de un grupo de investigación de Estadística Aplicada en el Departamento de Rocha, acompañando el proceso de descentralización de la Udelar en la región Este. En este contexto, se repasará el recorrido institucional y los hitos principales que llevaron a la consolidación de un grupo de trabajo de referencia en esta temática. Se expondrán, a su vez, sus aportes en el área de Estadística Aplicada en este período, que abraca los últimos 10 años aproximadamente, relacionados fundamentalmente al análisis estadístico de datos extremos y de aproximaciones de machine learning aplicados a las ciencias ambientales.
Partial dynamical systems are generalizations of dynamical systems to cases where the transformations are only partially defined, such as the flow of an incomplete vector field. My goal in this talk is to give a survey of the main ideas surrounding this theory, which has been deeply influenced by the work of Fernando Abadie.
A very natural question in geometry and in many applications is: How can we quantify how different two shapes are? One way to do this is by invoking distances between metric spaces, such as the Gromov–Hausdorff distance, which is used in areas like Riemannian geometry and data analysis. Nevertheless, exact values are known only in a few special cases. For finite metric spaces, the exact computation of this distance (and closely related distances) is NP-hard. Despite this hardness, practitioners develop heuristic algorithms to estimate it, which in turn motivates the search for theoretically determined benchmarks against which to evaluate such methods.
In this talk, I will focus on the case of unit round spheres equipped with the geodesic metric. I will describe how to obtain lower bounds for the Gromov–Hausdorff distance between spheres and, in certain cases, establish sharpness by constructing optimal correspondences, thereby determining the exact value of \(d_{\mathrm{GH}}\) for the corresponding pairs of spheres.
Many challenges remain: for most pairs of spheres, the exact value of the distance is still unknown, and even the right techniques for tackling these cases are not yet clear. This makes the problem a rich source of open questions at the intersection of geometry, topology, and data analysis. Interestingly, these results connect with a classical topological result called the Borsuk–Ulam theorem—but in the unusual setting where we must deal with discontinuous functions.
La charla introduce el problema de asignación de estudiantes a escuelas cuando no pueden utilizarse transferencias monetarias. Primero repasaremos los conceptos básicos, los algoritmos más utilizados y sus principales propiedades. Después comentaremos brevemente algunos casos prácticos, destacando el mecanismo de aceptación diferida (DA). Finalmente, presentaremos una línea de investigación que busca aumentar el número de estudiantes que obtienen su primera opción preservando propiedades de incentivos del DA; discutiremos qué nociones de incentivo se mantienen y qué supuestos (por ejemplo, estabilidad, tratamiento de empates o aleatorización) se mantienen o se relajan.
Quizás uno de los primeros acercamientos a la noción de finitud que tenemos en la carrera de matemática ocurre en los cursos de álgebra lineal y álgebra abstracta, durante el estudio de espacios vectoriales de dimensión finita y de grupos finitos o finitamente generados. Esto último se puede llevar a un contexto más general, a saber, dentro de la categoría Mod-R de módulos sobre un anillo R asociativo y con identidad. En efecto, un R-módulo puede pensarse como una generalización simultánea de grupos abelianos (haciendo R = Z el anillo de los enteros) y de espacios vectoriales (haciendo R = K un cuerpo). Dentro de Mod-R, existen los llamados módulos finitamente generados, aquéllos que poseen un conjunto finito de generadores (en el sentido que conocemos de álgebra lineal). Un problema interesante es el siguiente: dado un epimorfismo \(f : R^{(m)} \to M\), donde \(M\) es cualquier R-módulo finitamente generado y \(R^{(m)}\) es una suma directa finita de \(m\) copias de \(R,\)
¿es cierto que Ker(f), el núcleo de f, es también finitamente generado?
Esta pregunta siempre tiene respuesta positiva cuando R = Z o K, pero en general no para R arbitrario (por ejemplo, para ciertos anillos de polinomios). Un anillo R se dice coherente cuando la pregunta anterior tiene respuesta afirmativa.
En esta charla echaremos un vistazo al área de condiciones de finitud, en donde se estudian propiedades de los anillos (como su coherencia, herencia o regularidad) a partir de las clases de R-módulos finitamente generados, finitamente presentados y generalizaciones de estos. Específicamente, un R-módulo M es de tipo \(fP_n\) (con n un entero no negativo) si existe una sucesión exacta de la forma
$$R^{(m_n)} \to R^{(m_{n-1})} \to \cdots \to R^{(m_1)} \to R^{(m_0)} \to M \to 0.$$Para n = 0 y n = 1, se obtienen los conceptos de R-módulos finitamente generados y finitamente presentados, respectivamente. Si denotamos por \(fP_n(R)\) a la clase anterior de R-módulos, es conocido que R es coherente si y solamente si
$$fP_1(R) = FP_2 (R) = \cdots .$$De manera más general, R se dice n-coherente si
$$fP_n(R) = FP_{n+1} (R) = \cdots .$$Son también de interés los anillos n-hereditarios (todo submódulo de tipo \(fP_{n-1}\) de un R-módulo proyectivo finitamente generado es también proyectivo) y n-regulares (todo R-módulo de tipo \(fP_n\) es proyectivo). Mostraremos tanto avances recientes como problemas abiertos que tienen que ver con caracterizar estos tres tipos de anillos a través de módulos e ideales en \(fP_n(R).\)
Dado un conjunto finito de rectas en distintas direcciones, ¿cuán chico puede ser el conjunto de todas las intersecciones de pares de rectas? Si todas las rectas pasan por un mismo punto, la respuesta es "uno". ¿Pero qué pasa si no todas las rectas pasan por un mismo punto? En 1983, J. Beck dio una respuesta completa a esta pregunta. Por ejemplo, demostró que si ningún punto está en la mitad de las rectas, entonces el conjunto de intersecciones tiene tamaño comparable al número de rectas al cuadrado (que es una cota superior trivial). Después de contar un poco más sobre el Teorema de Beck, voy a introducir una variante borrosa (fuzzy) del problema, en el que rectas y puntos están definidos solo a una cierta resolución pequeña. El resultado que voy a presentar se puede pensar como una versión borrosa del Teorema de Beck y fue obtenido en conjunto con Tuomas Orponen (Jyväskylä) y Hong Wang (NYU-Courant e IHES). Aunque a primera vista puede parecer un problema artificial, resulta estar conectado a muchos problemas muy profundos en análisis y combinatoria; por ejemplo, nuestro resultado juega un rol importante en la monumental resolución de la conjetura de Kakeya en 3D por Hong Wang y Josh Zahl.
Un conjunto \(X\) tiene la propiedad del punto fijo si cada mapa \(f: X\to X\) deja un punto fijo (\(f(x) =x\)). Condiciones necesarias y suficientes no se han encontrado para determinar si un conjunto tiene la propiedad del punto fijo. La charla girará alrededor de este misterio de más de 100 años.
Estos son las charlas confirmados hasta el momento. Más adelante publicaremos la lista completa, incluyendo los títulos y resúmenes de cada charla.
Variedad generalizada es una extensión del concepto de variedad topológica y ya es un hecho conocido que existen variedades generalizadas que no son variedades topológicas. El teorema de Jordan Brouwer es una generalización del teorema de la curva de Jordan para dimensiones superiores. En esta charla vamos a ver qué propiedades de variedades topológicas se utilizan para definir variedades generalizadas, algunas propiedades de variedades generalizadas, la versión del teorema de Jordan Brouwer para variedades generalizadas y si sobra tiempo les cuento en qué problemas de esta área estoy trabajando actualmente.
Las álgebras nearly Frobenius son una generalización de las álgebras Frobenius a partir de la caracterización de Abrams. Dada un álgebra de dimensión finita A todas las posibles estructuras de álgebra nearly Frobenius de A forman un espacio vectorial de dimensión finita, a su dimensión la llamamos dimensión de Frobenius (Frobdim(A)). En esta charla veremos cálculos concretos de la Frobdim(A) para algunos ejemplos y cotas para dicha dimensión.
El problema de N-cuerpos consiste en la dinámica de N masas puntuales bajo interacción gravitatoria. Debido a colisiones y pseudocolisiones, el problema de la existencia de movimientos definidos para todo instante en el futuro es no trivial. La primera parte de la charla será introductoria y para público amplio mientras que la segunda será dirigida a público más especializado y enfocada al problema de los movimientos antes mencionados.
La probabilidad, la geometría, la estadística y el álgebra se entrelazan para dar lugar a este bello campo de estudio. Uno puede partir de un campo aleatorio y preguntarse cómo son sus trayectorias; uno puede preguntarse cómo son típicamente las soluciones de un sistema polinomial; uno puede preguntarse si las imágenes que tiene a la vista provienen de un fuente isotrópica (sin direcciones preferidas), etc, etc. De todas estas cosas, o de otras, hablaremos en estos 25 minutos...
En sistemas dinámicos, existen diferentes maneras de cuantificar la cantidad de información generada por un mapa. Esta medición puede abordarse desde una perspectiva estadística o topológica. Una herramienta importante que captura la complejidad del sistema se denomina entropía, que mide esencialmente la tasa de crecimiento exponencial de la expansión a lo largo de las órbitas.
Un resultado clásico de Peter Walters, conocido como el Principio Variacional, establece una profunda conexión entre la entropía métrica y la topológica, así como su contraparte ponderada, la presión. El teorema establece que la presión topología es alcanzada por la entropía métrica más la media asintótica del potencial para una medida invariante.
Cuando la medida invariante alcanza el supremo la llamamos de estado de equilibrio. En el caso especial que el potencial sea nulo, la llamamos de medida de máxima entropia. Sin embargo, el supremo no siempre es alcanzado.
En este seminario comentaremos algunos resultados sobre existencia y finitud para difeomorfismos y en el caso de endomorfismos parcialmente hiperbólicos enunciaremos un trabajo en conjunto con Alexander Arbieto.
Cuando un mensaje se transmite a través de un canal, pueden aparecer errores que alteren la información original. La teoría de códigos ofrece herramientas para detectar y corregir esos errores, asegurando que la comunicación sea confiable. Un desafío similar surge en el almacenamiento masivo de datos, donde no solo interesa resguardar la información frente a fallas, sino también recuperar partes pequeñas de manera eficiente.
En esta charla presentaremos una introducción a los códigos localmente recuperables (LRCs), una familia de códigos especialmente diseñados para este propósito. Mostraremos cómo desde la combinatoria y la teoría de números hasta la geometría algebraica juegan un papel central en su construcción.
La exposición está dirigida a un público matemático amplio: no se asume conocimiento previo en teoría de códigos, ya que se introducirán todas las nociones básicas necesarias.
Los grupos promediables fueron introducidos y estudiados por von Neumann alrededor de 1930. A finales de los 70 y principios de los 80, Anantharaman-Delaroche introdujo el concepto de acción promediable de un grupo en una C*-álgebra. Sus ideas extendían naturalmente las de von Neuman pues todo grupo actúa trivialmente en el álgebra de los números complejos y dicha acción es promediable si y solamente si el grupo lo es. Además, Anantharaman-Delaroche caracterizó la promediabilidad de una acción en una C*-álgebra conmutativa a través de ciertas propiedades de aproximación. Ese tipo particular de acciones son, esencialmente, lo mismo que las acciones en espacios topológicos de Hausdorff localmente compactos. En esta charla explicaremos, entre otras cosas, por qué hemos optado por utilizar el término "promediable" en lugar del más conocido "amenable" (del inglés; "moyenable" del francés o "mittelbare" del alemán).
Este trabajo se basa en la tesina del Diploma en Matemática, mención Aplicaciones (ANEP- UdelaR). Se estudian los procesos estocásticos, haciendo énfasis en el movimiento Browniano y ecuaciones diferenciales estocásticas de difusiones. Además, se aplican herramientas de cálculo de Ito y métodos de simulación, utilizando el lenguaje de programación R. Los modelos estocásticos son de suma importancia para comprender diversos fenómenos. En este trabajo se destaca la simulación de difusiones aplicadas en el modelo de abundancia de especies, el cual describe la dominancia y rareza de diferentes especies dentro de un ecosistema. Los resultados obtenidos muestran que unas pocas especies dominan mientras que la mayoría se encuentra en un estado de rareza y que el estado de dominancia puede alternarse entre ellas con el transcurso del tiempo.
Orientador: Ernesto Mordecki.
Toda isotopía de la identidad en una superficie cerrada, cuyo conjunto de rotacion ergódico tiene interior no vacío, presenta herraduras rotacionales y, en consecuencia, entropía topológica positiva.
En un trabajo en colaboración con Fábio Tal, mostramos que cualquiera de esos mapas es monótonamente semiconjugado a un homeomorfismo de la misma superficie, con el mismo conjunto de rotación, que además es completamente caótico -tiene una familia densa de herraduras rotacionales-, y para el cual todo continuo no trivial lleva entropía positiva.
¿Qué significa probar que una imagen fue alterada? ¿Podemos hacerlo sin depender del contexto, solo mirando los píxeles? Las falsificaciones visuales - ya sean retoques sutiles o imágenes generadas por inteligencia artificial - plantean un desafío a nuestra percepción de lo real. En esta charla recorreremos distintas estrategias de detección de falsificaciones y veremos cómo detrás de ellas se esconden herramientas matemáticas diversas: desde la estadística hasta el análisis espectral. El objetivo es mostrar cómo la matemática puede ofrecer criterios objetivos para evaluar la autenticidad de una imagen.
En esta charla le daremos al espacio de árboles planares con raíz una estructura de álgebra de Hopf. Veremos que variaciones de dicha estructura dan lugar a álgebras de Hopf en los espacios de árboles coloreados, n-árboles y árboles planares crecientes. Estas estructuras se utilizan para construir álgebras de Hopf sobre diferentes tipos de permutaciones. En particular, daremos caracterizaciones de las álgebras de Hopf de Malvenuto-Reutenauer y Loday-Ronco mediante árboles planares con raíz.
El objetivo de esta charla es mostrar las ideas de la aritmética intuicionista (HA) indispensables para luego introducir la Realizabilidad de Kleene, modelo que vincula las pruebas de HA con el cálculo efectivo. Si el tiempo lo permite, mencionaremos el principio de Markov (MP), que es un principio constructivo, y mostraremos cómo mediante diferentes modelos de Realizabilidad se puede demostrar que el MP es independiente de la HA.
Dada un álgebra H, se puede considerar el espacio vectorial de sus endomorfismos lineales End(H). Tiene un producto asociativo y unital conocido: la composición de endomorfismos. Si además, H tiene estructura de coálgebra, End(H) tiene otro producto asociativo y unital conocido: la convolución de endormorfismos.
Cuando además H es una biálgebra, hay otro producto asociativo conocido como "producto smash" de endomorfismos, y si además es de Hopf, se conoce el producto de Drinfel'd. Estos dos también son asociativos y unitales.
En esta charla mostraremos que estos productos pueden generalizarse bajo una misma construcción, y daremos condiciones para construir nuevos productos asociativos y unitales de endomorfismos.
Los resultados son parte de un actual trabajo en colaboración con Walter Ferrer.
En esta charla hablaré de una relación, hasta ahora desconocida, entre las derivaciones superiores y el enriquecimiento de la categoría de k-álgebras asociativas sobre la categoría de k-coálgebras. Las derivaciones superiores, o derivaciones de Hasse-Schmidt, fueron definidas por dichos matemáticos en 1937 y son a los jets de funciones lo que las derivadas son a las derivaciones: Por ejemplo, una 1-derivación superior es un morfismo de álgebras \(A\toB\) junto con una derivación \(A\toB\). Veremos cómo estas y otras definiciones se expresan a partir del enriquecimiento de la categoría de álgebras sobre la categoría de coálgebras. En particular, veremos que la álgebra de Hasse-Schmidt de una \(k-\)álgebra A, que es una álgebra que clasifica las derivaciones superiores de A, aparece como un colímite Coalg-enriquecido la Coalg-categoría de k-álgebras.
La charla se basa en
M. Hyland, IL, C. Vasilakopoulou, Measuring Comodules and Enrichment, arXiv:1703.10137 (2025).
M. Hyland, IL, C. Vasilakopoulou, Hopf measuring comonoids and enrichment, Proc. London Math. Soc. (3) 115 (2017) 1118–1148.
En los últimos años, el deep learning ha experimentado un crecimiento explosivo tanto en aplicaciones como en fundamentos teóricos, impulsando avances en visión por computadora, procesamiento del lenguaje natural y en áreas de gran impacto como la biología computacional, donde se aplica por ejemplo al descubrimiento y rediseño de fármacos. Sin embargo, muchos de los datos de interés en ciencias, ingeniería y biología no tienen una estructura euclidiana regular, sino que se organizan naturalmente como grafos.
En esta charla abordaremos las redes neuronales sobre grafos (Graph Neural Networks o GNNs), una extensión del paradigma del aprendizaje profundo al dominio no euclidiano. Introduciremos la noción de convolución en grafos, que permite construir arquitecturas profundas capaces de incorporar la conectividad de los datos, de manera análoga a las redes convolucionales aplicadas a imágenes. A partir de esta idea, definiremos la Transformada de Fourier para grafos y discutiremos cómo esta formulación permite analizar propiedades de estabilidad frente a perturbaciones en la estructura del grafo. Si el tiempo lo permite, exploraremos además qué condiciones son necesarias para garantizar la invariancia a permutaciones en los vértices del grafo, una propiedad fundamental para el diseño y la comprensión teórica de las GNNs.
El objetivo de la charla será ofrecer una introducción accesible y conceptual a las GNNs, poniendo el foco en los aspectos matemáticos y estructurales que sustentan el funcionamiento y las propiedades de estas redes.
El concepto de regularidad ha ocupado un lugar central en álgebra conmutativa y geometría algebraica desde los años sesenta, evolucionando a través de diversas formulaciones. En su origen geométrico, un anillo local es regular si corresponde a un punto no singular de una variedad algebraica, según el teorema clásico de Zariski–Serre. Más tarde, Bass introdujo una noción puramente algebraica: un anillo es regular si todo módulo finitamente generado tiene dimensión proyectiva finita.
En esta charla presentamos una visión unificada de estas nociones, explorando cómo las condiciones de finitud permiten extender el concepto de regularidad a contextos más generales, incluyendo entornos no conmutativos y categóricos. Además, discutimos la noción de K₀-regularidad y su relación con la estructura homológica de las categorías de módulos.
Aristas es la evaluación nacional de logros educativos del Instituto Nacional de Evaluación Educativa (INEEd). Los resultados de la prueba de matemática Aristas en tercero de media en 2022 muestran mayor inequidad que en 2018, vinculados tanto a una ampliación de la brecha en los desempeños por contexto como a un incremento del porcentaje de adolescentes de contextos bajos que interrumpió su asistencia al sistema educativo durante la pandemia por COVID-19.
La inequidad se refleja, a la vez, en las oportunidades de aprendizaje que tuvieron los estudiantes durante el 2022. La mayoría de los docentes de Matemática considera que la preparación con la que los adolescentes iniciaron el curso de tercero ese año era peor que en 2019 y otros años previos a la pandemia. Asimismo, en 2022 se identificaron diferencias en la implementación curricular de los docentes de matemática.
En esta charla se proponen estrategias para que los docentes generen avances en los aprendizajes de los estudiantes en matemática, a partir de información obtenida de la evaluación estandarizada.
El infinito no deja de sorprendernos y la paradoja de Banach-Tarski es otra muestra de ello. Si llama la atención el Hotel de Hilbert, con sus infinitas habitaciones, ¿cómo no va a crear un manto de duda en nuestra cordura, si afirmamos que es posible dividir una naranja en un número finito de partes, de manera tal que luego de aplicar ciertas transformaciones, podemos ensamblar esas partes para formar dos naranjas del mismo tamaño que la original, sin dejar ningún hueco?
A esta posibilidad se la conoce como descomposición paradójica. Esta consiste en dividir un objeto en un número finito de partes para luego reensamblarlas y así obtener, ya sea un objeto de diferente ‘‘tamaño’’, o incluso dos objetos idénticos al original. En particular, la descomposición de una esfera (“la naranja”) recibe el nombre de paradoja de Banach-Tarski. El objetivo central de este trabajo es presentar una exposición de una posible demostración del teorema de Banach-Tarski, en la cual resultan esenciales, la noción de infinito y el axioma de elección.
Orientadores: Fernando Abadie y Juan Kalemkerian
La ponencia presenta el abordaje conceptual y metodológico, así como los principales resultados de la tesina “ La Enseñanza de la Matemática para la Justicia Social en la formación de futuros profesores. Una propuesta de enseñanza en torno a la belleza”, que se centra en la perspectiva de la Enseñanza de la Matemática para la Justicia Social (EMpJS) en la formación de profesores en Uruguay. Con el objetivo de problematizar construcciones sociales en torno a la belleza, se generó una propuesta pedagógica para la formación de profesores que integra contenidos matemáticos con el relato social existente en torno a la belleza. Se problematiza la contribución de la matemática a la reproducción de estereotipos hegemónicos que resultan de asumir una neutralidad discursiva. Además, se comparte la mirada conceptual planteada en este análisis, profundizando en la EMpJS, sus objetivos (Gutstein, 2006) y el marco de Felton-Koestler (2017) sobre el qué, quién y cómo de la matemática. Luego, se presenta la propuesta de enseñanza desde la perspectiva mencionada en la que se desarrolla el conocimiento matemático con el fin de problematizar el modelo hegemónico de belleza y se realiza un análisis a priori de la secuencia realizada.
Orientadores: Verónica Molfino y Cristina Ochoviet
La conjetura finitista es uno de los problemas abiertos más relevantes en la teoría de representaciones de álgebras. Aunque se ha verificado para numerosas clases de álgebras, su validez en general sigue siendo desconocida. En esta charla mostraré cómo las funciones de Igusa–Todorov permiten construir amplias familias de álgebras que efectivamente satisfacen la conjetura finitista. En particular, discutiré las clases de álgebras IT, LIT y GLIT. Estas familias y sus propiedades han proporcionado avances sustanciales en la comprensión del problema; sin embargo, la conjetura permanece abierta.
Publicaremos el cronograma detallado del evento con todas las actividades día por día.
Ya abrimos la inscripción al 9º Coloquio Uruguayo. Invitamos a estudiantes, docentes e investigadores a registrarse para participar del evento.
Fechas clave:
Esta fecha aplica únicamente para las personas que soliciten financiamiento de transporte, alojamiento o almuerzo.
¿Quiénes pueden inscribirse?
Costos
Datos para la transferencia