Programa de Matemáticas Aplicadas y Ciencias de la Computación - MACC
URI permanente para esta colección
Nuestro programa de Matemáticas Aplicadas y Ciencias de la Computación, MACC, es la elección ideal para aquellos estudiantes que quieran crear y liderar la transformación digital en el marco de la Revolución 4.0. Estudiar MACC les permitirá comprender el mundo mediante el lenguaje de las matemáticas y las ciencias de la computación. Contamos con líneas de profundización que responden a las necesidades de la Revolución 4.0 y que están encaminadas a que los estudiantes amplíen sus oportunidades laborales en una economía digital. Nuestros egresados tendrán la capacidad de crear puentes entre problemas reales y soluciones digitales, generando transferencia de tecnología y de conocimiento.
Examinar
Envíos recientes
- ÍtemAcceso AbiertoEnhancing performance in special teams within the NFL through reinforcement learning: A data-driven approach(2023-07-25) Alvarez Barbosa, Santiago; Caicedo Dorado, AlexanderLa tesis exploró la integración de la Ciencia de Datos y la Inteligencia Artificial en los equipos especiales de fútbol americano. Se utilizó el conjunto de datos NFL Big Data Bowl 2022 y la API de OpenAI Gym para crear un entorno de entrenamiento dinámico. Se entrenaron dos conjuntos de agentes que representaban diferentes posiciones dentro de los equipos especiales con el objetivo de aprender estrategias óptimas para alcanzar sus objetivos. El propósito era proporcionar información a los entrenadores, mejorar los procesos de toma de decisiones y aumentar el rendimiento en jugadas específicas.
- ÍtemAcceso AbiertoAprendizaje de máquina aplicado al control(2023-02-17) Rambaut Lemus, Daniel Felipe; Obando Bravo, Germán DarioEl objetivo de este trabajo es emular la acción de un controlador utilizando modelos de inteligencia artificial (IA). Para ello, se empleó como planta un sistema de segundo orden que describe la temperatura en un cuarto. Sobre dicha planta, se diseña un controlador predictivo basado en modelo (MPC, por sus siglas en inglés) como referencia para entrenar los algoritmos de IA. MPC es un método que utiliza modelos matemáticos para predecir el comportamiento futuro del sistema y tomar acciones de control óptimas en función de ciertos objetivos preestablecidos. La emulación del controlador puede plantearse como un problema de regresión, por lo tanto se emplearon tres de los modelos más populares de IA para efectuar regresiones: regresión lineal, vectores de soporte y redes neuronales. Para el entrenamiento de los modelos de IA, se utilizó una base de datos generada al simular el comportamiento del controlador MPC sobre la planta de temperatura. Se realizaron diferentes pruebas para evaluar el desempeño de los modelos de IA comparándolos con el controlador MPC. Los resultados mostraron que los modelos de IA pueden ser utilizados con éxito para emular dicho controlador con la ventaja de tener un menor costo computacional. En este sentido, cabe resaltar que MPC necesita resolver iterativamente un problema de optimización, mientras que los algoritmos de IA usados sólo requieren evaluar cierta función (que se obtiene al entrenar los modelos) en cada iteración de control. En conclusión, esta investigación es un primer paso exitoso en un camino prometedor: el uso de IA para el control de procesos dinámicos.
- ÍtemAcceso AbiertoTeoría de la información y la compresión de cadenas(2022-11-23) Hernández Ramírez, Esteban; Álvarez Cabrera, Carlos EduardoEl problema de la compresión sin perdida consiste en implementar la codificación (únicamente decodificable) de un alfabeto, que asigna a cada cadena de símbolos del alfabeto el código de menor longitud posible. Encontrar esta representación de menor tamaño de un conjunto de datos puede ahorrar costos en el espacio de almacenamiento, tiempo en transferencia de los datos o número de operaciones en su procesamiento, dentro de un computador. Lo anterior hace de la compresión sin perdida un objetivo razonable dentro de las Ciencias de la Computación y representa un reto importante durante el desarrollo de muchas soluciones tecnológicas. La teoría de la información, por su parte, ha establecido el formalismo matemático necesario para el estudio de medidas cuantitativas de información como la entropía de Shannon y ha encontrado su lugar dentro de la implementación de la compresión sin perdida al proveer algunas de las herramientas teóricas necesarias para el estudio de los modelos que describen las fuentes de datos en la teoría de la codificación. Por otro lado, la cercana relación que se ha encontrado entre la teoría de la información y la teoría de la compresión sin perdida ha motivado a muchos autores a ingeniar formas de medir a través de la compresión de archivos la información en ellos. Lo que ha resultado en interesantes aplicaciones de la compresión sin perdida en el aprendizaje automático, particularmente, en la clasificación de textos escritos en lenguaje natural o cadenas de ADN. En este escrito, se presenta una revisión monográfica acerca de cómo la teoría de la información se aplica a la compresión sin perdida. Para esto, se presentan algunas de las implementaciones de la compresión sin perdida en la teoría de códigos y sus respectivos análisis. Las demostraciones, gráficas, algoritmos e implementaciones en este escrito generalizan algunos de los hechos más importantes acerca de codificaciones binarias que se han enunciado en la literatura, al caso general de alfabetos de tamaños arbitrarios. Finalmente, se presenta una aplicación de la compresión sin perdida al aprendizaje automático de máquina, para la clasificación del lenguaje natural, mediante la aplicación del algoritmo de codificación LZ77 para estimar algunas medidas de información bien conocidas en la literatura, las cuales se emplean como medida de distancia para comparar los lenguajes entre sí. El resultado de la clasificación es presentado en la forma de árboles filogenéticos del lenguaje natural
- ÍtemAcceso AbiertoAutomatic determination of the learning rate for multivariate and multinomial regression models(2022-11-25) Acosta Fajardo, Manuela; Caicedo Dorado, AlexanderA lo largo de los años, la inteligencia artificial se ha convertido en un campo ampliamente investigado y aplicado, como resultado de los importantes avances tecnológicos y la expansión de los recursos informáticos. La inteligencia artificial intenta no solo comprender cómo funciona la mente humana, sino también desarrollar sistemas que puedan imitar el comportamiento humano. El aprendizaje automático es una de las principales ramas de la inteligencia artificial y su objetivo es construir y mejorar modelos que puedan aprender de un conjunto de datos y de la experiencia, a través de métodos computacionales, sin necesidad de ser programados explícitamente. Los algoritmos de aprendizaje automático construyen modelos basados en datos de muestra, con el fin de hacer predicciones o decisiones, y se utilizan en diferentes aplicaciones, como medicina, visión artificial, clasificación de imágenes, entre otras. Un algoritmo de aprendizaje automático es un programa que encuentra patrones o hace predicciones a partir de datos nunca antes vistos. Dependiendo de los objetivos del algoritmo, así como de los datos utilizados, existen diferentes tipos de modelos de aprendizaje: aprendizaje supervisado, aprendizaje no supervisado y aprendizaje por refuerzo. Uno de los algoritmos de aprendizaje más comunes es Gradient Descent, que se utiliza para encontrar un mínimo local de una función diferenciable. Funciona dando pasos repetidos en la dirección opuesta al gradiente de la función. El tamaño de los pasos tomados por el algoritmo de descenso de gradiente está determinado por un hiperparámetro conocido como Tasa de aprendizaje. Este parámetro indica qué tan rápido o lento es el movimiento hacia los parámetros óptimos del algoritmo. Por lo general, se configura manualmente. Sin embargo, para alcanzar los mínimos de función es necesario establecer una tasa de aprendizaje adecuada, es decir, ni demasiado grande ni demasiado pequeña. En el primer caso, los pasos dados son demasiado grandes y, en consecuencia, el algoritmo puede divergir. Por el contrario, si la tasa de aprendizaje es demasiado pequeña, resulta en un aprendizaje lento y el algoritmo tampoco podría converger nunca. La mayoría de las veces se desea un aprendizaje rápido, por lo que se pueden seleccionar altas tasas de aprendizaje. Sin embargo, es importante seleccionar el valor adecuado para este parámetro, de modo que se pueda garantizar la convergencia del algoritmo. En (2021, Ruiz) se presentó un método para determinar un límite superior para la tasa de aprendizaje de modelos basados en modelos de regresión lineal, haciendo un análisis del algoritmo de gradiente descendente como un sistema dinámico discreto. Este trabajo de tesis pretende extender estos resultados a modelos basados en clasificación y regresión multinomial. También buscamos encontrar un valor óptimo para la tasa de aprendizaje para estos métodos. A lo largo de esta tesis se desarrolla un algoritmo que determina automáticamente un valor óptimo para la tasa de aprendizaje de los modelos de clasificación y regresión. En primer lugar, los resultados obtenidos para los modelos de regresión lineal se generalizan a otras funciones de activación. Como resultado, se encuentran un límite superior y un valor óptimo para la tasa de aprendizaje para los modelos que usan regresión y clasificación. Luego, los resultados obtenidos se extienden a un modelo de regresión multinomial. Proponemos un análisis del descenso de gradiente como un sistema dinámico discreto, donde la cota superior surge como criterio para determinar la estabilidad de este sistema. Además, presentamos un valor óptimo para la tasa de aprendizaje, que minimiza la suma de las distancias de los polos extremos del sistema dinámico estudiado. Este análisis se realiza linealizando el algoritmo de descenso de gradiente y aplicándolo a la regresión lineal, logística y multinomial. El límite superior y el valor óptimo de la tasa de aprendizaje son aproximaciones al valor óptimo que garantizan la convergencia más rápida del algoritmo. Presentamos simulaciones y experimentos para comprobar los resultados obtenidos. Primero los probamos con ejemplos de juguetes, creando manualmente los datos para estudiar el comportamiento del algoritmo para el modelo de regresión lineal y logística. Luego, validamos nuestro enfoque en conjuntos de datos reales. Los resultados muestran que, aunque la tasa de aprendizaje máxima, que viene dada por la cota superior, parece hacer que el algoritmo converja más rápido que la tasa de aprendizaje óptima para el caso logístico y multinomial, es mejor utilizar este último valor, ya que garantiza una convergencia suave y relativamente rápida al mínimo en todos los casos
- ÍtemAcceso AbiertoGeneralización de notación asintótica vía filtros(2022-11-23) López Chacón, Ana Valentina; Salas Brown, Margot del ValleEn este documento, proporcionamos una generalización de la notación asintótica mediante la estructura topológica conocida como filtro. Presentamos algunas propiedades relevantes, como reflexividad, simetría y transitividad, junto con ejemplos adecuados para exhibir el amplio alcance de esta nueva noción. Además, se demuestra que la definición habitual de notaciones asintóticas implica la generalizada por filtros, y presentamos diferentes ejemplos para asegurar que la afirmación recíproca no es válida. Además, proponemos una caracterización de las notaciones asintóticas usuales en términos de filtros. Finalmente, establecemos una relación entre sucesiones acotadas o convergentes a cero y notaciones asintóticas en filtros, que nos permiten determinar algunas propiedades de los temas tratados en este estudio
- «
- 1 (current)
- 2
- 3
- »