Maestría en Matemáticas Aplicadas y Ciencias de la Computación
URI permanente para esta colección
Examinar
Examinando Maestría en Matemáticas Aplicadas y Ciencias de la Computación por Director "Díaz López, Daniel Orlando"
Mostrando1 - 4 de 4
Resultados por página
Opciones de clasificación
- ÍtemAcceso Abierto
Arquitectura de protección de privacidad de datos para modelos de lenguaje de gran tamaño (LLM) usando chatgpt(2025-04-03) Bonilla Beltrán, Sofia Luisa Carolina; Ocampo Candela, Danna Natalia; Wightman Rojas, Pedro Mario; Díaz López, Daniel OrlandoEl presente trabajo surge de la necesidad de fortalecer la privacidad en los modelos de lenguaje de gran tamaño (LLMs) como ChatGPT, Google Gemini y XLNet, los cuales presentan vulnerabilidades que pueden comprometer datos sensibles. A pesar de los avances en inteligencia artificial, la seguridad y privacidad de la información en estos modelos aún presentan desafíos, especialmente en la protección contra filtraciones de datos y accesos no autorizados. Esta investigación tiene como objetivo diseñar e implementar una arquitectura de protección de privacidad que mitigue riesgos tanto en la entrada como en la salida de los LLMs. Para ello, se abordan mecanismos para identificar y ofuscar datos sensibles en distintos tipos de información, incluyendo texto e imágenes, garantizando así la confidencialidad del usuario en todas las etapas de la comunicación con el modelo. El proyecto se estructura en tres etapas. La primera etapa consiste en un análisis ofensivo,demostrando las vulnerabilidades existentes en los modelos de lenguaje y cómo pueden ser explotadas para extraer información privada. En la segunda fase, se desarrolla una arquitectura de seguridad que emplea técnicas avanzadas de anonimización, protegiendo los datos sensibles antes de ser procesados por el modelo y controlando la información generada en sus respuestas. Finalmente, la tercera etapa evalúa el desempeño de la arquitectura mediante pruebas experimentales, asegurando que la implementación no afecte la precisión ni la utilidad del modelo, pero sí refuerce la protección de los datos. Los resultados de este proyecto permiten establecer nuevas estrategias de seguridad en LLMs, contribuyendo al desarrollo de modelos más confiables y con mejores garantías de privacidad para los usuarios. - ÍtemAcceso Abierto
Detección de anomalías en tráfico de red de Sistemas de Control Industrial soportada en algoritmos de machine learning(2023-02-07) Tristancho Muñoz, Miguel Angel; Díaz López, Daniel OrlandoEstablecer un sistema de análisis de tráfico de red basado en algoritmos de machine learning (ML), orientado a sistemas de control industrial que permita: la identificación de comportamientos anormales para evitar la explotación de vulnerabilidades que afecten la seguridad de procesos industriales reduciendo riesgos de disponibilidad y soporte la continuidad del negocio. - ÍtemAcceso Abierto
Resilient DevSecOps: leveraging large language models and chaos engineering for automated threat hypothesis validation(2025-11-07) Betancourt Alonso, Miguel Santiago; Díaz López, Daniel OrlandoLa securitización del ciclo de vida del desarrollo de software es una práctica que permite a las empresas producir código que cumple con los tres pilares fundamentales de la seguridad: integridad, confidencialidad y disponibilidad de los datos procesados, así como de los servicios prestados en sus aplicaciones de producción. Actualmente, es obligatorio integrar prácticas del Ciclo de Vida de Desarrollo de Software Seguro (SSDLC) en las tareas del equipo debido al creciente aumento de amenazas a la seguridad. Los equipos de desarrollo suelen estar compuestos por personal técnico y no técnico que participa en las primeras etapas del SSDLC, como la planificación y el diseño. Sin embargo, muchos de estos miembros carecen de conocimientos en ciberseguridad. Además de esta falta de conocimientos, la integración de herramientas de securitización en el SSDLC se ve obstaculizada por el hecho de que estas herramientas se aplican manualmente y requieren un tiempo considerable para su construcción. Asimismo, el retraso en la gestión de nuevas amenazas hace que el producto final sea vulnerable a ciberataques debido a componentes o políticas de seguridad obsoletos. Este trabajo, presentado como proyecto de grado para el Máster en MACC, propone la integración de Modelos de Lenguaje Largos (LLM) y la metodología de Ingeniería de Caos de Seguridad (SCE) para facilitar la incorporación de tareas centradas en la seguridad dentro del Ciclo de Vida de Desarrollo de Software Seguro (SSDLC). Por un lado, los LLM automatizan la construcción e interpretación de árboles de ataque y defensa, lo que facilita la generación de hipótesis sobre escenarios de ataque. Por otro lado, la SCE proporciona una evaluación de la resiliencia, estabilidad y capacidad de recuperación del sistema, resultante de la ejecución de un conjunto de experimentos en un entorno DevSecOps controlado, destinados a explotar las vulnerabilidades del sistema. - ÍtemEmbargoSecuring software development lifecycle using artificial intelligence and security chaos engineering(2024-04-16) Bedoya Rodríguez, Martín Steven; Díaz López, Daniel OrlandoAunque los procesos de desarrollo de software se han optimizado sustancialmente en los últimos años, las brechas de seguridad siguen representando un factor de riesgo importante para las organizaciones. Los procesos de transformación digital que no implementan la seguridad como pilar tienden a generar reprocesos y costos adicionales por remediación; en el peor de los casos, fugas de información, ataques de ransomware, denegación de servicio y otros ciberataques que generan fuerte impacto reputacional, legal o monetario. A lo largo de los años, las prácticas de desarrollo seguro han evolucionado, y hoy en día los frameworks de desarrollo ayudan a prevenir intrínsecamente las vulnerabilidades. También han surgido los Programas de Seguridad de Aplicaciones, que son un mecanismo que engloba las políticas, directrices, procesos, herramientas y personas que las organizaciones implementan para proteger sus aplicaciones. Aumentar el nivel de madurez de un programa de seguridad de aplicaciones requiere automatizar actividades y definir formas novedosas de desafiar la seguridad de las aplicaciones. Uno de los mecanismos en auge para automatizar las actividades de seguridad es la Inteligencia Artificial, con el surgimiento de los Large Language Models es posible resolver tareas en cada fase del ciclo de vida del software, reduciendo el tiempo empleado por las organizaciones para generar sistemas seguros. Por otro lado, a través de Security Chaos Engineering es posible descubrir nuevas formas de riesgo que no son fácilmente descubiertas a través de métodos tradicionales de pen-testing o herramientas automatizadas, lo que mejora la postura de seguridad de las aplicaciones. Esta tesis de máster genera una serie de aportaciones que permiten a las organizaciones mejorar sus Programas de Seguridad de Aplicaciones. Este trabajo introduce ideas sobre la identificación temprana de amenazas aplicando Procesamiento del Lenguaje Natural sobre historias de usuario, demuestra la automatización de modelos de amenazas basados en árboles de ataque-defensa utilizando Large Language Models, y propone casos de uso de Security Chaos Engineering aplicables a prácticas DevSecOps.



