Ítem
Acceso Abierto

Arquitectura de protección de privacidad de datos para modelos de lenguaje de gran tamaño (LLM) usando chatgpt
Título de la revista
Autores
Bonilla Beltrán, Sofia Luisa Carolina
Ocampo Candela, Danna Natalia
Archivos
Fecha
2025-04-03
Directores
Wightman Rojas, Pedro Mario
Díaz López, Daniel Orlando
ISSN de la revista
Título del volumen
Editor
Universidad del Rosario
Buscar en:
Métricas alternativas
Resumen
El presente trabajo surge de la necesidad de fortalecer la privacidad en los modelos de lenguaje de gran tamaño (LLMs) como ChatGPT, Google Gemini y XLNet, los cuales presentan vulnerabilidades que pueden comprometer datos sensibles. A pesar de los avances en inteligencia artificial, la seguridad y privacidad de la información en estos modelos aún presentan desafíos, especialmente en la protección contra filtraciones de datos y accesos no autorizados. Esta investigación tiene como objetivo diseñar e implementar una arquitectura de protección de privacidad que mitigue riesgos tanto en la entrada como en la salida de los LLMs. Para ello, se abordan mecanismos para identificar y ofuscar datos sensibles en distintos tipos de información, incluyendo texto e imágenes, garantizando así la confidencialidad del usuario en todas las etapas de la comunicación con el modelo. El proyecto se estructura en tres etapas. La primera etapa consiste en un análisis ofensivo,demostrando las vulnerabilidades existentes en los modelos de lenguaje y cómo pueden ser explotadas para extraer información privada. En la segunda fase, se desarrolla una arquitectura de seguridad que emplea técnicas avanzadas de anonimización, protegiendo los datos sensibles antes de ser procesados por el modelo y controlando la información generada en sus respuestas. Finalmente, la tercera etapa evalúa el desempeño de la arquitectura mediante pruebas experimentales, asegurando que la implementación no afecte la precisión ni la utilidad del modelo, pero sí refuerce la protección de los datos. Los resultados de este proyecto permiten establecer nuevas estrategias de seguridad en LLMs, contribuyendo al desarrollo de modelos más confiables y con mejores garantías de privacidad para los usuarios.
Abstract
This paper arises from the need to strengthen privacy in large language models (LLMs) such as ChatGPT, Google Gemini and XLNet, which present vulnerabilities that can compromise sensitive data. Despite advances in artificial intelligence, information security and privacy in these models still present challenges, especially in protecting against data leaks and unauthorized access. This research aims to design and implement a privacy protection architecture that mitigates risks at both the input and output of LLMs. To this end, mechanisms are addressed to identify and obfuscate sensitive data in different types of information, including text and images, thus ensuring user confidentiality at all stages of communication with the model. The project is structured in three stages. The first stage consists of an offensive analysis, demonstrating the existing vulnerabilities in the language models and how they can be exploited to extract private information. In the second stage, a security architecture is developed that employs advanced anonymization techniques, protecting sensitive data before being processed by the model and controlling the information generated in its responses. Finally, the third stage evaluates the performance of the architecture through experimental tests, ensuring that the implementation does not affect the accuracy and usability of the model, but reinforces data protection. The results of this project allow establishing new security strategies in LLMs, contributing to the development of more reliable models with better privacy guarantees for users.
Palabras clave
LLM , Inteligencia artificial , Ciberseguridad , ChatGPT , Privacidad , Datos sensibles , Procesamiento de lenguaje natural , Visión por computadora
Keywords
LLM , Artificial intelligence , Cybersecurity , Privacy , Sensible data , Vision computer , Natural languge processing , ChatGPT