Ítem
Acceso Abierto

Arquitectura de protección de privacidad de datos para modelos de lenguaje de gran tamaño (LLM) usando chatgpt
dc.contributor.advisor | Wightman Rojas, Pedro Mario | |
dc.contributor.advisor | Díaz López, Daniel Orlando | |
dc.creator | Bonilla Beltrán, Sofia Luisa Carolina | |
dc.creator | Ocampo Candela, Danna Natalia | |
dc.creator.degree | Magíster en Matemáticas Aplicadas y Ciencias de la Computación | |
dc.date.accessioned | 2025-04-21T14:48:47Z | |
dc.date.available | 2025-04-21T14:48:47Z | |
dc.date.created | 2025-04-03 | |
dc.description | El presente trabajo surge de la necesidad de fortalecer la privacidad en los modelos de lenguaje de gran tamaño (LLMs) como ChatGPT, Google Gemini y XLNet, los cuales presentan vulnerabilidades que pueden comprometer datos sensibles. A pesar de los avances en inteligencia artificial, la seguridad y privacidad de la información en estos modelos aún presentan desafíos, especialmente en la protección contra filtraciones de datos y accesos no autorizados. Esta investigación tiene como objetivo diseñar e implementar una arquitectura de protección de privacidad que mitigue riesgos tanto en la entrada como en la salida de los LLMs. Para ello, se abordan mecanismos para identificar y ofuscar datos sensibles en distintos tipos de información, incluyendo texto e imágenes, garantizando así la confidencialidad del usuario en todas las etapas de la comunicación con el modelo. El proyecto se estructura en tres etapas. La primera etapa consiste en un análisis ofensivo,demostrando las vulnerabilidades existentes en los modelos de lenguaje y cómo pueden ser explotadas para extraer información privada. En la segunda fase, se desarrolla una arquitectura de seguridad que emplea técnicas avanzadas de anonimización, protegiendo los datos sensibles antes de ser procesados por el modelo y controlando la información generada en sus respuestas. Finalmente, la tercera etapa evalúa el desempeño de la arquitectura mediante pruebas experimentales, asegurando que la implementación no afecte la precisión ni la utilidad del modelo, pero sí refuerce la protección de los datos. Los resultados de este proyecto permiten establecer nuevas estrategias de seguridad en LLMs, contribuyendo al desarrollo de modelos más confiables y con mejores garantías de privacidad para los usuarios. | |
dc.description.abstract | This paper arises from the need to strengthen privacy in large language models (LLMs) such as ChatGPT, Google Gemini and XLNet, which present vulnerabilities that can compromise sensitive data. Despite advances in artificial intelligence, information security and privacy in these models still present challenges, especially in protecting against data leaks and unauthorized access. This research aims to design and implement a privacy protection architecture that mitigates risks at both the input and output of LLMs. To this end, mechanisms are addressed to identify and obfuscate sensitive data in different types of information, including text and images, thus ensuring user confidentiality at all stages of communication with the model. The project is structured in three stages. The first stage consists of an offensive analysis, demonstrating the existing vulnerabilities in the language models and how they can be exploited to extract private information. In the second stage, a security architecture is developed that employs advanced anonymization techniques, protecting sensitive data before being processed by the model and controlling the information generated in its responses. Finally, the third stage evaluates the performance of the architecture through experimental tests, ensuring that the implementation does not affect the accuracy and usability of the model, but reinforces data protection. The results of this project allow establishing new security strategies in LLMs, contributing to the development of more reliable models with better privacy guarantees for users. | |
dc.format.extent | 91 pp | |
dc.format.mimetype | application/pdf | |
dc.identifier.doi | https://doi.org/10.48713/10336_45231 | |
dc.identifier.uri | https://repository.urosario.edu.co/handle/10336/45231 | |
dc.language.iso | spa | |
dc.publisher | Universidad del Rosario | spa |
dc.publisher.department | Escuela de Ingeniería, Ciencia y Tecnología | spa |
dc.publisher.program | Maestría en Matemáticas Aplicadas y Ciencias de la Computación | spa |
dc.rights | Attribution 4.0 International | * |
dc.rights.accesRights | info:eu-repo/semantics/openAccess | |
dc.rights.acceso | Abierto (Texto Completo) | |
dc.rights.uri | http://creativecommons.org/licenses/by/4.0/ | * |
dc.source.bibliographicCitation | N. Fraguela, “El número de usuarios de internet en el mundo crece un 1,8% y alcanza los 5.350 millones,” Marketing4eCommerce Colombia, 31 de enero de 2024. | |
dc.source.bibliographicCitation | Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., & Sutskever, I. (2019). Language models are unsupervised multitask learners. OpenAI blog, 1(8), 9. | |
dc.source.bibliographicCitation | Huang, M. H., & Rust, R. T. (2018). Artificial intelligence in service. Journal of service research, 21(2), 155-172. | |
dc.source.bibliographicCitation | Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., ... & Amodei, D. (2020). Language models are few-shot learners. Advances in neural information processing systems, 33, 1877-1901. | |
dc.source.bibliographicCitation | Rahimpour, H., Tusek, J., Musleh, A. S., Liu, B., Abuadbba, A., Phung, T., & Seneviratne, A. (2024). A Review of Cybersecurity Challenges in Smart Power Transformers. IEEE Access. | |
dc.source.bibliographicCitation | Green, B. (2021). The contestation of tech ethics: A sociotechnical approach to technology ethics in practice. Journal of Social Computing, 2(3), 209-225. | |
dc.source.bibliographicCitation | Okdem, S., & Okdem, S. (2024). Artificial Intelligence in Cybersecurity: A Review and a Case Study. Applied Sciences, 14(22), 10487. | |
dc.source.bibliographicCitation | Carlini, N., Tramer, F., Wallace, E., Jagielski, M., Herbert-Voss, A., Lee, K., ... & Raffel, C. (2021). Extracting training data from large language models. In 30th USENIX Security Symposium (USENIX Security 21) (pp. 2633 2650). | |
dc.source.bibliographicCitation | T. B. Brown et al., «Language Models are Few-Shot Learners», arXiv.org, 28 de mayo de 2020. Disponible en: https://arxiv.org/abs/2005.14165 | |
dc.source.bibliographicCitation | Auffarth, B. (2023). Generative AI with LangChain: Build large language model (LLM) apps with Python, ChatGPT, and other LLMs. Packt Publishing Ltd. | |
dc.source.bibliographicCitation | Vaswani, A. (2017). Attention is all you need. Advances in Neural Information Processing Systems. | |
dc.source.bibliographicCitation | Kenton, J. D. M. W. C., & Toutanova, L. K. (2019, June). Bert: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of naacL-HLT (Vol. 1, p. 2). | |
dc.source.bibliographicCitation | Rothman, D. (2022). Transformers for Natural Language Processing: Build, train, and fine-tune deep neural network architectures for NLP with Python, Hugging Face, and OpenAI's GPT-3, ChatGPT, and GPT-4. Packt Publishing Ltd. | |
dc.source.bibliographicCitation | Fu, M., Tantithamthavorn, C., Nguyen, V., & Le, T. (2023, 15 octubre). ChatGPT for Vulnerability Detection, Classification, and Repair: How Far Are We? arXiv.org. https://arxiv.org/abs/2310.09810?utm_source=chatgpt.com | |
dc.source.bibliographicCitation | Staff View: GPT-3 en la seguridad informática». https://repositorio.uniandes.edu.co/entities/publication/6efc5be0-5086-4e94 b255-5eee025151c9 | |
dc.source.bibliographicCitation | M. Alawida, S. Mejri, A. Mehmood, B. Chikhaoui, y O. I. Abiodun, «A Comprehensive Study of ChatGPT: Advancements, Limitations, and Ethical Considerations in Natural Language Processing and Cybersecurity», Information, vol. 14, n.o 8, p. 462, ago. 2023, doi: 10.3390/info14080462. | |
dc.source.bibliographicCitation | Massachusetts Institute of Technology, «From ChatGPT to HackGPT: Meeting the Cybersecurity Threat of Generative AI | MIT Sloan Management Review», MIT Sloan Management Review, 18 de abril de 2023. https://sloanreview.mit.edu/article/from-chatgpt-to-hackgpt-meeting-the cybersecurity-threat-of-generative-ai/ | |
dc.source.bibliographicCitation | When LLMs Meet Cybersecurity: A Systematic Literature Review. (s. f.). https://arxiv.org/html/2405.03644v1 | |
dc.source.bibliographicCitation | H. Felipe. C. Talciani, «Configuración jurídica del derecho a la privacidad II : : concepto y delimitación.», Revista Chilena de Derecho, vol. 27, n.o 2, pp. 331-355, ene. 2000, [En línea]. Disponible en: https://dialnet.unirioja.es/descarga/articulo/2650218.pdf | |
dc.source.bibliographicCitation | L. Vladimir. M. Juan Manuel. G. Sofia, «El desafío de preservar la privacidad de los usuarios en línea », Ensayo de la Pontificia Universidad Javeriana Cali. Disponible en: https://www.researchgate.net/profile/Sofia Guerrero 14/publication/375863448_El_desafio_de_preservar_la_privacidad_de_los_ usuarios_en_linea/links/655f9fd9b86a1d521b02f801/El-desafio-de preservar-la-privacidad-de-los-usuarios-en-linea.pdf | |
dc.source.bibliographicCitation | B. Toulas, «OpenAI rolls out imperfect fix for ChatGPT data leak flaw», BleepingComputer, 21 de diciembre de 2023. [En línea]. Disponible en: https://www.bleepingcomputer.com/news/security/openai-rolls-out imperfect-fix-for-chatgpt-data-leak-flaw/ | |
dc.source.bibliographicCitation | G. M. M. Elena, L. J. J. De, y Uam. D. De Ingeniería Informática, «Desarrollo basado en modelos del reglamento GDPR», Universidad Autónoma de Madrid, 1 de julio de 2020. https://repositorio.uam.es/handle/10486/692895 | |
dc.source.bibliographicCitation | N, Salaberry. «Gestión de la privacidad de datos personales: el modelo de privacidad diferencial». Revista de investigación en modelos matematicos aplicados a la gestion y la economia - año 7 volumen ii (2020-ii). 2021. Disponible en: https://www.economicas.uba.ar/investigacion/wp content/uploads/Salaberry-Natalia-1.pdf | |
dc.source.bibliographicCitation | P. M. Wightman, Zurbarán, M, Santander, A. «High Variability Geographical Obfuscation for Location Privacy». Research Gate. Octubre 2013. Disponible en: https://www.researchgate.net/publication/248702470_High_Variability_Geo graphical_Obfuscation_for_Location_Privacy | |
dc.source.bibliographicCitation | P. M. Wightman, A, Salazar, J. Saavedra, M, Zurbarán, O. Gutierrez, O. «User-Centered Differential Privacy Mechanisms for Electronic Medical Records», 21 de diciembre de 2018, Disponible en: https://research hub.urosario.edu.co/vivo11/individual?uri=http%3A%2F%2Fresearch hub.urosario.edu.co%2Findividual%2F5138100e-2d94-4d99-b354 c09c48944660 | |
dc.source.bibliographicCitation | P. M. Wightman, M. A. Jimeno, D. Jabba, y M. Labrador, «Matlock: A location obfuscation technique for accuracy-restricted applications», Paris, Francia, vol. 34, pp. 1829-1834, abr. 2012, doi: 10.1109/wcnc.2012.6214082. | |
dc.source.bibliographicCitation | A. Namer, et al., «Automatically Detecting Expensive Prompts and Configuring Firewall Rules t ewall Rules to Mitigate Denial of Ser o Mitigate Denial of Service Attacks on Lar ttacks on Large Language Models», Technical Disclosure Commons-Defensive Publications Series, ene. 2024. | |
dc.source.bibliographicCitation | H. Li et al., «Multi-step Jailbreaking Privacy Attacks on ChatGPT», arXiv.org, 11 de abril de 2023. https://arxiv.org/abs/2304.05197 | |
dc.source.bibliographicCitation | M. Gupta, C. Akiri, K. Aryal, E. Parker, y L. Praharaj, «From ChatGPT to ThreatGPT: Impact of Generative AI in Cybersecurity and Privacy», arXiv.org, 3 de julio de 2023. https://arxiv.org/abs/2307.00691 | |
dc.source.bibliographicCitation | A, Panda et al., «Teach LLMs to Phish: Stealing Private Information from Language Models». https://arxiv.org/html/2403.00871v1 | |
dc.source.bibliographicCitation | H. Li et al., «Privacy in Large Language Models: Attacks, Defenses and Future Directions», arXiv.org, 16 de octubre de 2023. https://arxiv.org/abs/2310.10383 | |
dc.source.bibliographicCitation | Redmon, J., Divvala, S., Girshick, R., & Farhadi, A. (2016). You Only Look Once: Unified, Real-Time Object Detection. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016, pp. 779-788 | |
dc.source.bibliographicCitation | Radford, A., Narasimhan, K., Salimans, T., & Sutskever, I. (2018). Improving language understanding by generative pre-training. OpenAI. https://cdn.openai.com/research-covers/language unsupervised/language_understanding_paper.pdf | |
dc.source.bibliographicCitation | D. Handa, Z. Zhang, A. Saeidi, S. Kumbhar, y C. Baral, «Jailbreaking de Modelos de Lenguaje Grandes Patentados utilizando Cifrado de Sustitución de Palabras», Synthical, 16 de marzo de 2025. https://synthical.com/article/9d918ed0-11c1-4399-a4db-bb34c108250a/es | |
dc.source.bibliographicCitation | E. M. Bender, T. Gebru, A. McMillan-Major, y S. Shmitchell, «On the Dangers of Stochastic Parrots», ACM DIGITAL LIBRARY, pp. 610-623, mar. 2021, doi: 10.1145/3442188.3445922. | |
dc.source.bibliographicCitation | G. Jiménez, «Entrenamiento de modelos de IA generativa y el riesgo del robo de datos», MINCYT, 6 de marzo de 2025. https://mincyt.gob.ve/entrenamiento-modelos-generativa-riesgo-robo-datos/ | |
dc.source.bibliographicCitation | S. Carrizosa, S. Carrizosa, y S. Carrizosa, «Su compañero virtual le liberará del papeleo», El País, 11 de febrero de 2025. [En línea]. Disponible en: https://elpais.com/economia/negocios/2025-02-11/su-companero-virtual-le liberara-del-papeleo.html?utm_source=chatgpt.com | |
dc.source.bibliographicCitation | M. Á. G. Vega, M. Á. G. Vega, y M. Á. G. Vega, «Escudos de IA contra los ‘hackers’», El País, 19 de octubre de 2024. [En línea]. Disponible en: https://elpais.com/extra/eventos/2024-10-19/escudos-de-ia-contra-los hackers.html?utm_source=chatgpt.com | |
dc.source.bibliographicCitation | J. Redmon y A. Farhadi, «YOLOV3: an incremental improvement», arXiv.org, 8 de abril de 2018. https://arxiv.org/abs/1804.02767 | |
dc.source.bibliographicCitation | A. Bochkovskiy, C.-Y. Wang, y H.-Y. M. Liao, «YOLOv4: Optimal Speed and Accuracy of Object Detection», arXiv.org, 23 de abril de 2020. https://arxiv.org/abs/2004.10934 | |
dc.source.bibliographicCitation | Justas, «YOLOv8: Detección de objetos de última generación en reconocimiento de imágenes (computer vision)», Visionplatform, 10 de mayo de 2024. https://visionplatform.ai/es/yolov8-deteccion-de-objetos-de-ultima generacion-en-reconocimiento-de-imagenes-computer-vision/ | |
dc.source.instname | instname:Universidad del Rosario | |
dc.source.reponame | reponame:Repositorio Institucional EdocUR | spa |
dc.subject | LLM | |
dc.subject | Inteligencia artificial | |
dc.subject | Ciberseguridad | |
dc.subject | ChatGPT | |
dc.subject | Privacidad | |
dc.subject | Datos sensibles | |
dc.subject | Procesamiento de lenguaje natural | |
dc.subject | Visión por computadora | |
dc.subject.keyword | LLM | |
dc.subject.keyword | Artificial intelligence | |
dc.subject.keyword | Cybersecurity | |
dc.subject.keyword | Privacy | |
dc.subject.keyword | Sensible data | |
dc.subject.keyword | Vision computer | |
dc.subject.keyword | Natural languge processing | |
dc.subject.keyword | ChatGPT | |
dc.title | Arquitectura de protección de privacidad de datos para modelos de lenguaje de gran tamaño (LLM) usando chatgpt | |
dc.title.TranslatedTitle | Data privacy protection architecture for large language models (llm) using chatgpt | |
dc.title.alternative | Arquitectura de protección de privacidad de datos para modelos de lenguaje de gran tamaño (LLM) usando Chat GPT | |
dc.type | masterThesis | |
dc.type.hasVersion | info:eu-repo/semantics/acceptedVersion | |
dc.type.spa | Tesis de maestría | |
local.department.report | Escuela de Ingeniería, Ciencia y Tecnología | |
local.regiones | Bogotá |
Archivos
Bloque original
1 - 1 de 1
Cargando...
- Nombre:
- Arquitectura_de_proteccion_de_privacidad_de_datos_para_modelos.pdf
- Tamaño:
- 1.84 MB
- Formato:
- Adobe Portable Document Format
- Descripción: