Ítem
Acceso Abierto

Riesgos jurídicamente relevantes e inteligencia artificial: hacia una regulación más humana en un mundo cada vez más artificial

dc.contributor.advisorAbushihad Collazos, Majer Nayi
dc.creatorRomero Morales, Juan Jose
dc.creator.degreeAbogadospa
dc.creator.degreeAbogado
dc.creator.degreeLevelPregrado
dc.creator.degreetypePart time
dc.date.accessioned2023-09-04T12:14:05Z
dc.date.available2023-09-04T12:14:05Z
dc.date.created2023-07-11
dc.descriptionEn esta monografía, a través de la revisión de casos, se analizan los riesgos jurídicos asociados al uso y desarrollo de Inteligencias Artificiales. A partir de este análisis, se proponen una serie de principios rectores para el desarrollo de modelos normativos destinados a la administración de los riesgos identificados. Los resultados de la investigación muestran la existencia de importantes riesgos jurídicos en áreas como la administración de justicia, la seguridad nacional y la seguridad social, y la necesidad de un marco normativo global para abordarlos. En conclusión, la necesidad de un sistema normativo basado en los principios de: desarrollo pro persona, especialidad de materia, precaución, actualización y transparencia material, será necesario para administrar y mitigar los riesgos asociados con las IIAA.
dc.description.abstractIn this monograph, through the review of cases, the legal risks associated with the use and development of Artificial Intelligences are analyzed. From this analysis, a series of guiding principles are proposed for the development of regulatory models to manage the identified risks. The research results show the existence of significant legal risks in areas such as the administration of justice, national security and social security, and the need for a comprehensive regulatory framework to address them. In conclusion, the need for a regulatory system based on the principles of: pro persona development, subject matter specificity, precaution, updating and material transparency, will be necessary to manage and mitigate the risks associated with IIAAs.
dc.format.extent59
dc.format.mimetypeapplication/pdf
dc.identifier.doihttps://doi.org/10.48713/10336_40892
dc.identifier.urihttps://repository.urosario.edu.co/handle/10336/40892
dc.language.isospa
dc.publisherUniversidad del Rosario
dc.publisher.departmentFacultad de Jurisprudencia
dc.publisher.programJurisprudencia
dc.rightsAttribution-NoDerivatives 4.0 International*
dc.rights.accesRightsinfo:eu-repo/semantics/openAccess
dc.rights.accesoAbierto (Texto Completo)
dc.rights.licenciaEL AUTOR, manifiesta que la obra objeto de la presente autorización es original y la realizó sin violar o usurpar derechos de autor de terceros, por lo tanto la obra es de exclusiva autoría y tiene la titularidad sobre la misma. PARGRAFO: En caso de presentarse cualquier reclamación o acción por parte de un tercero en cuanto a los derechos de autor sobre la obra en cuestión, EL AUTOR, asumirá toda la responsabilidad, y saldrá en defensa de los derechos aquí autorizados; para todos los efectos la universidad actúa como un tercero de buena fe. EL AUTOR, autoriza a LA UNIVERSIDAD DEL ROSARIO, para que en los términos establecidos en la Ley 23 de 1982, Ley 44 de 1993, Decisión andina 351 de 1993, Decreto 460 de 1995 y demás normas generales sobre la materia, utilice y use la obra objeto de la presente autorización. -------------------------------------- POLITICA DE TRATAMIENTO DE DATOS PERSONALES. Declaro que autorizo previa y de forma informada el tratamiento de mis datos personales por parte de LA UNIVERSIDAD DEL ROSARIO para fines académicos y en aplicación de convenios con terceros o servicios conexos con actividades propias de la academia, con estricto cumplimiento de los principios de ley. Para el correcto ejercicio de mi derecho de habeas data cuento con la cuenta de correo habeasdata@urosario.edu.co, donde previa identificación podré solicitar la consulta, corrección y supresión de mis datos.spa
dc.rights.urihttp://creativecommons.org/licenses/by-nd/4.0/*
dc.source.bibliographicCitationArévalo, J., Bayona, R., & Dewar, R. (2015). “El problema de la brecha tecnológica: Un asunto de cultura.” Revista Sinapsis,
dc.source.bibliographicCitationBarocas, S., & Selbst, A. D. (2016). “Big Data's Disparate Impact. California Law Review, 104(3),” Recuperado de: https://doi.org/10.2139/ssrn.2477899
dc.source.bibliographicCitationBeck, U. (1998). “Teoría de la sociedad del riesgo: Las consecuencias perversas de la modernidad.” Paidós.
dc.source.bibliographicCitationBeck, U. (2006). “La sociedad del riesgo.” Editorial Iberica
dc.source.bibliographicCitationBlocher, J. (2021). “When guns threaten the public sphere: a new account of public safety regulation under heller.” The Yale Law Journal, N. 131(1), Pg.78-155.
dc.source.bibliographicCitationCandelon, F., Garrigos-Simon, F. J., & Evrard-Todeschi, N. (2021). “AI regulation is coming.” Harvard Business Review, Ed.99(2), Pg.126-135.
dc.source.bibliographicCitationChadha, A., Kumar, A., Jain, A., & Goel, P. (2020). “Deepfake: An Overview. In Proceedings of Second International Conference on Computing Communications, and Cyber-Security” (pp. 463-468). Springer, Singapore.
dc.source.bibliographicCitationChallen, R., Denny, J., Pitt, M., Gompels, L., Edwards, T., & Tsaneva-Atanasova, K. (2019). “Artificial intelligence, bias and clinical safety.” BMJ Quality & Safety, Ed. 28(3), Pg. 231-237.
dc.source.bibliographicCitationCohen, G., & Méndez, R. (2012). “La sociedad del riesgo: amenaza y promesa” (1ra ed.). Paidós. p. 27.
dc.source.bibliographicCitationCook, P. J. (1995). “Regulating Gun Markets.” Oxford University Press.
dc.source.bibliographicCitationCrovi, D. M. (2010). “Jóvenes, migraciones digitales y brecha tecnológica. En C. Sigal, E. Livchits, & M. Mayer (Eds.), Entre la brecha digital y la participación ciudadana: nuevas formas de exclusión e inclusión en la sociedad de la información” (pp. 37-68). Editorial Paidós.
dc.source.bibliographicCitationDubber, M., Pasquale, F., & Mittelstadt, B. (Eds.). (2020). “The Oxford Handbook of Ethics of AI.” Ed.Oxford University Press.
dc.source.bibliographicCitationFoucault, M. (1966). “Las palabras y las cosas.” México D.F.: Siglo XXI Editores.
dc.source.bibliographicCitationGiddens, A. (2000). “La Tercera vía: La renovación de la socialdemocracia [The Third Way: The Renewal of Social Democracy].” Madrid, España: Editorial Taurus
dc.source.bibliographicCitationJakobs, G. (1996). “La imputación al tipo objetivo.” Editorial Civitas.
dc.source.bibliographicCitationLombana Bermudez, A. (2018). “La evolución de las brechas digitales y el auge de la Inteligencia Artificial (IA).” Revista Mexicana De Bachillerato a Distancia, Recuperado de: https://doi.org/10.22201/cuaed.20074751e.2018.20.65884
dc.source.bibliographicCitationMcKinsey Global Institute (MGI). (2017). “Artificial intelligence: The next digital frontier? [Discussion paper].” McKinsey & Company.  Recuperado de: https://www.mckinsey.com/~/media/mckinsey/industries/advanced%20electronics/our%20insights/how%20artificial%20intelligence%20can%20deliver%20real%20value%20to%20companies/mgi-artificial-intelligence-discussion-paper.ashx
dc.source.bibliographicCitationNelson GS. “Bias in Artificial Intelligence.” N C Med J. 2019 Jul-Aug;80(4):220-222. doi: 10.18043/ncm.80.4.220. PMID: 31278182.
dc.source.bibliographicCitationNietzsche, F. (2000). El Nacimiento de la Tragedia. Ed. Penguin Classics.
dc.source.bibliographicCitationNyéléni. (2015). “Declaración de Nyéléni sobre la Soberanía Alimentaria.” Recuperado de https://nyeleni.org/IMG/pdf/DeclNyeleni-es.pdf
dc.source.bibliographicCitationZiad Obermeyer et al. ,Dissecting racial bias in an algorithm used to manage the health of populations. Science366, Recuperado de: https://www.science.org/doi/10.1126/sciadv.add2315
dc.source.bibliographicCitationRousseau, J.J. (1985).”El Contrato Social”, Editorial Madrid: Alba.
dc.source.bibliographicCitationRomero, A. (2020). “La brecha digital generacional.” Editorial: Universidad De Vigo.
dc.source.bibliographicCitationSiegel, R. B. & Blocher, J. (2020). “Why regulate guns.” Ed. Oxford University Press.
dc.source.bibliographicCitationSilber, J. & Manyika, J. (2018).”Notes from the AI frontier: Tackling bias in AI (and in humans).” McKinsey & Company. Recuperado de: https://www.mckinsey.com/~/media/mckinsey/featured%20insights/artificial%20intelligence/tackling%20bias%20in%20artificial%20intelligence%20and%20in%20humans/mgi-tackling-bias-in-ai-june-2019.ashx
dc.source.bibliographicCitationStone, P., et al. (2016). “Artificial intelligence and life in 2030. One hundred year study on artificial intelligence: Report of the 2015-2016 study panel,” Stanford University, Ed. Stanford. University. Recuperado de https://ai100.stanford.edu/2016-report
dc.source.bibliographicCitationVan Huijsteee, M., Costello, C., Burgess, M., & Llobet Rodriguez, P. (2021). “Tackling deepfakes in European policy.” European Parliament Policy Department for Citizens' Rights and Constitutional Affairs. Recuperado de https://www.europarl.europa.eu/RegData/etudes/STUD/2021/690039/EPRS_STU(2021)690039_EN.pdf
dc.source.bibliographicCitationWester, M. (2020). “The Emergence of Deepfake Technology: A Review.” Technology Innovation Management Review. Recuperado de: https://timreview.ca/sites/default/files/article_PDF/TIMReview_November2019%20-%20D%20-%20Final.pdf.
dc.source.bibliographicCitationBrief of Defendant-Appellant. Loomis v. Wisconsin, 881 F.3d 437 (7th Cir. 2018).
dc.source.bibliographicCitationCorte Constitucional. (1995). Sentencia C-296 de 1995. Recuperado de https://www.corteconstitucional.gov.co/relatoria/1995/c-296-95.htm
dc.source.bibliographicCitationHarvard Law Review. (2017). Recent Cases, 130(5), 1534-1536. Recuperado de https://harvardlawreview.org/archives/vol-130-no-5/
dc.source.bibliographicCitationAbc News. (2006). “Does the soda you drink reveal how you vote?” Recuperado de https://abcnews.go.com/GMA/story?id=2623263&page=1
dc.source.bibliographicCitationBanco Mundial (2021). "Usuarios de internet (% de la población)". Recuperado de https://data.worldbank.org/indicator/IT.NET.USER.ZS
dc.source.bibliographicCitationConsejo Nacional de Ciencia y Tecnología de la Casa Blanca. (2016). “Preparing for the future of artificial intelligence.” Recuperado de https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/preparing_for_the_future_of_ai.pdf
dc.source.bibliographicCitationChatGPT. (2023). “Hablo español”. OpenIA. Recuperado de: https://chat.openai.com/c/115171da-d458-49c5-b584-fec187a98852
dc.source.bibliographicCitationCui, X., & Chen, Y. (2022). “What China’s Algorithm Registry Reveals About AI Governance.” Carnegie Endowment for International Peace. Recuperado de: https://carnegieendowment.org/2022/12/09/what-china-s-algorithm-registry-reveals-about-ai-governance-pub-88606
dc.source.bibliographicCitationDestatis. (2022).”Bildungsabschlüsse in Deutschland [Educational qualifications in Germany].” Destatis Recuperado  De https://www.destatis.de/DE/Themen/Gesellschaft-Umwelt/Bildung-Forschung-Kultur/Bildungsstand/Tabellen/bildungsabschluss.html
dc.source.bibliographicCitationEuropean Commission. (2021). “Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts.” Official Journal of the European Union, Recuperado de: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206
dc.source.bibliographicCitationEuropean Commission. (2021). “Executive summary of the impact assessment report.” Recuperado de https://ec.europa.eu/info/sites/default/files/impact-assessment-artificial-intelligence-regulation_en.pdf
dc.source.bibliographicCitationEuropean Commission. (2021). “Regulatory framework for artificial intelligence.” Recuperado de: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
dc.source.bibliographicCitationHarwell, D. (2019). “Top AI researchers race to detect ‘deepfake’ videos: ‘We are outgunned’”. The Washington Post Recuperado de: . https://www.washingtonpost.com/technology/2019/06/12/top-ai-researchers-race-detect-deepfake-videos-we-are-outgunned/
dc.source.bibliographicCitationMcAuley, E. (2020). “What happened with Cambridge Analytica?”, BBC News. Recuperado de https://www.bbc.com/news/technology-43465968
dc.source.bibliographicCitationNew York State Department of Financial Services. (2021). Report on Apple Card Investigation. Recuperado de: https://www.dfs.ny.gov/system/files/documents/2021/03/rpt_202103_apple_card_investigation.pdf
dc.source.bibliographicCitationOECD. (2021). “AI Policy Observatory - Policy Initiatives.”, OCDE. Recuperado de: https://oecd.ai/en/dashboards/policy-initiatives/http:%2F%2Faipo.oecd.org%2F2021-data-policyInitiatives-24274
dc.source.bibliographicCitationO'Sullivan, L. (2021). “How the law got it wrong with Apple Card.” TechCrunch. Recuperado de: https://techcrunch.com/2021/08/14/how-the-law-got-it-wrong-with-apple-card/
dc.source.bibliographicCitationPradhan, P. (2020). “AI Deepfake. The Goose is cooked?” University of Illinois Law Review. Recuperado de: https://illinoislawreview.org/blog/ai-deepfakes/
dc.source.bibliographicCitationProPublica. (2016). “How We Analyzed the COMPAS Recidivism Algorithm”. ProPublica. Recuperado de: https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm
dc.source.bibliographicCitationProPublica. (2016). “Machine Bias.” ProPublica. Recuperado de https://www.propublica.org/documents/item/3063040-Machine-Bias-Report.pdf].
dc.source.bibliographicCitationStatista. (2021). “Education gender gap worldwide by level.” Recuperado de: https://www.statista.com/statistics/1212278/education-gender-gap-worldwide-by-level/
dc.source.bibliographicCitationThe New York Times. (2018). “Cambridge Analytica and Facebook: The scandal and the fallout so far.” Recuperado de: https://www.nytimes.com/2018/04/04/us/politics/cambridge-analytica-scandal-fallout.html
dc.source.bibliographicCitationUnited Nations. (2021). “AI Ethics body launched by UN chief to tackle impact of rapid technological change.” Recuperado de: https://news.un.org/en/story/2021/11/1106612
dc.source.bibliographicCitationVigdor, N. (2019). “Apple Card investigated after gender discrimination complaints.” The New York Times. Recuperado de: https://www.nytimes.com/2019/11/10/business/Apple-credit-card-investigation.html
dc.source.instnameinstname:Universidad del Rosario
dc.source.reponamereponame:Repositorio Institucional EdocUR
dc.subjectDerecho penal
dc.subjectInteligencia Artificial
dc.subjectRiesgos
dc.subjectCriminilogía
dc.subject.keywordCriminal Law
dc.subject.keywordArtificial Intelligence
dc.subject.keywordRisks
dc.titleRiesgos jurídicamente relevantes e inteligencia artificial: hacia una regulación más humana en un mundo cada vez más artificial
dc.title.TranslatedTitleLegally relevant risks and artificial intelligence: towards a more human regulation in an increasingly artificial world.
dc.typebachelorThesis
dc.type.documentMonografía
dc.type.hasVersioninfo:eu-repo/semantics/acceptedVersion
dc.type.spaTrabajo de grado
local.department.reportFacultad Jurisprudencia
Archivos
Bloque original
Mostrando1 - 1 de 1
Cargando...
Miniatura
Nombre:
Riesgos-juridicamente-relevantes-e-inteligencia .pdf
Tamaño:
562.74 KB
Formato:
Adobe Portable Document Format
Descripción: