MARCO METODOLÓGICO Y ANÁLISIS COMPARADO DE RIESGOS
Metodología de análisis
La identificación de riesgos y desafíos asociados al desarrollo de la inteligencia artificial se presenta mediante un análisis comparado entre investigaciones independientes, documentos de la industria tecnológica y marcos regulatorios internacionales.
El presente análisis se desarrolla bajo protocolo de citación APA, utilizando citas parentéticas dentro del texto y bibliografía final, con el objetivo de garantizar trazabilidad de las fuentes, rigor académico y transparencia en la argumentación.
Este enfoque permite distinguir tres niveles de análisis: primero, los problemas identificados por la investigación independiente y el análisis crítico de QNM; segundo, los riesgos reconocidos por la propia industria tecnológica y centros de investigación; y tercero, las medidas regulatorias propuestas por gobiernos y organismos internacionales.
A partir de este contraste, el libro presenta una propuesta propia: la Base Justa como principio estructural para el desarrollo ético y sostenible de la tecnología.
I. Riesgos estructurales identificados por la investigación independiente y QNM
El análisis independiente de la expansión de la inteligencia artificial revela doce riesgos estructurales que operan simultáneamente y que, en su conjunto, configuran un desafío civilizatorio que trasciende lo puramente tecnológico.
El consumo masivo de agua constituye uno de los impactos más documentados y menos visibles. Los centros de datos utilizados para entrenar y operar modelos de inteligencia artificial requieren grandes cantidades de agua para refrigeración, lo que puede afectar regiones con estrés hídrico y generar conflictos con el derecho humano al agua. Este riesgo es analizado en profundidad en el Capítulo I del presente libro.
El alto consumo de energía representa una presión creciente sobre los sistemas eléctricos globales. El entrenamiento y operación de modelos de IA demanda cantidades de electricidad que, dependiendo de la matriz energética, incrementan las emisiones de carbono de manera significativa.
La huella ambiental de la infraestructura digital va más allá del agua y la energía. La expansión de centros de datos implica uso intensivo de territorio, minerales estratégicos y cadenas globales de suministro, generando impactos ambientales que permanecen invisibles para la mayoría de los usuarios.
Los sesgos algorítmicos representan un riesgo social profundo. Los sistemas de IA pueden reproducir o amplificar los prejuicios presentes en los datos con los que fueron entrenados, generando decisiones discriminatorias en ámbitos como empleo, salud, crédito o seguridad pública.
Las vulnerabilidades de ciberseguridad se amplifican con la IA. La tecnología puede ser utilizada para crear ataques más sofisticados: suplantación de identidad, clonación de voz, estafas digitales y manipulación de sistemas informáticos.
Los riesgos para la privacidad emergen del modelo mismo de entrenamiento. Los modelos de IA requieren enormes volúmenes de datos, muchos de los cuales se recopilan sin consentimiento explícito, poniendo en riesgo la privacidad y los datos personales de millones de personas.
La desinformación y manipulación social adquiere una dimensión sin precedentes. Las tecnologías generativas permiten crear textos, imágenes, audios y videos falsos extremadamente convincentes, lo que puede afectar procesos democráticos y erosionar la confianza pública. Este riesgo es analizado en el Capítulo IV del presente libro.
La falta de transparencia caracteriza a muchos sistemas de IA que funcionan como cajas negras, donde ni los propios desarrolladores pueden explicar completamente cómo se toman ciertas decisiones.
La falta de responsabilidad legal persiste como vacío estructural. Cuando un sistema de IA causa daño, aún no está claro quién debe responder: el desarrollador, la empresa que lo utiliza o el operador del sistema.
El impacto en el empleo es reconocido por todos los actores. La automatización impulsada por IA puede reemplazar ciertas funciones laborales, obligando a millones de trabajadores a reconvertirse o adaptarse a nuevas formas de trabajo.
Los riesgos sistémicos o existenciales generan un debate legítimo. Algunos expertos advierten que el desarrollo de sistemas de inteligencia artificial más avanzados podría superar la capacidad humana de controlarlos adecuadamente.
La necesidad de gobernanza global es la conclusión convergente. Debido al impacto social, ambiental y económico de la IA, gobiernos y organizaciones internacionales están desarrollando marcos regulatorios para garantizar que estas tecnologías sean seguras, transparentes y responsables. El Capítulo III de este libro analiza los principales marcos normativos vigentes.
II. Riesgos reconocidos por la propia industria tecnológica
Diversos informes de la industria tecnológica y la investigación científica han identificado riesgos significativos asociados al desarrollo y uso de la inteligencia artificial. Empresas tecnológicas, organismos internacionales y centros de investigación coinciden en que estos riesgos deben ser gestionados mediante marcos de gobernanza, regulación ética y supervisión humana (IBM, 2024).
Es relevante señalar que la industria reconoce sustancialmente los mismos riesgos que la investigación independiente: sesgo algorítmico, amenazas de ciberseguridad, problemas de privacidad, daños ambientales, riesgos existenciales, infracción de propiedad intelectual, transformación del empleo, falta de rendición de cuentas, falta de explicabilidad y desinformación (IBM, 2024).
En materia ambiental, los compromisos internacionales de la industria buscan reducir el impacto mediante eficiencia energética, uso de energías renovables y control del consumo hídrico en centros de datos (Climate Neutral Data Center Pact, 2025). Sin embargo, como documenta este libro, estos compromisos son mayoritariamente voluntarios y no incluyen obligaciones de transparencia hacia el usuario final.
En el ámbito académico se han identificado además problemas relacionados con el uso de IA en la redacción de artículos científicos, el plagio potencial y la pérdida de responsabilidad intelectual en la producción del conocimiento (Machin-Mastromatteo, 2024).
Ante estos riesgos, organismos internacionales han comenzado a desarrollar marcos regulatorios para garantizar que la inteligencia artificial sea segura, transparente y respetuosa de los derechos fundamentales (European Commission, 2025), en conexión con los compromisos globales sobre sostenibilidad y cambio climático (Naciones Unidas, 2015).
III. La respuesta de QNM: la Base Justa como principio estructural
Los riesgos asociados al desarrollo de la inteligencia artificial han sido reconocidos por empresas, centros de investigación y organismos internacionales. Sin embargo, la mayoría de las respuestas propuestas se concentran en mecanismos técnicos de mitigación o en marcos corporativos de gobernanza.
La propuesta de QNM — Que Nos Mantengan introduce una perspectiva diferente: abordar los riesgos tecnológicos desde un principio estructural de justicia social, ambiental y patrimonial denominado Base Justa. La tecnología solo puede considerarse progreso cuando se desarrolla sobre un fundamento que garantice la dignidad humana, el equilibrio ecológico y la soberanía de los pueblos sobre sus recursos.
En este marco, QNM plantea cinco principios orientadores:
El Principio de Dignidad Tecnológica establece que toda innovación debe respetar el umbral mínimo de dignidad humana. Ningún sistema de inteligencia artificial puede justificar decisiones que vulneren derechos fundamentales o profundicen desigualdades.
El Principio de Soberanía Patrimonial y de Datos establece que los datos, el agua, la energía y los recursos naturales utilizados para sostener infraestructuras digitales deben ser considerados parte del patrimonio colectivo de los pueblos. Su uso debe estar sujeto a control democrático y transparencia.
El Principio de Límite Ecológico Tecnológico establece que el desarrollo de inteligencia artificial y centros de datos debe operar dentro de límites ambientales verificables, considerando el consumo energético, el uso de agua y el impacto climático.
El Principio de Responsabilidad Humana Indelegable establece que las decisiones críticas no pueden ser delegadas completamente a sistemas algorítmicos. Siempre debe existir supervisión humana responsable y trazabilidad en los procesos de decisión automatizados.
El Principio de Acceso Justo al Conocimiento y a la Tecnología establece que la inteligencia artificial debe ser utilizada para ampliar las capacidades humanas y el acceso al conocimiento, no para concentrar poder económico o informacional en pocas entidades.
Desde esta perspectiva, la propuesta de QNM no se limita a gestionar riesgos, sino que busca reorientar el marco ético y jurídico en el que estas tecnologías se desarrollan. El objetivo es construir un Nuevo Contrato Social Tecnológico donde la innovación esté al servicio de la vida, del equilibrio ecológico y de la dignidad humana.
Cuando la base es justa, la vida florece.
Referencias
Climate Neutral Data Center Pact. (2025). Initiative for Climate Neutral Data Centers in Europe.
European Commission. (2025). European AI Office and the governance of trustworthy artificial intelligence.
IBM. (2024). 10 AI dangers and risks and how to manage them. https://www.ibm.com/mx-es/think/insights/10-ai-dangers-and-risks-and-how-to-manage-them
Machin-Mastromatteo, J. D. (2024). La influencia disruptiva de la inteligencia artificial generativa en la academia y la investigación. Biblioteca Universitaria.
Naciones Unidas. (2015). Acuerdo de París
© 2026 QNM – QUE NOS MANTENGAN®.
Marca de Servicio Registrada ante INDECOPI Resolución N° 003216-2026/DSD
Certificado N° 00174793 | Clase 35 Todos los derechos reservados. El logotipo y sus colores se encuentran protegidos conforme a ley.
Yolanda Victoria Rojas Espinoza
Directora y Fundadora de QNM | Investigadora y Comunicadora Social
Perfil Académico: 0009-0002-9012-1393
Registro de Autoría: Safe Creative - Yolanda Victoria Rojas Espinoza