La tecnología facilita la violencia de género y los gobiernos no están a la altura del problema

Imagen referencial tomada del sitio web de ONU Mujeres.

La violencia de género crece al ritmo de la innovación digital. Expertas advierten que los estados y sus gobiernos continúan reaccionando tarde a los avances tecnológicos, mientras las plataformas digitales alimentan el problema y las víctimas enfrentan sistemas de justicia poco preparados o inútiles.


Por Ángela Lascano D.

La Violencia de Género Facilitada por la Tecnología (VGFT) se ha convertido en un objeto de estudio de creciente preocupación para los expertos. Este fenómeno es uno de los principales desafíos para los sistemas de justicia y las políticas públicas en la era digital.

Según un documento preparado por el Fondo de Población de las Naciones Unidas (UNFPA) y la organización Derechos Digitales, puede ser definida como cualquier acto de violencia cometido contra una persona por razones de género que es perpetrado, asistido, agravado o amplificado, total o parcialmente, mediante tecnologías de la información y la comunicación o medios digitales. 

Esta definición parte de una idea clave: la violencia no nace en la tecnología sino en desigualdades estructurales y normas de género preexistentes que encuentran nuevas formas de operación en entornos digitales.

La categoría también busca superar una mirada reducida de la llamada “violencia digital”. El concepto de VGFT permite entender que no se trata solo de agresiones que ocurren en redes sociales o en internet sino de un fenómeno más amplio que incluye tecnologías conectadas y no conectadas, como teléfonos, dispositivos de rastreo GPS, drones, cámaras o programas de vigilancia. 

Según Paloma Lara Castro, directora de políticas públicas de Derechos Digitales, este enfoque es importante porque permite reconocer el carácter sociotécnico del problema y el vínculo entre la violencia fuera de línea y la violencia mediada por tecnologías. “Las violencias analógicas se trasladan a internet y lo que ocurre en internet vuelve a impactar en la vida cotidiana”, explica. 

Imagen referencial tomada del sitio web de ONU Mujeres.

Nuevos cuerpos en fenómenos estructurales

Las conductas que abarca la Violencia de Género Facilitada por la Tecnología son diversas y evolucionan al ritmo de las herramientas digitales. Entre ellas se encuentran la difusión no consentida de imágenes íntimas, la sextorsión, el acoso sexual en línea, el ciberacoso reiterado, el acecho digital, las amenazas directas, los ataques coordinados, el doxxing —la publicación de información personal para facilitar el hostigamiento—, la vigilancia mediante spyware, el rastreo a través de geolocalización, la suplantación de identidad y el acceso no autorizado a cuentas o dispositivos. También incluyen campañas de desinformación de género y la circulación de contenido manipulado, como los deepfakes, que son mecanismos utilizados para desacreditar o sexualizar a mujeres con presencia pública. 

De acuerdo con dos informes recientes sobre Violencia de Género Facilitada por la Tecnología —Principios orientadores para una reforma legislativa y de políticas públicas frente a la violencia de género facilitada por la tecnología: hacia un sistema de responsabilidad y Combating Technology-facilitated Gender-based Violence (TFGBV) through the Lens of International Human Rights Law— estas formas de violencia afectan de manera desproporcionada a mujeres, niñas y personas Lgbtiq+, especialmente cuando influyen otras condiciones de vulnerabilidad como la racialización, la clase social, la discapacidad o la situación migratoria. Las agresiones digitales generan un clima de inseguridad con efectos psicológicos, sociales y económicos profundos que con frecuencia derivan en autocensura o abandono de espacios digitales. 

Paloma Lara Castro sostiene que uno de los principales errores al analizar este fenómeno es tratarlo como un problema exclusivamente tecnológico. “Cuando empezamos a introducir tecnologías, muchas veces la discusión se pone sobre la tecnología como si fuera el problema en sí mismo, pero la tecnología no es el problema: el problema es el uso que se le da”, explica. En ese sentido, enfatiza que las tecnologías no son neutrales y que, a medida que avanzan, también lo hacen las formas en que pueden ser utilizadas para ejercer violencia de género. 

Lara Castro explica que la violencia digital y la violencia fuera de línea forman parte de un mismo circuito. “Hay que imaginarlo como un círculo. Así como las violencias analógicas se trasladan a internet, lo que pasa en internet también se traslada al mundo analógico”. Las consecuencias, agrega, pueden incluir miedo a circular en determinados espacios, pérdida de empleo o afectaciones a la salud mental. 

La comunicadora e investigadora de la Pontificia Universidad Católica del Ecuador Isabel Imbaquingo coincide en que este fenómeno debe analizarse más allá de la dimensión tecnológica. Desde una perspectiva comunicacional, señala que la violencia digital también funciona como una forma de silenciamiento y disciplinamiento dirigida a mujeres y disidencias que participan en el espacio público. 

Imbaquingo destaca que hablar de violencia de género facilitada por la tecnología, y no simplemente de violencia digital, permite comprender mejor el problema. El término subraya que la tecnología actúa como medio o amplificador de una violencia que tiene raíces estructurales en las relaciones de género. En ese sentido, el análisis no debe limitarse a las plataformas o dispositivos, sino considerar las desigualdades sociales que hacen posible que estas agresiones ocurran. Además, advierte que este tipo de violencia no puede analizarse únicamente desde su dimensión técnica. “No es solo la materialidad digital”, señala, porque las agresiones tienen implicaciones físicas, emocionales y sociales en la vida de las personas. Cuando se pierde de vista que detrás de cada perfil hay un cuerpo con afectos y sensibilidades, explica, la deshumanización facilita la violencia. 

Imbaquingo plantea que los entornos digitales han transformado la manera en que se experimenta el cuerpo en el espacio público. La idea de un “cuerpo digital” o “cuerpo virtual” implica que la exposición, la reputación y la seguridad de las personas también se juegan en estos espacios. Con la expansión de tecnologías como la inteligencia artificial, estos procesos se vuelven aún más complejos. Un ejemplo son los  deepfakes, que se definen como contenidos sintéticos o manipulados, como imágenes, audios o videos generados artificialmente mediante inteligencia artificial, y que en el contexto de la violencia de género representan un riesgo crítico porque pueden utilizarse para crear y difundir imágenes sexuales sin el consentimiento de la persona afectada.

Imagen referencial tomada del sitio web de ONU Mujeres.

Desafíos para la regulación y el acceso a la justicia

Uno de los principales retos identificados para el 2026 es la dificultad de los estados y sus gobiernos para responder a estas violencias con marcos legales eficaces. Lara Castro sostiene que el primer problema es la falta de voluntad política para avanzar hacia normativas robustas con enfoque de derechos humanos y perspectiva estructural de género.

A esto se suma la tendencia de las autoridades estatales a concentrar sus respuestas casi exclusivamente en el ámbito penal. Aunque muchos países han optado por criminalizar ciertas conductas, el informe Combating Technology-facilitated Gender-based Violence (TFGBV) through the Lens of International Human Rights Law  advierte que el sistema penal suele ser insuficiente y, en ocasiones, revictimizador. Según Lara Castro, centrarse únicamente en el castigo del agresor deja de lado dimensiones clave como la prevención, la reparación y el acompañamiento a las víctimas.

Por esa razón, el documento Principios orientadores para una reforma legislativa y de políticas públicas frente a la violencia de género facilitada por la tecnología: hacia un sistema de responsabilidad plantea la necesidad de ampliar las vías de respuesta frente a este tipo de violencia. Entre las alternativas aparecen los remedios civiles y administrativos. Las acciones civiles permiten solicitar indemnizaciones por daños y perjuicios, pedir órdenes de restricción o exigir la eliminación de contenidos dañinos. También pueden utilizarse marcos legales relacionados con la protección de datos personales o los derechos de autor para recuperar control sobre imágenes o información difundida sin consentimiento. 

La vía administrativa propone la creación de organismos regulatorios independientes o tribunales especializados que puedan ordenar la eliminación rápida de contenidos, imponer sanciones y exigir a las plataformas mecanismos eficaces de denuncia y respuesta. Estos mecanismos suelen ser más rápidos que la justicia penal tradicional y pueden ofrecer respuestas más inmediatas para las víctimas. 

Sin embargo, la existencia de leyes no garantiza por sí sola el acceso efectivo a la justicia: los documentos citados advierten que muchos operadores judiciales carecen de formación técnica para manejar evidencia digital y de capacitación en perspectiva de género para evitar interpretaciones basadas en prejuicios o estándares morales que terminan culpando a las víctimas. 

Lara Castro señala que otro punto central del debate es la responsabilidad de las plataformas digitales. Aunque estas inmensas corporaciones administran espacios donde ocurre gran parte de la interacción pública contemporánea, su funcionamiento responde a modelos de negocio privados basados en la captación de atención y la maximización de la interacción. Diversos estudios han mostrado que los contenidos polarizantes o conflictivos tienden a generar mayor circulación y participación, lo que crea incentivos económicos para su difusión.

En ese contexto, el debate no debería centrarse únicamente en sancionar a los usuarios que ejercen violencia, sino también en examinar cómo operan las propias plataformas. “¿Cómo podemos avanzar hacia responsabilizar a las plataformas? Mediante transparencia y rendición de cuentas. ¿Cómo están tomando estas decisiones? ¿Cómo operan sus moderadores de contenido? ¿Cómo están considerando las evaluaciones de impacto con los productos que sacan? Eso es esencial”, explica.

Ante este escenario, distintas propuestas apuntan a desarrollar mecanismos de “regulación inteligente”. Este enfoque busca exigir transparencia y rendición de cuentas a las plataformas digitales sin trasladarles un poder arbitrario de censura. Entre las medidas planteadas se incluyen la obligación de publicar información sobre sus procesos de moderación de contenidos, realizar evaluaciones de impacto sobre nuevos productos tecnológicos y garantizar que sus sistemas incorporen criterios de seguridad y privacidad desde su diseño.

Imagen referencial tomada del sitio web de ONU Mujeres.

Inteligencia artificial y nuevas formas de violencia

La expansión reciente de la inteligencia artificial (IA) ha abierto nuevas discusiones sobre la Violencia de Género Facilitada por la Tecnología. Entre los riesgos más señalados está la creación de contenido sintético o manipulado, especialmente imágenes o videos sexuales no consentidos, como los deepfakes, utilizados para desacreditar, humillar o intimidar.

Los documentos preparados por Derechos Digitales explican que la IA no solo reproduce formas existentes de violencia digital sino que puede amplificarlas. Entre los principales riesgos identificados se encuentran la producción masiva de contenido sexual manipulado, los sesgos algorítmicos que reproducen discriminación de género y el uso de herramientas de perfilamiento para dirigir campañas de hostigamiento o desinformación contra mujeres activistas, periodistas o figuras públicas.

Para Lara Castro, uno de los principales desafíos es que la discusión sobre inteligencia artificial suele centrarse únicamente en la tecnología, cuando el problema debería  abordarse desde los derechos que se vulneran. “Cuando hablamos de legislaciones, una de las cosas que pensamos mucho es cómo hacer para que las reformas puedan aplicarse independientemente del crecimiento tecnológico, que no estén asociadas a una tecnología específica que rápidamente quede fuera de aplicación”, explicó.

Según Lara Castro, este riesgo se vuelve evidente en el caso de los deepfakes. Si las leyes se redactan pensando únicamente en herramientas concretas, pueden volverse obsoletas a medida que la tecnología evoluciona. Por eso plantea que el punto de partida debería ser identificar qué derechos se vulneran con el uso de estas tecnologías. “Volvamos a la discusión sobre derechos: ¿cuál es el derecho que se está violentando con cierto uso de tecnología? Eso permite aplicar marcos ya existentes dentro de los sistemas de derechos humanos”, señaló.

Castro advierte que los estados a menudo argumentan que no pueden actuar frente a nuevas formas de violencia digital por la ausencia de legislación específica. Sin embargo, sostiene que ya existen marcos de derechos humanos aplicables a estas vulneraciones.

La rapidez con la que evoluciona la inteligencia artificial genera una brecha entre la innovación tecnológica y la regulación. Para enfrentar ese problema, proponen que las leyes utilicen definiciones amplias que permitan abarcar tecnologías emergentes. Un ejemplo citado es la Ley Olimpia, en México, cuya definición de violencia digital incluye imágenes o videos “reales o simulados”, lo que permite abordar contenidos generados con inteligencia artificial incluso si la norma fue redactada antes de la expansión de estas herramientas. 

Otro punto clave del debate es la responsabilidad de las empresas que desarrollan o facilitan el acceso a herramientas de IA. Las propuestas analizadas plantean que los intermediarios digitales y las plataformas que permiten la creación o difusión de contenido manipulado deberían asumir obligaciones claras de transparencia y rendición de cuentas. 

En este contexto, varias iniciativas plantean la necesidad de incorporar evaluaciones de impacto en derechos humanos y género antes del lanzamiento de nuevos sistemas de inteligencia artificial. Estas evaluaciones permitirían identificar riesgos específicos para mujeres y personas Lgbtiq+ y diseñar medidas de mitigación que acompañen el desarrollo tecnológico. 

Para Lara Castro, cualquier regulación sobre inteligencia artificial debería mantener una lógica similar a la planteada para otras tecnologías: un enfoque basado en derechos humanos y centrado en las víctimas. “Si se van a desarrollar legislaciones específicas, siempre deben tener perspectiva de derechos humanos y una perspectiva centrada en víctimas y sobrevivientes”, señaló.

Descarga el documento Combatiendo la violencia de género facilitada por la tecnología desde la óptica del Derecho Internacional de los Derechos Humanos


Contenido patrocinado
LBE
Perlibre