El auge del material de abuso sexual generado por IA
marzo 31, 2026
Únete a nosotros para apoyar directamente a sobrevivientes de violencia sexual y doméstica donando hoy mismo. Dependemos de tus generosas contribuciones para nuestro éxito continuo. Cada pequeña contribución cuenta ❤️
Dependemos de sus generosas contribuciones para nuestro éxito continuo. Cada pequeña contribución cuenta. ❤️
Comparte Tu Historia
Comparte tu experiencia de forma segura y anónimaLeer was Historias
Honre las experiencias de los sobrevivientes y comparta la esperanzaRecursos
Recursos confiables de nuestros sociosPlataforma comunitaria personalizada
Cree una versión personalizada de nuestra plataforma comunitariaPreguntas y respuestas de sobrevivientes
Respuestas de expertos a tus preguntasInvestigación y Estudios
Estamos utilizando datos para mejorar los resultados de curación de los sobrevivientesExposiciones y artistas
Nuestra galería virtual de obras de arte de sobrevivientesMira la Pelicula
La curación se ve diferente para todosHecho con en Raleigh, Norte de Carolina, EE. UU.
© Our Wave 2026. Todos los derechos reservados
Mostrar recursos para
Canadamarzo 31, 2026

La tecnología de inteligencia artificial, comúnmente conocida simplemente como "IA", es un campo de la informática donde se construyen máquinas y software que tienen la capacidad de realizar tareas que normalmente requieren inteligencia humana. La tecnología de IA ha evolucionado desde los fundamentos teóricos de la década de 1950 hasta convertirse en un modelo de aprendizaje profundo poderoso que es capaz de crear contenido, percepción a nivel humano y realizar acciones autónomas dirigidas a metas.
Esta tecnología solía ser "IA simbólica," donde los humanos todavía manipulaban sus procesos y resultados ellos mismos, mientras que hoy en día ha pasado al "aprendizaje automático," en el cual las máquinas están aprendiendo patrones de los datos y creando contenido por sí mismas. Esto significa que el uso de estas máquinas ha pasado de las manos de los científicos, matemáticos, investigadores y los ingenieros que la crearon, a las manos del público en general.
Las herramientas de IA gratuitas que pueden ser accesibles literalmente para cualquiera tienen tanto sus pros como sus contras. Pueden tener efectos importantes e influyentes para bien. Sin embargo, la capacidad de la tecnología de IA para causar un daño social inmediato debe ser reconocida y comprendida para que podamos detener comportamientos peligrosos y dañinos y trabajar para prevenir futuros acontecimientos de los mismos.
Los daños de la inteligencia artificial de fácil acceso incluyen la difusión de desinformación y deepfakes, que son imágenes, videos o materiales de audio falsos pero realistas. Desafortunadamente, este tipo de contenido ha visto un aumento específico en material de abuso sexual generado por IA.
El uso de esta inteligencia artificial para crear contenido sexual no consensuado se llama a menudo “pornografía deepfake” o “nudificación”. Este es un problema peligroso y, lamentablemente, de aceleración rápida que ha resultado en el abuso generalizado de otros en línea, apuntando principalmente a mujeres y niños.
ONU Mujeres (2025) informó que “la pornografía deepfake representa el 98 por ciento de todos los videos deepfake en línea, y el 99 por ciento de las personas objetivo son mujeres.” Horriblemente, también hay un aumento masivo y rápido en el material de abuso sexual infantil (CSAM) generado por IA. El Centro Nacional para Niños Desaparecidos y Explotados (2026) informó que la cantidad de este material creado “se disparó de 4,700 en 2023 a más de 400,000 solo en la primera mitad de 2025.”
Estos informes revelan la repugnante realidad que la tecnología de IA ha traído a la sociedad. Uno de los aspectos más aterradores de esta situación es que este material está accesible al público en general, ya que la tecnología permite a aquellos con mínima experiencia técnica generar imágenes desnudas realistas o videos sexualmente explícitos a partir de fotos ordinarias.
Los casos de personas que tienen material generado por inteligencia artificial utilizado de manera sexual sin su consentimiento son, lamentablemente, prevalentes en la era moderna de hoy. Un ejemplo muy real y, lamentablemente, muy reciente de esto tuvo lugar en 2025 en la Universidad Estatal de Carolina del Norte, la universidad local de Raleigh, Carolina del Norte.
Fue aquí donde se utilizaron las fotografías de más de treinta mujeres jóvenes para material pornográfico, completamente sin su conocimiento y consentimiento, hasta que un par de ellas descubrieron sus fotografías en línea y reconocieron a otras que también estaban publicadas allí. WRAL News fue una de las muchas organizaciones que cubrieron esta historia, informando que el sospechoso, Hayne Beard, "publicó imágenes fotográficas de una víctima en una colección de fotos pornográficas generadas por computadora" (2025).
Los informes también afirman que de las treinta mujeres que se presentaron, veintiocho eran miembros de la hermandad de NC State. Todas estas mujeres tenían sus fotos manipuladas y publicadas en un sitio de pornografía donde sus caras fueron artificialmente superpuestas en cuerpos desnudos realizando actos sexuales. Estas imágenes atroces fueron publicadas en una carpeta que mencionaba directamente a la universidad, así como los nombres de las mujeres, dijo CBS 17.
Las instancias de materiales de abuso sexual generados por IA causan daño psicológico, profesional y social severo y duradero a aquellos que son blanco de estos ataques. A pesar de que el material es completamente fabricado por IA, las víctimas experimentan un trauma comparable al de una agresión sexual física, incluyendo ansiedad, depresión y un daño reputacional severo.
La creación de estos materiales puede causar un trauma emocional profundo, ya que las personas objetivo de dicho contenido informan sentir una violación, humillación y deshumanización. Pueden sentir una falta de poder y como si su control hubiera sido arrebatado, lo cual es profundamente angustiante, especialmente cuando se ven obligadas a ver sus imágenes siendo ofrecidas sin consentimiento para la gratificación sexual de otros.
Es un tipo de secuestro de su identidad, donde pueden sentir una pérdida de autonomía personal. El material de abuso sexual generado por IA también a veces puede ser recreado usando las imágenes de aquellos que ya han enfrentado trauma sexual, causando una retraumatización de los sobrevivientes.
Desafortunadamente, “los deepfakes sexualmente explícitos a menudo son indistinguibles de imágenes o videos reales, lo que les permite explotar, humillar o chantajear a las víctimas cuyos rostros son superpuestos sobre los cuerpos de personas involucradas en conductas sexuales sin su consentimiento,” dijo la Maryland Coalition Against Sexual Assault (MCASA).
Los objetivos de este contenido, que a menudo fueron explotados, enfrentaron luego un grave daño reputacional. Esto significaba que eran menos propensos a ser contratados o a mantener sus empleos actuales. Una vez que se crea la pornografía deepfake, sería fácil para cualquiera encontrar el contenido en línea, ya sea intencionadamente o por accidente, después de buscar el nombre del objetivo.
No solo podría causar un grave malestar emocional, sino que también podría interrumpir y causar tensiones dentro de las relaciones interpersonales, ya sea en el trabajo de alguien, con su familia, entre amigos y/o con la pareja de alguien. Aunque no fuera culpa del objetivo, su reputación, relaciones y oportunidades podrían verse significativamente afectadas.
El desarrollo cada vez más generalizado de estos materiales también está creando una cultura perjudicial de normalización de la violencia sexual. Cuando la violación sexual se reduce a un solo "clic", la víctima deja de ser percibida como un ser humano con sentimientos y se convierte en un objeto para ser manipulado con otros fines.
Las herramientas proporcionadas por la tecnología de IA a menudo son fáciles de usar, ya que imitan aplicaciones como los filtros de edición de fotos, lo que retrata el acto de violar a alguien como menos de un crimen y más como un ejercicio creativo. La facilidad de crear dicho contenido alimenta una cultura de acoso y reduce el costo social de participar en el abuso sexual.
Es cada vez más obvio que los materiales de abuso sexual generados por IA se están convirtiendo en un problema significativo en nuestro mundo moderno. Si bien esto no significa que la IA sea una máquina completamente malvada que no pueda usarse para el bien, sí muestra la necesidad de mayores medidas legales y regulatorias, acciones técnicas preventivas y garantizar la acción de la industria y las plataformas.
Puede haber un rechazo social que comienza asegurando la penalización de la creación y posesión de pornografía deepfake. Afortunadamente, ya se está instando a los gobiernos a ampliar la definición de Material de Abuso Sexual Infantil (CSAM) para incluir explícitamente contenido generado por IA.
Por ejemplo, Thorn (2025) informa que la Ley ENFORCE de 2025 “tiene como objetivo cerrar las brechas federales en los EE.UU. al asegurar sanciones consistentes para el material modificado por AI.” La legislación como la Ley TAKE IT DOWN permitirá a los sobrevivientes demandar por daños y perjuicios y requiere que las plataformas de IA implementen procedimientos formales de notificación y eliminación para dicho contenido perjudicial.
Las medidas técnicas preventivas incluyen poner un mayor énfasis en los creadores reales de estas herramientas de IA, asegurándose de que sean responsables del contenido creado con su tecnología. Se puede presionar a los desarrolladores para garantizar que el entrenamiento de los conjuntos de datos de la IA no contenga ningún tipo de CSAM o imágenes íntimas no consensuadas (NCII).
También se está impulsando la obligatoriedad de “credenciales de contenido”, que es cuando existe un tipo de etiqueta o marca de agua en los archivos creados por la IA. Esto facilitaría a las plataformas la detección y filtrado de abusos generados por IA. Las empresas también están siendo alentadas a realizar un “red teaming” riguroso, que es cuando encuentran y bloquean indicaciones que podrían llevar a la generación de material abusivo.
Las personas que han sido blanco de este abuso pueden usar herramientas como StopNCII.org y la Ley Take It Down para generar “huellas digitales” que bloqueen automáticamente el mismo material de ser cargado en otros lugares. Las instituciones educativas y las familias en casa pueden definir y reforzar la idea de que la pornografía deepfake o material abusivo similar es una forma de ciberacoso. Pueden usar programas como NetSmartz para enseñar a los niños y padres a reconocer, resistir e informar sobre la explotación digital.
Crear conciencia y educar al público sobre qué es este contenido y cómo podemos ponerle fin de manera legal y civil es una excelente manera de reunir apoyo para este movimiento de resistencia. Otros recursos importantes incluyen la Línea Directa Nacional de RAINN, que ofrece apoyo confidencial las 24 horas, los 7 días de la semana para sobrevivientes de abuso sexual generado por IA, y el Know2Protect (DHS) que se enfoca en campañas de concienciación para reconocer la explotación infantil en línea.
Podemos practicar el “consentimiento digital” estableciendo una regla general de siempre pedir permiso antes de publicar fotos de otras personas, incluso en contextos aparentemente inocentes. Esto ayuda a crear una cultura social donde las imágenes personales se ven como propiedad privada y no deben ser utilizadas ni manipuladas por otros con fines dañinos y malintencionados.
Si ves alguna actividad sospechosa o material claramente generado por IA, no lo vuelvas a publicar en línea ni lo difundas, incluso si tus intenciones son averiguar qué hacer y “crear conciencia”. Esto solo causará más daño. En su lugar, notifícalo de inmediato y de cualquier manera que puedas.
Asegura tus propios datos utilizando la configuración de privacidad más alta posible en tus plataformas y aplicaciones de redes sociales. Aunque nunca es culpa de un sobreviviente si es atacado, es una buena práctica hacer que sea un poco más difícil para otros encontrar y robar tu contenido con fines maliciosos.
Si conoces a alguien que esté siendo objetivo de este tipo de material, apóyalo y reconoce que el material es falso y que merece el mismo apoyo que otros sobrevivientes de abuso sexual. Esto ayuda a asegurar una mayor comprensión social del problema en cuestión y limita el daño reputacional que a menudo ocurre en tales escenarios.
Con el mundo moderno y sus avances tecnológicos ilimitados, es importante reconocer que los nuevos sistemas introducen nuevos problemas en nuestro mundo personal y social. El uso público creciente de la IA ha permitido que personas crueles y malintencionadas tengan acceso a herramientas que generan material dañino y angustiante.
Es importante entender que este no es un problema menor, y que los sobrevivientes de la pornografía deepfake dirigida son igualmente válidos en sus experiencias y traumas. Pero hay esperanza, ya que se están realizando grandes avances en el mundo legal y civil para expandir y fortalecer las leyes que protegen a los sobrevivientes, para implementar cambios técnicos en los sistemas de IA para crear mejores salvaguardas, y para difundir conciencia y recursos importantes entre la sociedad.
Referencias:
Our Wave depende de sus generosas contribuciones para nuestro éxito continuo. Done hoy y apóyenos en nuestra labor para apoyar a las sobrevivientes de violencia sexual y doméstica.
Leer was Historias Dona hoyActualizaciónes, eventos, y maneras de ayudar. Directamente en tu bandeja de entrada.
CanadaOur Wave es una 501(c)(3) organización sin ganancia y un servicio anónimo. Para recursos adicionales, visite el Centro de Recursos de Our Wave. Si esto es una emergencia, comuníquese con el servicio de emergencia local.