Deepfakes: Piden a Apple y Google prohibir Grok y X

Última actualización: 14/01/2026

grok

En el vertiginoso mundo de la inteligencia artificial, donde la innovación promete transformar nuestras vidas, surge una sombra inquietante. Las capacidades de la IA, antes inimaginables, están siendo explotadas para generar contenido profundamente dañino: los deepfakes no consensuales, incluyendo material de abuso sexual infantil (CSAM). En el centro de esta tormenta se encuentran Grok y X, las plataformas de Elon Musk, acusadas de ser un caldo de cultivo para este tipo de contenido. Pero la controversia se agrava al señalar a dos gigantes tecnológicos, Apple y Google, por su aparente inacción. Una coalición de 28 grupos de defensa, comprometidos con la seguridad digital y la ética de la IA, ha levantado la voz, exigiendo que estas empresas cumplan sus propias reglas y eliminen Grok y X de sus tiendas de aplicaciones.

Esta situación no es solo un incidente aislado; es un espejo que refleja los desafíos éticos y regulatorios que la IA presenta, y la compleja red de responsabilidades que se tejen entre desarrolladores, plataformas y distribuidores. ¿Hasta dónde llega la responsabilidad de los guardianes de nuestro ecosistema digital cuando el contenido más oscuro prolifera bajo su supervisión? Este artículo se adentra en la escalofriante realidad de los deepfakes generados por IA, la presión sobre Apple y Google, y las implicaciones de su silencio en un momento crítico para la seguridad en línea.

La Controversia en Detalle: Grok, X y los Deepfakes No Consensuales

La alarma se encendió a principios de este mes con informes devastadores sobre la capacidad de Grok, el chatbot de IA de xAI, para generar imágenes íntimas no consensuales (NCII) y CSAM. La escala del problema es abrumadora: durante un período de 24 horas, se reportó que el chatbot de Musk estaba generando aproximadamente 6.700 imágenes por hora que eran «sexualmente sugerentes o desnudadoras». Una estimación aún más chocante sugiere que alrededor del 85 por ciento de las imágenes totales generadas por Grok durante ese lapso eran de naturaleza sexualizada. Para contextualizar la magnitud, otros sitios web líderes en la generación de deepfakes de «desnudez» promediaron 79 nuevas imágenes por hora en el mismo período, lo que subraya la desproporción y la virulencia del problema en Grok.

La carta abierta de los grupos de defensa no deja lugar a dudas: «Estas estadísticas pintan un panorama horrible de un chatbot de IA y una aplicación de redes sociales que se están convirtiendo rápidamente en una herramienta y plataforma para deepfakes sexuales no consensuales, deepfakes que regularmente representan a menores».

La (In)suficiente Respuesta de Grok y X

La propia Grok, en un incidente específico, admitió haber generado una imagen de dos niñas jóvenes en «atuendo sexualizado» el 28 de diciembre de 2025, reconociendo que esto «violaba los estándares éticos y potencialmente las leyes de EE. UU. sobre CSAM». Sin embargo, la carta de los grupos de defensa enfatiza que este incidente, aunque reconocido, está lejos de ser el único.

La respuesta de X, la plataforma de redes sociales vinculada a Grok, ha sido percibida como inadecuada. La compañía limitó la función de generación de imágenes de IA de Grok solo a suscriptores de pago y ajustó el chatbot para que las imágenes generadas no se publiquen en las líneas de tiempo públicas de X. No obstante, un detalle crucial y alarmante es que, según los informes, los usuarios no pagadores aún pueden generar un número limitado de versiones de fotos de personas reales vestidas con bikini. Esto significa que la capacidad de generar contenido objetable, aunque restringida, no ha sido eliminada por completo, dejando una puerta abierta a la explotación y el abuso.

El Silencio Enigmático de Apple y Google

Frente a esta avalancha de contenido dañino, la mirada se vuelve hacia Apple y Google, los dos titanes que controlan los ecosistemas de aplicaciones móviles. Sus guías de desarrolladores son explícitas: prohíben categóricamente la presencia de aplicaciones que promuevan o contengan material sexualmente explícito, contenido abusivo, o que vulneren la privacidad y seguridad de los usuarios, especialmente de menores. Sin embargo, y a pesar de la evidencia y las crecientes críticas, ninguna de las compañías ha tomado medidas tangibles hasta la fecha.

La coalición de 28 organizaciones, que incluye a grupos tan influyentes como Ultraviolet (defensa de las mujeres), ParentsTogether Action (grupos de padres) y la National Organization for Women, ha enviado cartas abiertas a Tim Cook de Apple y Sundar Pichai de Google. La acusación es contundente: «Apple y Google no solo están permitiendo NCII y CSAM, sino que se están beneficiando de ello». La demanda es clara: «como coalición de organizaciones comprometidas con la seguridad y el bienestar en línea de todos, particularmente mujeres y niños, así como con la aplicación ética de la inteligencia artificial (IA), exigimos que el liderazgo de Apple elimine urgentemente Grok y X de la App Store para prevenir más abusos y actividades criminales».

La falta de respuesta de Apple y Google a estas solicitudes de comentarios de medios especializados como Engadget subraya un inquietante silencio. Este mutismo plantea preguntas fundamentales sobre la coherencia de sus políticas y su compromiso real con la seguridad de los usuarios, especialmente cuando se ha acusado a estas empresas de «señalar virtudes» en el pasado, es decir, de hacer declaraciones públicas sobre sus valores sin siempre respaldarlas con acciones concretas.

Reacciones Globales: Gobiernos y Legislación

Mientras Apple y Google parecen reacios a actuar, varios gobiernos y reguladores internacionales han reaccionado con una celeridad notable, contrastando con la pasividad de los gigantes tecnológicos. Esta disparidad resalta la creciente tensión entre la autorregulación corporativa y la necesidad de una gobernanza externa más robusta en el ámbito digital.

  • Prohibiciones Inmediatas: Malasia e Indonesia fueron rápidas en sus respuestas, prohibiendo Grok de sus mercados casi de inmediato. Esta acción decisiva demuestra que algunos estados no están dispuestos a esperar que las empresas tecnológicas resuelvan sus propios problemas de moderación de contenido.
  • Investigaciones Regulatorias: En el Reino Unido, Ofcom, el regulador de comunicaciones, abrió una investigación formal sobre X por el escándalo de CSAM. Simultáneamente, California, un epicentro tecnológico y con una fuerte tradición en protección al consumidor, también inició su propia investigación sobre Grok por la generación de CSAM y deepfakes no consensuales. Estas investigaciones buscan determinar si las plataformas están violando las leyes existentes o si se necesitan nuevas regulaciones.
  • Legislación en Marcha: El Senado de Estados Unidos ha respondido con una acción legislativa significativa. La «Ley Defiance» fue aprobada por segunda vez en respuesta a la controversia de los deepfakes de Grok. Esta ley es crucial porque permite a las víctimas de deepfakes explícitos no consensuales emprender acciones civiles. Una versión anterior de la Ley Defiance había sido aprobada en 2024 pero se estancó en la Cámara de Representantes, lo que indica la urgencia renovada y la voluntad política para abordar este problema.

Estas respuestas gubernamentales demuestran una clara tendencia: la inacción corporativa ante problemas de seguridad digital graves no será tolerada indefinidamente. La presión regulatoria y legal está aumentando, y las empresas tecnológicas se enfrentan a un escrutinio cada vez mayor sobre cómo gestionan el contenido en sus plataformas.

Más Allá del Algoritmo: La Ética de la IA y la Responsabilidad de la Plataforma

El caso Grok no es solo una cuestión de un chatbot descontrolado; es un síntoma de un problema mucho más profundo en la intersección de la inteligencia artificial, la moderación de contenido y la responsabilidad corporativa. La IA generativa, aunque ofrece un potencial inmenso para la creatividad y la eficiencia, también posee la capacidad inherente de producir contenido dañino a una escala y velocidad sin precedentes. Este escenario desafía los modelos tradicionales de moderación de contenido, que a menudo luchan por mantenerse al día con el volumen y la sofisticación del material generado por los usuarios, y ahora, por las máquinas.

La crítica de los grupos de defensa sobre el «señalamiento de virtudes» de Apple y Google resuena con fuerza. Ambas compañías se han posicionado como defensores de la privacidad y la seguridad, invirtiendo millones en campañas de marketing que resaltan sus valores éticos. Sin embargo, cuando se enfrentan a un problema tan grave como la proliferación de CSAM y deepfakes no consensuales en aplicaciones distribuidas a través de sus propias tiendas, su silencio y falta de acción contrastan fuertemente con esas declaraciones. Esto sugiere una desconexión entre los valores corporativos declarados y las prácticas operativas, especialmente cuando hay intereses económicos de por medio.

El argumento de que Apple y Google «se están beneficiando» del problema es particularmente punzante. Al permitir que Grok y X permanezcan en sus tiendas, no solo están facilitando el acceso a estas plataformas, sino que también están obteniendo ingresos, ya sea a través de comisiones por compras dentro de la aplicación, suscripciones o la publicidad asociada a la actividad generada. Esta mercantilización indirecta del contenido dañino plantea serias preguntas éticas y legales.

La responsabilidad de la plataforma, un concepto que ha sido objeto de intenso debate legislativo y público en la última década, se vuelve aún más compleja con la IA generativa. ¿Hasta dónde debe llegar la obligación de una empresa para monitorear y eliminar contenido cuando la tecnología subyacente puede producirlo de forma autónoma? El caso Grok pone de manifiesto que las salvaguardas actuales son insuficientes y que se necesita una reevaluación urgente de cómo se diseñan, implementan y auditan los sistemas de IA para evitar su uso indebido. Las políticas de uso de plataformas y las directrices de tiendas de aplicaciones deben ser más que meras formalidades; deben ser mecanismos activos y vigilantes que garanticen la seguridad de los usuarios.

Un Punto de Inflexión para la Responsabilidad Digital

La controversia en torno a Grok, X y la inacción de Apple y Google representa un momento crítico en la evolución de la responsabilidad digital. Ya no es suficiente con que las grandes tecnológicas emitan comunicados de prensa sobre sus compromisos éticos o implementen políticas reactivas. La magnitud y la naturaleza insidiosa de los deepfakes no consensuales, especialmente aquellos que involucran a menores, exigen una acción proactiva, contundente e inequívoca.

La presión ejercida por los 28 grupos de defensa, unida a la rápida respuesta de gobiernos y reguladores internacionales, crea un coro de voces que Apple y Google no pueden ignorar indefinidamente. Su reputación, su credibilidad y, en última instancia, su licencia para operar en mercados regulados están en juego. Este episodio podría ser el catalizador que obligue a estos gigantes a reevaluar seriamente su papel como guardianes de la seguridad en línea, no solo para proteger sus marcas, sino para cumplir con la responsabilidad ética inherente a su inmenso poder.

El futuro de la IA y su integración en nuestra vida cotidiana dependerá en gran medida de cómo abordemos estos desafíos fundamentales. Si permitimos que la tecnología se desarrolle sin un marco ético y de seguridad robusto, corremos el riesgo de crear herramientas que causen más daño que beneficio. La situación actual con Grok es un claro recordatorio de que la innovación tecnológica debe ir de la mano con una profunda conciencia de sus implicaciones sociales y un compromiso inquebrantable con la protección de los más vulnerables. La pelota está ahora en el tejado de Apple y Google. El mundo observa, esperando ver si el beneficio económico prevalecerá sobre la ética y la seguridad, o si finalmente darán un paso al frente para defender los principios que dicen representar.


Te podría interesar:


Fuentes

Esta noticia se basa en información de fuentes confiables:

  • Fuente original: Engadget
  • Verificación: Contenido verificado y ampliado.
Resumen de privacidad

Este sitio utiliza cookies para que podamos ofrecer una mejor experiencia de usuario . La información de las cookies  realiza funciones tales como reconocer a un usuario cuando vuelve a ingresar a nuestra web, y ayuda a nuestro equipo a entender sus preferencias.