Gran Bretaña va a “hackear” a Grok para combatir “deepfakes” de mujeres y niñas

Tipificar una conducta como delito tan solo sirve para erradicar comportamientos violentos en países donde la ley se aplica correctamente y en los que el aparato de justicia tiene la capacidad de perseguir el crimen, individualizar conductas y sostener acusaciones que ganen juicios. Todo ese camino suele ser tormento para las víctimas: probar, probar y probar.

En delitos digitales, ni siquiera hay certezas. Tras dispositivos y sus direcciones únicas siempre hay argumentos hábiles: la complejidad de probar que una persona estaba manejando ese dispositivo y no otra; que la difusión o creación de contenido falso fue realizada por usuarios identificables y no por “bots”; que no hubo manipulación posterior. La trazabilidad técnica se convierte en campo de batalla y la víctima en perito forense improvisado.

Gran Bretaña podría mostrarle al mundo cómo facilitar el camino.

Hace un par de días, el gobierno de ese país anunció que trabajará con Microsoft (MSFT.O), académicos y expertos para desarrollar un sistema que permita detectar material deepfake en línea, en el marco de sus esfuerzos por establecer estándares para abordar el contenido dañino y engañoso generado por inteligencia artificial.

Si bien el material manipulado ha circulado en internet durante décadas, la rápida adopción de chatbots de IA generativa —posibilitada por el lanzamiento de ChatGPT y otros— ha intensificado las preocupaciones sobre la escala y el realismo de los deepfakes. Gran Bretaña, que recientemente tipificó como delito la creación de imágenes íntimas no consensuadas, señaló que está trabajando en un marco de evaluación para la detección de deepfakes, con el fin de fijar estándares consistentes para evaluar herramientas y tecnologías de detección.

“Los deepfakes están siendo instrumentalizados por delincuentes para defraudar al público, explotar a mujeres y niñas, y socavar la confianza en lo que vemos y oímos”, declaró la ministra de Tecnología, Liz Kendall. El marco evaluará cómo la tecnología puede utilizarse para analizar, comprender y detectar materiales dañinos, independientemente de su origen, mediante pruebas frente a amenazas reales como abuso sexual, fraude y suplantación de identidad.

Esto ayudará al gobierno y a las fuerzas del orden a obtener un mejor conocimiento sobre dónde persisten brechas en la detección y servirá para establecer expectativas claras para la industria en materia de estándares técnicos.

Se estima que en 2025 se compartieron 8 millones de deepfakes, frente a 500.000 en 2023. El crecimiento no es lineal: es exponencial. Y la capacidad institucional para responder no puede seguir siendo artesanal.

Gobiernos y reguladores de todo el mundo, que luchan por mantenerse al ritmo de la rápida evolución de la IA, se vieron impulsados a actuar después de que se descubriera que el chatbot Grok generaba imágenes sexualizadas no consensuadas de personas, incluidos menores. El regulador británico de comunicaciones y la autoridad de protección de datos ya investigan el caso.

Las distinciones con México —que legisló sobre el tema hace tiempo— son brutales. Primero, porque además de reformar la ley, el gobierno británico reconoció la ausencia de técnicos especializados dentro del Estado y buscó alianzas estratégicas. Segundo, porque entendió que sin infraestructura probatoria digital no hay política criminal efectiva.

La alianza con Microsoft es prometedora por una razón concreta: podría permitir el aseguramiento técnico de pruebas de manera inmediata, sin que el contenido tenga que permanecer expuesto en redes sociales para acreditar su existencia. En la Ciudad de México es común que las fiscalías pidan que el contenido no se borre hasta que algún funcionario dé fe. Las capturas de pantalla, salvo que sean validadas por notario público, son frágiles procesalmente por la posibilidad de manipulación con editores de imagen. El principal obstáculo ha sido la prueba digital y la carga recae —otra vez— en las víctimas.

Son ellas y sus equipos legales quienes pagan peritajes, certificaciones notariales y procesos de preservación de evidencia. Ellas son quienes deben probar que son víctimas de una violencia que, paradójicamente, consiste en haber sido expuestas sin consentimiento.

La paradoja técnica es aún más aguda: tanto las imágenes creadas con IA como las fotografías auténticas contienen metadatos sobre fecha de creación, software utilizado, dispositivo de origen y procesos de edición. La información existe. El problema es quién tiene la capacidad técnica y legal para capturarla, preservarla y convertirla en prueba admisible.

Gran Bretaña parece haber entendido que legislar sin herramientas es performativo. Que la justicia digital exige pericia digital. Que no basta con prohibir; hay que poder demostrar.

Y ahí está la verdadera jugada: investigar y eventualmente sancionar a Grok mientras, en paralelo, se construye un software propio que permita hacer cumplir la ley. No se trata de “hackear” al estilo clandestino, sino de hackear la asimetría. De reducir la ventaja técnica de las plataformas frente al Estado y, sobre todo, frente a las víctimas.

Eso sí es política pública inteligente: combinar tipificación penal, capacidad técnica y voluntad regulatoria.

En la era de la inteligencia artificial, la justicia no puede depender de capturas de pantalla. Debe depender de sistemas capaces de leer el código del daño.

Leave a Reply

Your email address will not be published. Required fields are marked *