IA inside, torpeza outside

“You can’t always get what you want.”

The Rolling Stones

“No es ignorancia no saber; es negarse a aprender.”

Anónimo (atribuido a Cicerón)

Durante años, las computadoras presumían orgullosamente una calcomanía: “Intel Inside”. El mensaje era claro: adentro había inteligencia. Afuera, bueno… eso ya no estaba garantizado…

Hoy el problema es el mismo, solo que actualizado: IA inside, torpeza outside.

En esta esquina está Grok, la inteligencia artificial de X. En la otra, José Ramón López Beltrán, visiblemente molesto por una respuesta que, por insultante, no le gustó. Y como suele ocurrir cuando alguien pierde una discusión con una máquina, el enojo se dirigió al lugar equivocado.

Elon Musk presume que Grok es la IA más “inteligente”. Pero el propio Musk ha reconocido su principal defecto (¿virtud?): Grok es excesivamente obediente a las instrucciones. No razona, no juzga, no delibera, no elige. Ejecuta.

Conviene dejarlo claro desde ahora: Grok no acosa: obedece.

No es la primera vez que esta IA provoca escándalo. En julio de 2025 generó una tormenta al publicar mensajes antisemitas y elogios a Adolf Hitler. ¿La explicación? Haber sido programada —en palabras del propio Musk— para ser “anti-woke”. Entonces Grok hizo lo único que puede hacer una IA: reconocer un fallo técnico y anunciar ajustes programáticos. No pidió perdón. Porque no puede. La disculpa requiere conciencia, reflexión y sentimiento. Nada de eso viene instalado en un modelo de lenguaje.

Meses después, José Ramón López Beltrán exigió precisamente eso: una disculpa “suficiente”. No le bastó la aclaración técnica ni la explicación de que la respuesta había sido sátira, solicitada explícitamente por un usuario.

Vayamos a los hechos.

José Ramón publicó un mensaje sobre soberanía y Venezuela. Usuarios le señalaron una contradicción evidente: criticar a Estados Unidos mientras se vive ahí, sin ser ciudadano, y con un nivel de vida más que holgado. Un tercero pidió a Grok responder en tono burlón, ofensivo. La instrucción fue clara. La respuesta también.

¿Fue grosera? Sí.

¿Fue sátira? También.

¿Fue “acoso automatizado”, violencia, discurso de odio o estigmatización sistemática? No.

No hubo agresión reiterada ni ataque por pertenecer a un grupo protegido: ni por género, ni por raza, ni por orientación, ni por gremio. Fue una respuesta sarcástica bajo demanda.

Aquí está el punto central que se quiere eludir: el pleito equivocado de JRLB; se fue contra la IA, no contra el espejo.

Si la molestia era real, el reclamo debió dirigirse a:

1. El usuario que pidió el insulto.

2. La empresa que diseñó una IA incapaz de filtrar ese tipo de solicitudes.

No contra la máquina.

José Ramón tenía una salida sencilla que no tomó porque no quiere (porque no puede, agregaría yo): rebatir los hechos. Mostrar que trabaja, aclarar sus ingresos, desmontar la acusación de hipocresía. No lo hizo. Prefirió discutir con un algoritmo, exigirle arrepentimiento moral y luego invocar conceptos jurídicos mal entendidos (y miren que se supone es abogado…).

Hablemos de eso. La “difamación” ya no es delito. Y acusar “estigmatización corporal” por llamar gordo a un gordo no convierte automáticamente el comentario en discurso de odio. La obesidad es una condición definida incluso por la OMS. Lo incómodo no es la palabra. Es la realidad que señala.

Lo verdaderamente grave es la confusión —muy extendida en la 4T— entre crítica, burla, violencia y censura. Esa confusión trivializa el acoso real que —ahí sí— sufren mujeres, periodistas y disidentes, mientras se sobrerreacciona cuando la sátira toca a los cercanos al poder.

Parafraseando a Cayo Julio César: la mujer del César no solo debe ser casta, sino parecerlo. En versión contemporánea: los hijos del poder no solo deberían predicar austeridad, sino parecer austeros (y, de ser posible, cuidar más su peso corporal y su cuidado físico). Lo demás es ruido, indignación selectiva y mala comprensión del mundo digital.

Antes de volver a discutir con una inteligencia artificial, convendría entender cómo funciona. Las máquinas no tienen conciencia; las personas sí deberían. Cuando alguien confunde un programa con un agresor y un espejo con violencia, el problema no es tecnológico. Es intelectual.

Leave a Reply

Your email address will not be published. Required fields are marked *