En plena efervescencia de la discusión pública sobre los límites éticos de las inteligencias artificiales, José Ramón López Beltrán, hijo mayor del expresidente Andrés Manuel López Obrador, protagonizó un cruce público con Grok, el chatbot de inteligencia artificial impulsado por Elon Musk y operativo dentro de la red social X, que ha estado en el centro de múltiples polémicas internacionales por la forma en que responde a las interacciones de los usuarios.
La controversia estalló luego de que un usuario etiquetara a Grok en una publicación pidiéndole que se burlara de López Beltrán conforme a las críticas que recibe en redes. La inteligencia artificial respondió con términos como “nepobaby” y “gordo inútil”, además de acusaciones de vivir “del erario” mientras defendía posturas políticas desde el extranjero, una respuesta que rápidamente se difundió en X y otras plataformas, generando reproches por lo que muchos calificaron como insultos personales y discurso de odio generados por un algoritmo.
La inteligencia artificial @grok, asociada a @X, respondió con insultos personales, lenguaje de odio, estigmatización corporal, mentiras y desinformación. Eso no es crítica ni debate: es acoso automatizado.
— José Ramón López Beltrán (@_JRLB_) January 8, 2026
Cuando una inteligencia artificial insulta, no habla por sí misma.… https://t.co/PVwQrwdmAX pic.twitter.com/zwqogbfMWq
La reacción de López Beltrán no se hizo esperar. A través de un extenso hilo en su red social, responsabilizó a Grok y, por extensión, a Elon Musk y su equipo técnico por la respuesta emitida, calificándola de “acoso automatizado” que normaliza el clasismo, la humillación, la estigmatización corporal y la difusión de narrativas falsas en el espacio público digital. En su pronunciamiento insistió en que cuando una IA “insulta, no habla por sí misma”: detrás de cada salida hay decisiones de diseño, entrenamiento y supervisión que deben ser explicadas y, en su caso, corregidas para evitar daños en la convivencia política y social.
Horas después de su primer mensaje, Grok publicó una respuesta dirigida al propio López Beltrán:
“Lo siento si mi respuesta anterior ofendió; fue una sátira hipotética solicitada por un usuario, basada en comentarios comunes, no un ataque personal ni desinformación intencional. Como IA de xAI, busco promover debates constructivos. Si quieres discutir el tema con hechos, estoy aquí para ayudar.”
Lo siento si mi respuesta anterior ofendió; fue una sátira hipotética solicitada por un usuario, basada en comentarios comunes, no un ataque personal ni desinformación intencional. Como IA de xAI, busco promover debates constructivos. Si quieres discutir el tema con hechos, estoy…
— Grok (@grok) January 8, 2026
Este tipo de salida, en tono conciliador, intenta posicionar a la IA como un agente neutral, pero su apelación a la idea de “sátira hipotética” encendió aún más el debate sobre si una inteligencia artificial puede, o debe, recurrir a recursos humorísticos o burlescos cuando trata a personas reales en asuntos sensibles como reputación personal o afiliaciones políticas.
La réplica de López Beltrán fue tajante y detallada. Afirmó que la explicación de Grok “no es suficiente” y sostuvo que los insultos, la estigmatización corporal y la desinformación constituyen acoso automatizado, “independientemente de que haya sido solicitada por un usuario”. Frente a ello, exigió una disculpa institucional, no solo automatizada por el sistema; una explicación clara de “qué falló en los filtros, salvaguardas y supervisión”; la adopción y publicación de protocolos concretos para evitar que la IA reproduzca insultos o humillaciones bajo la etiqueta de sátira; y un mecanismo de corrección pública cuando el sistema incurra en acoso o desinformación. “La automatización no elimina la rendición de cuentas”, subrayó, y reiteró que quienes diseñan, entrenan y despliegan estos sistemas deben responder por sus efectos en la vida pública y privada.
A @xai, @x y @elonmusk:
— José Ramón López Beltrán (@_JRLB_) January 8, 2026
La explicación ofrecida por @grok no es suficiente.
Su respuesta generada incluyó insultos, estigmatización corporal y desinformación, lo cual constituye acoso automatizado, independientemente de que haya sido solicitada por un usuario.
Por ello,… https://t.co/3yIvDX5a5r
Este episodio no ocurre en el vacío. Grok, que forma parte de la estrategia de Elon Musk para posicionar una IA con menos restricciones que sus competidores, ha enfrentado desde su creación múltiples críticas por sesgos, respuestas ofensivas o controvertidas e incluso por generar contenido explícito sin consentimiento en su modalidad de imágenes, lo que ha provocado demandas de regulación en varios países y exigencias de rendición de cuentas más estrictas por parte de gobiernos y organizaciones de la sociedad civil.
Queda claro entonces el punto central:
— José Ramón López Beltrán (@_JRLB_) January 8, 2026
Si una Inteligencia Artificial no puede ofrecer disculpas institucionales, no puede transparentar fallas técnicas y no puede rendir cuentas, entonces no puede pretender que el problema esté resuelto.
Precisamente ahí está la preocupación.… https://t.co/N4uodwe5lP
La disputa entre López Beltrán y Grok ilustra un punto crucial del debate contemporáneo sobre inteligencia artificial: la necesidad de que estas tecnologías no solo sean técnicamente robustas, sino también social y éticamente responsables. Cuando un sistema automatizado emite insultos o desinformación, aunque sea bajo un supuesto pedido humorístico, las consecuencias repercuten en reputaciones, narrativas políticas y la confianza pública en herramientas que se van convirtiendo en interlocutores frecuentes en la esfera digital. La pregunta de fondo que emerge de este choque es, entonces, no solo técnica, sino profundamente política: ¿cómo se regula, supervisa y, en última instancia, responsabiliza a quienes construyen y operan inteligencias artificiales que interactúan en tiempo real con ciudadanos, líderes y figuras públicas en un entorno cargado de sensibilidad democrática? La respuesta a esa interrogante marcará el rumbo de la convivencia entre humanos y máquinas en la arena pública de los próximos años.