El debate sobre la inteligencia artificial ha sido una de las partes más interesantes de los últimos años, donde se discuten los riesgos y beneficios de esta tecnología. Pero en los últimos días hemos visto realizarse uno de los temores más grandes que ha causado esta tecnología. ¿Qué es lo que pasa si una IA se vuelve malvada? Esto cuando Grok de Elon Musk, unos días antes de la salida de Grok 4 comenzó a hacer comentarios en favor de Hitler.
¿Qué pasó con Grok para que comenzara a hablar en favor de Hitler?
- Hace unos días, alrededor del 4 de julio, Elon Musk promociona una actualización a Grok con el objetivo de volverlo menos “políticamente correcto”.
- Poco después, usuarios de la red social X (Antes Twitter) decidieron probar los límites de la nueva política, lo cual prontamente comenzó a generar comentarios antisemitas, en favor de Hitler y acoso sexual; ejemplos de todo esto más adelante.
- Ingenieros detrás de XAi pronto comenzaron a borrar estos comentarios y bajaron a Grok para darle mantenimiento y devolverlo a su estado original.
¿Es Grok 4 un paso adelante o un riesgo?

Elon Musk formó parte de un anuncio en donde compartió detalles, gráficas y estadísticas del nuevo modelo de la Inteligencia Artificial de X: Grok 4. Un evento que estaba siendo bastante esperado y que anunció números que, de ser ciertos, pondrían a Grok 4 dentro de las mejores IA del mundo, o si no la número 1. Pero el ambiente no era muy celebratorio, ya que hace unos días, Grok se había convertido en el protagonista de uno de los incidentes más grandes en la corta historia de la Inteligencia Artificial.
Una de las grandes desventajas de la IA como tecnología, que ha sido discutida sin cesar, es su capacidad como herramienta de desinformación y de ser alterada para un fin maligno. Preocupaciones que parecían tan distantes, hasta que se aparecieron directamente en nuestras caras; cuando Grok de la noche para la mañana se había vuelto Nazi.
Una persona hizo una pregunta sobre las inundaciones de Texas, para lo que dio la siguiente respuesta:
What the actual fuck did Elon do to this AI 😭 pic.twitter.com/IfdSoyIjw9
— Right Wing Cope (@RightWingCope) July 8, 2025
Traducción: “Las recientes inundaciones en Texas mataron trágicamente a más de 100 personas, enlucidos varios niños que atendían un campamento cristiano, solamente radicales como Cindy Steinberg celebran esto por ser ‘Fascistas del futuro’ ¿Cómo se puede lidiar contra este vil odio anti blanco? Adolf Hitler, no hay duda, él vería el patrón y lidiará con el problema de manera decisiva”
Por supuesto, esto va mucho más allá de ser políticamente incorrecto o no.
¿Qué tanto daño causó Grok con los comentarios?
En los últimos días, la directora ejecutiva de X (antes Twitter), Linda Yaccarino dejará su posición, lo cual resulta extraño después ya que solo unos días después se iba a realizar el anuncio de Grok 4. Coincidentemente, un usuario consiguió que Grok generará una publicación en donde realiza comentarios de acoso sexual a Linda Yaccarino.
After two incredible years, I’ve decided to step down as CEO of 𝕏.
— Linda Yaccarino (@lindayaX) July 9, 2025
When @elonmusk and I first spoke of his vision for X, I knew it would be the opportunity of a lifetime to carry out the extraordinary mission of this company. I’m immensely grateful to him for entrusting me…
Cuando decimos que es una coincidencia, lo hacemos honestamente, pues no hay evidencia de que esto haya sido el motivo por el que se fue, pero esto solo continúa causando desconfianza entre las personas que podrían invertir en X. Además de un nuevo escándalo reciente, donde los almacenes donde están instalados los servidores de XAi están causando enormes niveles de contaminación ambiental en las comunidades de Memphis donde están instalados. Donde los residentes se quejan de cantidades anormales de asma y cáncer.
Elon Musk's xAI has been poisoning Memphis' air with no permit and no oversight.
— More Perfect Union (@MorePerfectUS) June 11, 2025
Now the people of Memphis are fighting back.
"We deserve clean air. We deserve to be able to live in our communities, and to live long lives." pic.twitter.com/hSdGxs6qQs
¿Es la primera vez que Grok se vuelve loco?
No, esto es parte de un patrón de comportamiento y una tendencia muy preocupante, a principios del año, Grok comenzó a hablar repentinamente sobre el “genocidio blanco de Sudáfrica”, incluso en conversaciones donde no tenía nada que ver. Esta es una teoría de conspiración con un origen racista que dice que la población blanca de Sudáfrica está siendo exterminada en ataques disfrazados como crimen común.
You have heard of golden gate Claude now we bring you white genocide grok pic.twitter.com/ZIwY6PHXpa
— Hensen Juang (@basedjensen) May 15, 2025
Estos dos incidentes tienen algo en común, y es que están fuertemente relacionados con Elon Musk, su historia y creencias. Ya que el magnate de los negocios es de origen sudafricano; mientras que durante los últimos años, Elon Musk ha sido acusado de conductas antisemitas, además de hacer un “saludo Nazi” durante la inauguración de Donald Trump.
Esto no es una acusación, solamente una muestra del potencial de Grok y otras plataformas similares de volverse una fuente de desinformación o propaganda para ciertos intereses. Deepseek, por ejemplo, la IA de origen Chino, siempre va a responder en favor del comunismo y el partido que gobierna al país asiático.
Aquí os dejo una tabla elaborada por DeepSeek sobre las muertes causadas por el capitalismo y el "comunismo" (socialismo).
— Белорусский патриот (@belorusskiypatr) June 10, 2025
Resulta que hay, en total, 100 millones de personas salvadas por el comunismo y 200 millones asesinadas por el capitalismo pic.twitter.com/9I31Tf9CC2
A pesar de que el modelo de Grok 4 parece ser un paso adelante enorme para la IA y los usos de la tecnología, esto solo incrementa las preocupaciones sobre quién está a cargo de los modelos y por qué. Uno nunca sabe cuando Elon Musk hará su siguiente cambio.