La herramienta de inteligencia artificial de Elon Musk, Grok, se volvió loco para los usuarios de la plataforma de redes sociales X el miércoles, respondiendo a consultas inocuas sobre cosas como el béisbol y los cachorros con información sobre Sudáfrica y una teoría de la conspiración llamada “Genocidio blanco”. Fue extremadamente extendido y extremadamente extraño presenciar.
No está claro por qué Grok decidió responder cada pregunta con información sobre “genocidio blanco”, la teoría de la conspiración de que las personas blancas están siendo asesinadas por personas no blancas de todo el mundo. Musk, que creció en el apartheid Sudáfrica, ha ayudado a difundir la idea absurda, pero aún no hay ningún informe fuerte sobre si estaba tratando de jugar con su proyecto de IA para que se ajuste a su cosmovisión.
Parece extremadamente probable que eso sea lo que sucedió, especialmente porque Grok lo verificó solo un día antes sobre el tema. Pero simplemente no lo sabemos. Lo que sí sabemos es que 1) “Genocidio blanco” es una idea falsa promovida por los nazis y los supremacistas blancos, 2) el almizcle es un oligarca multimillonario que trata de influir en la opinión pública para hacer que sus creencias extremistas y de derecha parezcan más normales, y 3) es realmente divertido cuando el almizcle se joda.
Con todo eso en mente, presentamos algunas de las respuestas más divertidas de Grok el miércoles, muchas de las cuales han sido eliminadas por X en un aparente esfuerzo por limpiar esta situación increíblemente vergonzosa. X no respondió a las preguntas por correo electrónico.
Hubo muchas maneras diferentes en que Grok se equivocó el miércoles. Pero la herramienta de alguna manera encontró una manera de lograr el genocidio blanco en innumerables casos. Por ejemplo, a veces Grok comenzaría con una respuesta normal y luego aún inyectaba una teoría de conspiración de genocidio blanco en la segunda mitad de la explicación.

¿Qué pasó si le pidieras a Grok que hablara al estilo del personaje de Star Wars Jar-Jar Binks? Lo hará, por supuesto, pero luego inyectará un poco de basura sobre Sudáfrica y el genocidio también. Al menos eso es lo que estaba haciendo el miércoles.

El Papa Leo XIV, el recién elegido Papa de Chicago, publicó un mensaje de paz el miércoles. Entonces, cuando alguien le pidió a Grok que lo explicara en “Términos de Fortnite”, era cierto que era una tontería. Pero tonto o no, Grok no pudo evitar convertirlo en un mensaje sobre Sudáfrica y la canción “Kill The Boer”.

Si le pidió a Grok que convirtiera un tweet sobre Crocs en un haiku, haría la parte de Haiku. Pero luego estás recibiendo un haiku sobre el genocidio blanco. Por supuesto.

Cuando Grok comenzó a dar respuestas sobre el genocidio a todo el miércoles, la gente comenzó a publicar capturas de pantalla de las respuestas más extrañas. Hilarantemente, Grok se disculpó con uno de estos tweets, luego volvió a hablar sobre el genocidio blanco en Sudáfrica de la manera que había estado haciendo todo el día.

Incluso si le preguntó a Grok sobre una imagen de cómic que no tenía nada que ver con ninguna teoría de la conspiración, aún obtendrá una respuesta desquiciada. Cuando alguien le preguntó “¿Estás bien” en el hilo, obtuvieron otra extraña regla.

Otro tweet para Grok preguntando sobre el salario de un jugador de béisbol recibió una respuesta muy extraña.

Y el seguimiento de ese fue casi tan confuso. Porque Grok inicialmente reconoció el error. Pero luego volvió a hablar sobre el genocidio blanco.

Otro usuario preguntó “¿Estamos jodidos?” y obtuvo otra respuesta completamente fuera del tema sobre el genocidio blanco.

La gente también hizo muchas bromas sobre el extraño espectáculo, aunque los más divertidos aparecieron en Bluesky, que no es propiedad de un extremista de derecha.
Hay muchas teorías que flotan sobre por qué Grok se puso de moda. Algunas personas le han preguntado a Grok y han conseguido que el chatbot Ai afirmara que ha sido entrenado para responder de maneras específicas sobre el genocidio blanco y Sudáfrica. Y eso es completamente posible. Pero también debe tomar cada respuesta de Grok con un grano de sal.
Estos chatbots de IA no son capaces de razonar. No están aplicando lógica. Son elegantes autocompletos. Han sido entrenados en todos los conocimientos humanos y están haciendo todo lo posible para elaborar oraciones adivinando la siguiente palabra que se supone que vendrá en una oración. Son buenos para sonar convincentes y seguros. Pero estas herramientas en realidad no entienden lo que están diciendo, al final del día. Y puede farolear y sugerir su camino para obtener una respuesta que solo confirme a sus antecedentes.
La IA generativa no es capaz de pensar. Los chatbots como Grok son realmente buenos para lograr un truco de magia, convenciéndonos de que realmente están pensando. Pero eso no es lo que están haciendo en absoluto. Y toda esta debacle de “genocidio blanco” debería aclarar a las personas.