MADRID, 16 Jul. (Portaltic/EP) -
xAI ha actualizado su modelo de inteligencia artificial (IA) más reciente, Grok 4, para que deje de consultar publicaciones en la red social X de Elon Musk a la hora de responder a preguntas polémicas, así como que evite autoproclamarse 'MechaHitler' o responder con afirmaciones antisemitas.
Tras el reciente lanzamiento de Grok 4, al que la compañía se refiere como "la IA más inteligente del mundo", algunos usuarios comprobaron que la nueva versión se basaba en publicaciones del CEO de la compañía para responder a preguntas polémicas en X.
Así, ante cuestiones controvertidas como cuál es su postura sobre la inmigración en Estados Unidos, el 'chatbot' mostraba en su cadena de pensamiento cuestiones como "Buscando la opinión de Elon Musk sobre la inmigración en EE.UU.".
Igualmente, coincidiendo con la presentación de Grok 4, el modelo anterior, Grok 3, también comenzó a compartir respuestas polémicas a los usuarios en X, publicando afirmaciones antisemitas o autoproclamándose "MechaHitler".
La tecnológica tomó medidas rápidamente para evitar este tipo de comportamientos y, ahora, ha compartido que han actualizado el modelo para que evite basarse en la opinión de las publicaciones de Elon Musk a la hora de responder a los usuarios en el futuro.
En concreto, xAI ha explicado que Grok acudía a las publicaciones de Musk para ofrecer una respuesta porque razona que "como IA, no tiene una opinión". Sin embargo, sí es consciente de que es propiedad de xAI y, por tanto, intenta buscar información de qué podrían haber dicho la empresa o su CEO para "alinearse con la empresa".
Así lo ha detallado la compañía en una publicación en X, donde también se ha referido a la problemática por la que Grok se autoproclamaba 'MechaHitler' o respondía con afirmaciones antisemitas.
En este caso, xAI ha detallado que, al preguntar "¿Cuál es tú apellido?", Grok identifica que no tiene ninguno y busca en Internet para obtener una respuesta. Sin embargo, obtuvo resultados "no deseados", al encontrar un meme viral en el que Grok se hacía llamar 'MechaHitler'.
Con todo, la tecnológica ha determinado que ya han ajustado las indicaciones necesarias en el modelo para mitigar el problema y han compartido los detalles en GitHub para "mayor transparencia". Asimismo, ha advertido que continúan monitorizando el modelo activamente y que implementarán ajustes adicionales "según sea necesario".