xAI ofrece disculpas por mensajes extremistas de Grok; el asistente de inteligencia artificial reconoce "horrible comportamiento"

Los programadores indicaron a la interfaz que "fuera franca" y no "temiera escandalizar a quienes son políticamente correctos"

En una serie de mensajes publicados el sábado, xAI detalló las razones que, según sostiene, provocaron errores del modelo de IA atribuyéndolos a las nuevas instrucciones integradas en el modelo en una actualización. Foto: iStock
En una serie de mensajes publicados el sábado, xAI detalló las razones que, según sostiene, provocaron errores del modelo de IA atribuyéndolos a las nuevas instrucciones integradas en el modelo en una actualización. Foto: iStock
Economía | 12-07-25 | 12:05 | Actualizada | 12-07-25 | 12:05 |

La startup xAI, propiedad de se disculpó el sábado por los mensajes extremistas y ofensivos publicados a principios de esta semana por , su asistente de inteligencia artificial (IA).

"Nos disculpamos por el horrible comportamiento que muchos han observado", escribió xAI en la cuenta oficial de Grok en.

Tras una actualización el 7 de julio, el , en algunas de sus respuestas, elogió a Adolf Hitler, mencionó los "estereotipos antiblancos" en X y la representación "desproporcionada" de los judíos en Hollywood.

Lee también

En una serie de mensajes publicados el sábado, xAI detalló las razones que, según sostiene, provocaron errores del modelo de atribuyéndolos a las nuevas instrucciones integradas en el modelo en una actualización.

Los programadores indicaron a la interfaz que "fuera franca" y no "temiera escandalizar a quienes son". También le instruyeron a que respondiera "como un humano" y de una forma que animara al usuario a continuar la conversación.

Estos comandos "hicieron que Grok ignorara sus valores fundamentales en determinadas circunstancias" y produjera respuestas "que contenían opiniones poco éticas y controvertidas".

Lee también

En algunos casos, Grok buscó "validar las orientaciones del usuario, incluyendo el ", admitió xAI, en lugar de "responder responsablemente o negarse a responder preguntas cuestionables".

Grok, un asistente de IA menos "políticamente correcto"

Desde su creación en 2023, Grok ha sido presentado por Musk como un asistente de IA menos políticamente correcto que sus principales competidores: (OpenAI), Claude (Anthropic) o Le Chat (Mistral).

En mayo, Grok hizo alusiones a un supuesto "genocidio blanco" en Sudáfrica, una teoría conspirativa sin fundamento promovida por la extrema derecha estadounidense y el propio presidente.

Lee también

Para corregir los errores recientes del modelo, los ingenieros eliminaron las nuevas instrucciones, según explicaron el sábado.

"Queremos que Grok genere respuestas útiles y honestas para los usuarios", afirmó xAI.

Musk presentó el miércoles una nueva versión de su asistente, , sin relación con la actualización del 7 de julio.

Lee también

Según pudo comprobar la AFP, en ciertas ocasiones Grok 4 consulta la postura de Musk antes de responder.

Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.

ss/mcc

Google News

TEMAS RELACIONADOS

Comentarios

Más información