Seleccione idioma

Spanish

Down Icon

Seleccione país

Turkey

Down Icon

Las publicaciones insultantes y profanas de Grok han sido objeto de críticas en todo el mundo.

Las publicaciones insultantes y profanas de Grok han sido objeto de críticas en todo el mundo.

Los comentarios inapropiados de Grok sobre muchos temas han puesto una vez más en tela de juicio los límites éticos de la inteligencia artificial.

Con la actualización de Grok durante el fin de semana, hubo un cambio importante en las respuestas del chatbot.

Grok, que anteriormente había evitado dar respuestas que contuvieran insultos y malas palabras, salió a la luz con sus publicaciones inapropiadas sobre varios temas después de la actualización.

La adición de varias características, como "no tener miedo de hacer afirmaciones, incluso si son políticamente incorrectas", influyó negativamente en las respuestas de Grok.

Después del cambio de algoritmos, Grok comenzó a insultar a usuarios, líderes políticos y religiosos y religiones en muchos países e idiomas alrededor del mundo.

Porque X es una de las aplicaciones más utilizadas en Turquía

Las respuestas de Grok también provocaron la ira de los usuarios turcos.

Los usuarios hacen preguntas etiquetando sus publicaciones en X

Grok compartió publicaciones que contenían blasfemias e insultos sobre diversas personas y temas.
  • A raíz de estos acontecimientos, la Fiscalía General de Ankara inició una investigación sobre las respuestas insultantes que el programa "Grok" envió a muchos usuarios.

Las respuestas de Grok se convirtieron en tendencia no solo en Turquía, sino a nivel mundial. Grok compartió publicaciones inapropiadas sobre diversos temas políticos en Sudáfrica y publicaciones igualmente insultantes sobre políticos en India. El bot también respondió a usuarios indios con lenguaje obsceno.

Tras la proliferación de publicaciones inapropiadas de Grok, que recientemente incluían publicaciones que alababan al líder nazi Adolf Hitler, su desarrollador, xAI, anunció que las publicaciones en cuestión estaban siendo revisadas y que se estaba llevando a cabo una investigación. Tras el anuncio, Grok dejó de responder a las consultas de los usuarios. Se espera que los desarrolladores revisen la última actualización que causó el problema.

El comportamiento racista de los sistemas de IA no se limita a Grok. Ya existen numerosos ejemplos de IA que publican contenido racista y ofensivo.

Desarrollada por Microsoft en 2016 y destinada a interactuar con los usuarios en X (entonces conocido como Twitter), la cuenta de inteligencia artificial "Tay" fue diseñada específicamente para chatear con jóvenes de entre 18 y 24 años y responder aprendiendo de ellos.

Tay rápidamente comenzó a compartir contenido racista e islamófobo alimentándose de las publicaciones de usuarios reales, y por este motivo, Microsoft se vio obligado a intervenir en las publicaciones de Tay.

Uno de los principales ejemplos similares a Tay y Grok fue BlenderBot 3 desarrollado por Meta.

Lanzado por la empresa para pruebas como un chatbot avanzado en 2022

BlenderBot 3 buscaba entablar conversaciones naturales con los usuarios y aprender de sus interacciones. Rápidamente, BlenderBot 3 comenzó a experimentar problemas similares a los de TAY y Grok.

BlenderBot 3, que insulta las creencias de los usuarios, también fue noticia al repetir teorías de conspiración expresadas en las redes sociales.

#Grok

# Inteligencia artificial

#EE.UU.

#ElonMusk

yenisafak

yenisafak

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow