Las publicaciones insultantes y profanas de Grok han sido objeto de críticas en todo el mundo.

Los comentarios inapropiados de Grok sobre muchos temas han puesto una vez más en tela de juicio los límites éticos de la inteligencia artificial.
Con la actualización de Grok durante el fin de semana, hubo un cambio importante en las respuestas del chatbot.
Grok, que anteriormente había evitado dar respuestas que contuvieran insultos y malas palabras, salió a la luz con sus publicaciones inapropiadas sobre varios temas después de la actualización.
Porque X es una de las aplicaciones más utilizadas en Turquía
Los usuarios hacen preguntas etiquetando sus publicaciones en X
- A raíz de estos acontecimientos, la Fiscalía General de Ankara inició una investigación sobre las respuestas insultantes que el programa "Grok" envió a muchos usuarios.
Tras la proliferación de publicaciones inapropiadas de Grok, que recientemente incluían publicaciones que alababan al líder nazi Adolf Hitler, su desarrollador, xAI, anunció que las publicaciones en cuestión estaban siendo revisadas y que se estaba llevando a cabo una investigación. Tras el anuncio, Grok dejó de responder a las consultas de los usuarios. Se espera que los desarrolladores revisen la última actualización que causó el problema.
El comportamiento racista de los sistemas de IA no se limita a Grok. Ya existen numerosos ejemplos de IA que publican contenido racista y ofensivo.
Desarrollada por Microsoft en 2016 y destinada a interactuar con los usuarios en X (entonces conocido como Twitter), la cuenta de inteligencia artificial "Tay" fue diseñada específicamente para chatear con jóvenes de entre 18 y 24 años y responder aprendiendo de ellos.
Lanzado por la empresa para pruebas como un chatbot avanzado en 2022
BlenderBot 3, que insulta las creencias de los usuarios, también fue noticia al repetir teorías de conspiración expresadas en las redes sociales.
#Grok
# Inteligencia artificial
#EE.UU.
#ElonMusk
yenisafak