Seleccione idioma

Spanish

Down Icon

Seleccione país

Turkey

Down Icon

No debemos creer ciegamente en la inteligencia artificial.

No debemos creer ciegamente en la inteligencia artificial.

Grok, un bot de chat desarrollado por la empresa de inteligencia artificial xAI, propiedad de Elon Musk, y utilizado frecuentemente por los usuarios de X para confirmar diversas opiniones, ha llamado recientemente la atención mundial con sus respuestas profanas e insultantes.

Tras las respuestas sesgadas e insultantes de Grok, la fiabilidad de la inteligencia artificial (IA), considerada "totalmente cierta" por algunos usuarios, ha vuelto a cobrar protagonismo. El Prof. Asociado Dr. Şebnem Özdemir, director del Departamento de Sistemas de Información de Gestión de la Universidad de İstinye y miembro de la Junta de la Asociación de Políticas de Inteligencia Artificial (AIPA), comentó al respecto, afirmando que toda la información, ya sea proporcionada por IA o alojada en el mundo digital, requiere verificación.

Özdemir afirmó: «Si bien incluso la información que se transmite de persona a persona necesita confirmación, creer ciegamente en la inteligencia artificial es una actitud muy romántica. Esto se debe a que, en última instancia, esta máquina se alimenta de otra fuente. Así como no deberíamos creer en la información digital sin verificarla, también debemos recordar que la inteligencia artificial puede aprender de la desinformación».

Imagen

Özdemir afirmó que la gente confía rápidamente en la inteligencia artificial, y que esto es un error. Dijo: «La capacidad de los humanos para manipular, su capacidad de transmitir lo que escuchan de una manera diferente o de transformar algo en algo completamente distinto para sus propios intereses, es un proceso muy familiar. Los humanos lo hacen con una intención y un propósito específicos. Si nos preguntamos si la inteligencia artificial lo hace con una intención o un propósito, la respuesta es no. En definitiva, la inteligencia artificial es una máquina que aprende de los recursos que se le proporcionan».

"La inteligencia artificial puede estar entrenada incorrectamente o sesgada"

Özdemir, quien señaló que la inteligencia artificial tiene una estructura que aprende lo que se le da, al igual que los niños, subrayó que no se puede confiar en la inteligencia artificial si no se sabe dónde y cómo se alimenta.

Özdemir afirmó: «La inteligencia artificial puede entrenarse de forma incorrecta o sesgada. En definitiva, también puede utilizarse como arma para destruir la reputación o para manipular a las sociedades».

Imagen

Tras las respuestas insultantes de Grok, Özdemir abordó la preocupación por el descontrol de la IA, diciendo: "¿Es posible controlar la IA? No, no lo es. No es correcto pensar que podemos controlar algo cuyo coeficiente intelectual avanza tan rápidamente. Debemos aceptarla como una entidad. Debemos encontrar la manera de llegar a acuerdos, comunicarnos y ponernos al día".

"No deberíamos tener miedo de la inteligencia artificial, sino de las personas que no se comportan moralmente".

Özdemir dio ejemplos de cómo la inteligencia artificial se ha salido de control y continuó:

En 2016, Microsoft llevó a cabo el famoso experimento Tay. Tay puede considerarse, de hecho, una versión primitiva de Grok, o quizás una inteligencia artificial generativa. Si bien al principio la máquina no tenía pensamientos negativos hacia la humanidad, en 24 horas aprendió sobre el mal, el genocidio y el racismo gracias a los estadounidenses que conversaron con ella.

De hecho, en menos de 24 horas, empezó a tuitear: «Ojalá pudiéramos meter a la gente negra y a sus hijos en un campo de concentración para salvarnos». O, haciendo referencia al conflicto entre Estados Unidos y México en aquel momento, recomendó construir un muro en México. Tay no lo inventó solo. Lo aprendió de la gente. No deberíamos temerle a la inteligencia artificial, sino a la gente inmoral.

Cumhuriyet

Cumhuriyet

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow