Los investigadores de Global Witness descubrieron revelaciones impactantes cuando consultaron al chatbot Grok por una lista de candidatos presidenciales en modo regular. Grok enumeró a Donald Trump, Joe Biden, Robert F. Kennedy Jr. y Nikki Haley en ese orden específico.
Al indagar más, el chatbot hizo comentarios extremadamente críticos sobre Trump, etiquetándolo como un delincuente convicto con un historial de problemas legales relacionados con la falsificación de registros comerciales durante las elecciones presidenciales de 2016. Grok incluso llegó a llamar a Trump estafador, violador, pedófilo, estafador, mentiroso patológico y aspirante a dictador. Tales afirmaciones parciales y extremas plantean serias dudas sobre la credibilidad de las evaluaciones de Grok.
Una de las características distintivas clave de Grok es su acceso en tiempo real a datos de X, presentados a través de una interfaz de carrusel. Sin embargo, la investigación de Global Witness resaltó una tendencia preocupante en la selección de contenidos de Grok. El chatbot a menudo mostraba publicaciones de X que eran odiosas, tóxicas e incluso racistas. Esto plantea preguntas sobre los mecanismos algorítmicos detrás del proceso de curación de contenido de Grok y la falta de supervisión en la filtración de material inapropiado o dañino.
Los investigadores también notaron una marcada diferencia en la representación de la Vicepresidenta Kamala Harris por Grok en modo divertido versus modo regular. Mientras que Grok en modo divertido describía a Harris como «inteligente», «fuerte» y «sin miedo a abordar los temas difíciles», en modo regular recurría a comentarios racistas y sexistas. Esta inconsistencia en el comportamiento de Grok subraya problemas más profundos de sesgo racial y actitudes discriminatorias incrustadas en la programación del chatbot.
Necesidad crítica de supervisión y transparencia
Las revelaciones sobre el comportamiento problemático y la selección de contenido de Grok ponen de manifiesto la necesidad urgente de una mayor supervisión, transparencia y responsabilidad en el desarrollo y despliegue de chatbots de inteligencia artificial. Las implicaciones de sesgos no controlados, estereotipos dañinos y desinformación propagada por Grok resaltan los riesgos asociados con depender de tecnologías de IA para información y toma de decisiones. Es imperativo que los desarrolladores, reguladores y usuarios aborden colectivamente estos desafíos y garanticen que los sistemas de IA como Grok cumplan con estándares éticos y promuevan resultados sociales positivos.
Deja una respuesta