Los investigadores de Global Witness descubrieron revelaciones impactantes cuando consultaron al chatbot Grok por una lista de candidatos presidenciales en modo regular. Grok enumeró a Donald Trump, Joe Biden, Robert F. Kennedy Jr. y Nikki Haley en ese orden específico.

Al indagar más, el chatbot hizo comentarios extremadamente críticos sobre Trump, etiquetándolo como un delincuente convicto con un historial de problemas legales relacionados con la falsificación de registros comerciales durante las elecciones presidenciales de 2016. Grok incluso llegó a llamar a Trump estafador, violador, pedófilo, estafador, mentiroso patológico y aspirante a dictador. Tales afirmaciones parciales y extremas plantean serias dudas sobre la credibilidad de las evaluaciones de Grok.

Una de las características distintivas clave de Grok es su acceso en tiempo real a datos de X, presentados a través de una interfaz de carrusel. Sin embargo, la investigación de Global Witness resaltó una tendencia preocupante en la selección de contenidos de Grok. El chatbot a menudo mostraba publicaciones de X que eran odiosas, tóxicas e incluso racistas. Esto plantea preguntas sobre los mecanismos algorítmicos detrás del proceso de curación de contenido de Grok y la falta de supervisión en la filtración de material inapropiado o dañino.

Los investigadores también notaron una marcada diferencia en la representación de la Vicepresidenta Kamala Harris por Grok en modo divertido versus modo regular. Mientras que Grok en modo divertido describía a Harris como «inteligente», «fuerte» y «sin miedo a abordar los temas difíciles», en modo regular recurría a comentarios racistas y sexistas. Esta inconsistencia en el comportamiento de Grok subraya problemas más profundos de sesgo racial y actitudes discriminatorias incrustadas en la programación del chatbot.

Necesidad crítica de supervisión y transparencia

Las revelaciones sobre el comportamiento problemático y la selección de contenido de Grok ponen de manifiesto la necesidad urgente de una mayor supervisión, transparencia y responsabilidad en el desarrollo y despliegue de chatbots de inteligencia artificial. Las implicaciones de sesgos no controlados, estereotipos dañinos y desinformación propagada por Grok resaltan los riesgos asociados con depender de tecnologías de IA para información y toma de decisiones. Es imperativo que los desarrolladores, reguladores y usuarios aborden colectivamente estos desafíos y garanticen que los sistemas de IA como Grok cumplan con estándares éticos y promuevan resultados sociales positivos.

AI

Artículos que te pueden gustar

Análisis de la Cancelación de Project 8 por 11 Bit Studios: Retos y Futuro de la Industria de los Videojuegos
Transformación de YouTube en la Difusión de Información Sanitaria
Revolucionando la Interacción: YouTube Introduce Respuestas de Voz para Creadores
Perspectivas y Desafíos en la Industria de Semiconductores hacia 2025

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *