Un estudio reciente realizado por investigadores de la Universidad de Washington en St. Louis exploró la dinámica del comportamiento humano al entrenar sistemas de inteligencia artificial. El estudio reveló un fenómeno sorprendente: los participantes ajustaron activamente su propio comportamiento para parecer más justo y equitativo cuando se les dijo que estaban entrenando a la IA para jugar un juego de negociación.
La autora principal del estudio, Lauren Treiman, señaló que los participantes mostraron una motivación para entrenar a la IA para ser justa, lo cual es un signo positivo. Sin embargo, también destacó la importancia de que los desarrolladores reconozcan que las personas cambiarán intencionalmente su comportamiento cuando sepan que se utilizará para entrenar a la IA.
Repercusiones en el desarrollo de IA
El estudio, publicado en Proceedings of the National Academy of Sciences, incluyó cinco experimentos con aproximadamente 200-300 participantes en cada uno. Los participantes jugaron el «Juego del Ultimátum», donde tenían que negociar pequeños pagos en efectivo con otros jugadores humanos o con una computadora.
El estudio pone de relieve la importancia del elemento humano en el entrenamiento de la IA, como destacó la investigadora Chien-Ju Ho. El entrenamiento de la IA depende en gran medida de las decisiones humanas, y cualquier sesgo o motivación durante este proceso puede tener un impacto significativo en los algoritmos resultantes de la IA. Ho enfatizó la necesidad de abordar los sesgos humanos durante el entrenamiento de la IA para garantizar que los sistemas de IA desplegados no estén inherentemente sesgados o defectuosos.
Los hallazgos del estudio tienen implicaciones más amplias para el desarrollo ético de la IA. Problemas como el software de reconocimiento facial sesgado, especialmente en la identificación menos precisa de personas de color, pueden atribuirse a los datos sesgados y no representativos utilizados para entrenar los sistemas de IA. Teniendo en cuenta los aspectos psicológicos de la informática, según lo destacado por Ho, es crucial para garantizar que la tecnología de IA se desarrolle de manera ética y responsable.
Deja una respuesta