En los últimos años, el surgimiento de poderosos modelos de lenguaje como ChatGPT ha generado preocupaciones sobre el potencial de la desinformación generada por IA. Si bien era evidente la capacidad de las redes neuronales para generar historias de noticias engañosas pero plausibles, la verdadera pregunta era si las personas creerían y se verían influenciadas por esta desinformación. Esto llevó a investigadores del Laboratorio de Toma de Decisiones Sociales de la Universidad de Cambridge a investigar el impacto de las noticias falsas generadas por IA y sus implicaciones para la sociedad.
Para evaluar la susceptibilidad de las personas a las noticias falsas generadas por IA, el grupo de investigación desarrolló la Prueba de Susceptibilidad a la Desinformación (MIST, por sus siglas en inglés). Entrenaron a GPT-2, el predecesor de ChatGPT, con teorías de conspiración populares y utilizaron los titulares generados en colaboración con YouGov para llevar a cabo el experimento. Los resultados fueron alarmantes: el 41% de los estadounidenses creían un titular de noticias falsas sobre las vacunas y el 46% pensaba que el gobierno manipulaba el mercado financiero. Estos hallazgos resaltaron el peligro potencial de la desinformación generada por IA y su impacto en la opinión pública. Una investigación adicional publicada en la revista Science reveló aún más revelaciones preocupantes. El estudio demostró que GPT-3, un modelo de lenguaje aún más avanzado, producía desinformación más convincente que la generada por humanos. Aún más preocupante fue el hecho de que las personas no podían distinguir de manera confiable entre la desinformación generada por humanos y por IA. Esta incapacidad para diferenciar supone una amenaza significativa a medida que la IA se vuelve cada vez más sofisticada en la generación de noticias falsas realistas y persuasivas.
El año 2024 está preparado para presenciar un aumento en la influencia de la desinformación generada por IA en las elecciones. La potente combinación de imágenes generadas por IA y metraje real difumina la línea entre hechos y ficción. Ejemplos de años anteriores demuestran el impacto de la desinformación generada por IA en la sociedad. Una noticia falsa viral acompañada de una imagen generada por IA de un bombardeo en el Pentágono generó una gran indignación pública y afectó el mercado financiero. Las campañas políticas también han aprovechado la tecnología de IA, con un candidato utilizando imágenes falsas de sí mismo abrazando a una figura prominente para manipular el sentimiento público. En el pasado, difundir desinformación requería una inversión significativa y la intervención humana de empresas de ciberpropaganda y fábricas de trolls. Sin embargo, la democratización de la IA ha cambiado el panorama. Con la accesibilidad de la IA generativa, cualquier persona con acceso a un chatbot puede generar fácilmente innumerables historias de noticias falsas convincentes en minutos sobre una amplia gama de temas. Esto ha llevado a la proliferación de sitios de noticias generadas por IA, perpetuando narrativas falsas en diferentes plataformas y empañando aún más las aguas de la verdad.
Investigadores de la Universidad de Ámsterdam llevaron a cabo un experimento para evaluar el impacto de la desinformación generada por IA en las preferencias políticas. Crearon un video deepfake de un político haciendo comentarios ofensivos hacia su base de votantes religiosos. El estudio reveló que los votantes cristianos religiosos que vieron el video deepfake tenían actitudes más negativas hacia el político en comparación con el grupo de control. Este experimento demuestra el potencial de la desinformación generada por IA para influir en la opinión pública y moldear las preferencias políticas.
Si bien experimentar con la desinformación generada por IA en entornos controlados puede parecer inofensivo, su impacto potencial en la democracia es motivo de seria preocupación. La infiltración de deepfakes, clonación de voz, manipulación de identidad y noticias falsas producidas por IA amenaza los cimientos mismos de las elecciones democráticas. Para mitigar este riesgo, los gobiernos deben tomar medidas proactivas para regular y potencialmente prohibir el uso de IA en las campañas políticas. No hacerlo dejará nuestros procesos democráticos vulnerables a la manipulación y socavará los principios en los que se basan. El aumento de la desinformación generada por IA representa una amenaza significativa para la sociedad y la democracia en su conjunto. La capacidad de los poderosos modelos de lenguaje como ChatGPT para generar historias convincentes de noticias falsas tiene consecuencias de gran alcance. Con la democratización de la IA, la línea entre la verdad y la ficción se vuelve cada vez más borrosa. Es imperativo tomar medidas para combatir la propagación de la desinformación generada por IA, proteger la opinión pública y preservar la integridad de las elecciones democráticas. El momento de actuar es ahora.
Deja una respuesta