Una de las preocupaciones en torno al uso de chatbots en campañas políticas se basa en las medidas que OpenAI implementó en enero. La compañía anunció que prohibiría a las personas utilizar su tecnología para crear chatbots que imiten a candidatos políticos o proporcionen información falsa relacionada con el voto. También se negó a permitir que se desarrollen aplicaciones para campañas políticas o cabildeo.
Aunque la página del chatbot de Kennedy no revela el modelo subyacente que lo impulsa, el código fuente del sitio conecta ese bot con LiveChatAI, una empresa que promociona su capacidad para ofrecer chatbots de atención al cliente impulsados por GPT-4 y GPT-3.5 a empresas. LiveChatAI describe sus bots como «aprovechando las capacidades de ChatGPT».
Según un portavoz de Microsoft, el chatbot de Kennedy «aprovecha las capacidades del Servicio OpenAI de Microsoft Azure». La compañía afirmó que sus clientes no están sujetos a los términos de servicio de OpenAI, y que el chatbot de Kennedy no violaba las políticas de Microsoft.
OpenAI no respondió de inmediato a una solicitud de comentarios por parte de WIRED sobre si el bot violaba sus reglas. A principios de este año, la empresa bloqueó al desarrollador de Dean.bot, un chatbot construido con los modelos de OpenAI que imitaba al candidato presidencial demócrata Dean Phillips y respondía preguntas de votantes.
Dado el potencial de los chatbots para alucinar y cometer errores, su uso en contextos políticos ha sido controvertido. Actualmente, OpenAI es el único gran modelo de lenguaje que prohíbe explícitamente su uso en campañas políticas. Otras empresas como Meta, Microsoft, Google y Mistral tienen términos de servicio, pero no abordan directamente la política. La facilidad con la que una campaña puede acceder a GPT-3.5 y GPT-4 a través de un tercero sin consecuencias, plantea escasas limitaciones.
Deja una respuesta