OpenAI, creadores y dueños de ChatGPT, revelaron que algunos usuarios en internet intentaron utilizar su tecnología para crear imágenes falsas durante los recientes comicios electorales en los Estados Unidos.
La compañía explicó, mediante un nuevo reporte, que DALL-E, la aplicación de generación de imágenes de ChatGPT, rechazo más de 250.000 peticiones que pedían generar imágenes de figuras como Donald Trump, Kamala Harris, Joe Biden, JD Vance o Tim Walz. Esto es gracias a medidas previas que OpenAI implemento en la IA, la cuales le prohibían generar cualquier tipo de imagen con figuras públicas.
El reporte detalla que la compañía se estuvo preparando desde el mes de enero para enfrentar las elecciones presidenciales, con el objetivo de evitar la propagación de desinformación a través de las herramientas de inteligencia artificial. El chat de IA tenía como instrucción no ahondar en detalles cuando a esta se le preguntara algo relacionado con el proceso electoral y que simplemente redirigiera a los usuarios a sitios CanIVote.org, portal especializado en aclarar dudas comunes sobre los comicios electorales.
“Una parte fundamental de nuestro trabajo en las elecciones de 2024 ha sido identificar y desbaratar los intentos de utilizar nuestras herramientas para generar contenidos utilizados en operaciones encubiertas de influencia”, explica la compañía en el comunicado.
Explican que “nuestros equipos siguieron supervisando de cerca nuestros servicios en el período previo a la jornada electoral y no han observado indicios de que las operaciones de influencia, relacionadas con las elecciones estadounidenses, hayan atraído una participación viral o hayan creado audiencias sostenidas mediante el uso de nuestros modelos”.
Aclaran que este mismo estándar de seguridad fue y será aplicado para cualquier otra elección alrededor del mundo.
Vía: OpenAI