PUNTOS IMPORTANTES:
- El crecimiento explosivo de las deepfakes plantea desafíos sin precedentes para la integridad de las elecciones en todo el mundo.
- Veinte empresas tecnológicas líderes, incluyendo Microsoft, Google y Amazon, se comprometen a combatir la desinformación electoral mediante IA.
- La industria busca establecer estándares técnicos y mecanismos de detección para identificar y contrarrestar contenido engañoso.
Un grupo de 20 empresas tecnológicas líderes anunció el viernes un compromiso conjunto para combatir la desinformación con IA en las elecciones de este año.
Entre ellos, Microsoft, Meta, Google, Amazon, IBM, Adobe, y el diseñador de chips Arm, junto con startups de inteligencia artificial como OpenAI, Anthropic, y Stability AI, y compañías de redes sociales como Snap, TikTok y X.
Las plataformas tecnológicas se están preparando para un año crucial de elecciones en todo el mundo, afectando a más de cuatro mil millones de personas en más de 40 países. El auge del contenido generado por IA ha llevado a serias preocupaciones sobre la desinformación relacionada con las elecciones, con un aumento del 900% año tras año en la creación de deepfakes.
Desafío de las deepfakes en elecciones
La desinformación en las elecciones ha sido un problema mayor desde la campaña presidencial de 2016, cuando actores rusos encontraron formas baratas y fáciles de esparcir contenido inexacto a través de plataformas sociales. Los legisladores están aún más preocupados hoy en día con el rápido aumento de la IA.
«Hay razón para una seria preocupación sobre cómo la IA podría ser usada para engañar a los votantes en campañas. Es alentador ver a algunas compañías unirse a la mesa, pero ahora mismo no veo suficientes especificaciones, por lo que probablemente necesitaremos legislación que establezca estándares claros.»
Josh Becker, un senador estatal demócrata en California.
Mientras tanto, las tecnologías de detección y marca de agua utilizadas para identificar deepfakes no han avanzado lo suficientemente rápido. Por ahora, las compañías solo están acordando lo que equivale a un conjunto de estándares técnicos y mecanismos de detección.
Problemas y soluciones en la lucha contra la desinformación
Tienen un largo camino por recorrer para combatir efectivamente el problema, que tiene muchas capas. Los servicios que afirman identificar texto generado por IA, como ensayos, por ejemplo, han mostrado tener sesgo contra hablantes no nativos de inglés. Y no es mucho más fácil para imágenes y videos.
Incluso si las plataformas detrás de imágenes y videos generados por IA acuerdan incorporar cosas como marcas de agua invisibles y ciertos tipos de metadatos, hay formas de eludir esas medidas de protección. Hacer capturas de pantalla incluso a veces puede engañar a un detector.
Además, las señales invisibles que algunas compañías incluyen en imágenes generadas por IA aún no han llegado a muchos generadores de audio y video.
Compromiso con la democracia
La noticia del acuerdo llega un día después de que el creador de ChatGPT, OpenAI, anunciara Sora, su nuevo modelo para video generado por IA. Sora funciona de manera similar a la herramienta de generación de imágenes IA de OpenAI, DALL-E. Un usuario escribe una escena deseada y Sora devolverá un clip de video en alta definición. Sora también puede generar clips de video inspirados en imágenes fijas, y extender videos existentes o llenar fotogramas faltantes.
Las compañías participantes en el acuerdo acordaron ocho compromisos de alto nivel, incluyendo evaluar los riesgos de los modelos, «buscar detectar» y abordar la distribución de dicho contenido en sus plataformas y proporcionar transparencia sobre esos procesos al público. Como con la mayoría de los compromisos voluntarios en la industria tecnológica y más allá, el comunicado especificó que los compromisos aplican solo «donde son relevantes para los servicios que cada compañía provee».
«La democracia se basa en elecciones seguras y protegidas,» dijo Kent Walker, presidente de asuntos globales de Google, en un comunicado. El acuerdo refleja el esfuerzo de la industria para enfrentar la «desinformación electoral generada por IA que erosiona la confianza,» agregó.
Christina Montgomery, jefa de privacidad y confianza de IBM, dijo en el comunicado que en este año electoral clave,
«Se necesitan medidas concretas y cooperativas para proteger a las personas y sociedades de los riesgos amplificados de contenido engañoso generado por IA».