PUNTOS IMPORTANTES:
- Las principales empresas de IA, como OpenAI, Google y Microsoft, se han comprometido a desarrollar tecnología segura y transparente.
- Los compromisos incluyen pruebas de seguridad antes del lanzamiento, compartición de mejores prácticas en seguridad de la IA, y habilitación de informes de terceros sobre vulnerabilidades.
- Se están estableciendo colaboraciones globales para un marco de IA internacional, y hay una inversión en investigación y desarrollo de IA por parte de la National Science Foundation.
En una movida de gran trascendencia para la industria, el 21 de julio, la Casa Blanca anunció que destacadas empresas de Inteligencia Artificial (IA), incluyendo OpenAI, Google y Microsoft, se han comprometido a desarrollar tecnología de IA que sea segura, robusta y transparente. Esta iniciativa refuerza la importancia de la seguridad en la IA, un concepto que cada vez toma mayor relevancia en un mundo dominado por la tecnología.
Además, la Casa Blanca reconoció a otras empresas como Amazon, Anthropic, Meta e Inflection por comprometerse con la seguridad de la IA. Aseguró que estas empresas tienen la responsabilidad de garantizar la seguridad de sus productos y aprovechar al máximo el potencial de la IA, siempre promoviendo altos estándares en su desarrollo.
Por otro lado, Kent Walker, presidente de asuntos globales de Google, afirmó que para alcanzar el éxito en la IA es necesaria una colaboración abierta. Expresó su satisfacción al unirse a otras empresas líderes en la IA para apoyar estos compromisos, y aseguró que Google seguirá trabajando con otras empresas compartiendo información y mejores prácticas.
Medidas clave para una IA segura y transparente
Entre los compromisos se incluyen la realización de pruebas de seguridad antes del lanzamiento de los sistemas de IA, la compartición de mejores prácticas en la seguridad de la IA, la inversión en ciberseguridad y la protección contra amenazas internas, y la habilitación de informes de terceros sobre vulnerabilidades en los sistemas de IA. Anna Makanju, vicepresidenta de asuntos globales de OpenAI, declaró que los legisladores de todo el mundo están contemplando nuevas regulaciones para los sistemas avanzados de IA.
Cabe mencionar que, en junio, legisladores bipartidistas de Estados Unidos presentaron un proyecto de ley para crear una comisión de IA que aborde las preocupaciones en la industria en rápido crecimiento. No obstante, la administración Biden informa que está colaborando con socios globales como Australia, Canadá, Francia, Alemania, India, Israel, Italia, Japón, Nigeria, Filipinas y el Reino Unido para establecer un marco internacional para la IA.
Según el presidente de Microsoft, Brad Smith, la compañía respalda los compromisos voluntarios de la Casa Blanca e independientemente se compromete con prácticas adicionales que se alinean con los objetivos. Con esto, Microsoft busca expandir sus prácticas seguras y responsables en la IA y colaborar con otros líderes de la industria.
En otro orden de ideas, líderes globales, incluyendo al secretario general de las Naciones Unidas, han expresado preocupaciones acerca del posible mal uso de la IA generativa y la tecnología de deepfake en zonas de conflicto.
En mayo, la vicepresidenta de EE.UU., Kamala Harris, se reunió con líderes de la IA para establecer las bases para el desarrollo ético de la IA, y anunció una inversión de 140 millones de dólares en investigación y desarrollo de la IA por parte de la National Science Foundation.