PUNTOS IMPORTANTES:
- Satya Nadella observa un consenso global emergente en IA, destacando la necesidad de un enfoque regulatorio unificado.
- Microsoft ha invertido significativamente en OpenAI, integrando la IA en varios de sus productos.
- La regulación global de la IA es vista como esencial para abordar desafíos globales, con la necesidad de estándares y salvaguardias comunes.
El CEO de Microsoft, Satya Nadella, dijo el martes que ve surgir un consenso global en lo que respecta a la inteligencia artificial, y que, aunque los enfoques regulatorios de la tecnología pueden diferir de una jurisdicción a otra, los países están hablando de la inteligencia artificial de manera similar.
Hablando en el Foro Económico Mundial en Davos, Suiza, Nadella dijo que siente la necesidad de una coordinación global en IA y de acordar un conjunto de estándares y salvaguardias apropiadas para la tecnología.
“Creo [que un enfoque regulatorio global para la IA es] muy deseable, porque creo que ahora estamos en este punto donde estos son desafíos globales que requieren normas y estándares globales”.
Nadella, hablando en conversación con Klaus Schwab, presidente del WEF.
Microsoft es un jugador importante en la carrera entre grandes empresas tecnológicas estadounidenses hacia la inteligencia artificial. La empresa con sede en Redmond, Washington, ha invertido miles de millones de dólares en OpenAI, la firma detrás del popular chatbot de IA ChatGPT.
Inversiones de Microsoft en OpenAI
La compañía realizó su primera inversión en OpenAI en 2019, contribuyendo con 1.000 millones de dólares en efectivo. Luego, Microsoft acaparó titulares el año pasado, cuando supuestamente invirtió otros 10.000 millones de dólares en OpenAI, elevando su inversión total hasta la fecha a 13.000 millones de dólares.
Además, Microsoft no solo ha invertido financieramente en OpenAI, sino que también ha integrado tecnología de OpenAI en sus productos de Office, Bing y Windows. Asimismo, la compañía proporciona a OpenAI acceso a sus propias herramientas de computación en la nube Azure, facilitando una colaboración más profunda y funcional entre ambas entidades.
Los países han estado impulsando un consenso sobre las reglas que rigen la IA, en respuesta a preocupaciones de que la tecnología podría dejar a millones de personas sin trabajo y alterar elecciones, entre otras cosas.
El año pasado, en una cumbre de seguridad de inteligencia artificial en el Reino Unido, líderes mundiales acordaron una declaración histórica para unirse en estándares y marcos globales para el desarrollo seguro de la IA.
“Si tuviera que resumir el estado de juego, la forma en que creo que todos estamos hablando de ello es que está claro que, cuando se trata de modelos de lenguaje de gran tamaño, deberíamos tener evaluaciones rigurosas y ‘red teaming’ y seguridad y salvaguardias antes de lanzar algo nuevo».
Dijo Nadella. El ‘red teaming’ es un término que describe la prueba de vulnerabilidades de la IA.
Enfoque basado en riesgos para aplicaciones de IA
“Y luego, cuando se trata de aplicaciones, deberíamos tener una evaluación basada en el riesgo de cómo desplegar esta tecnología”.
Nadella dijo que no estaba seguro si una agencia global de IA para establecer coordinación en la regulación de la IA era posible, pero agregó que ve a los países hablando de aplicar salvaguardias a la IA de la misma manera.
“Si la estás desplegando en el sector de la salud, deberías aplicar [regulaciones de] salud a la IA, si la estás desplegando en servicios financieros, deberías aplicar los riesgos financieros o consideraciones”.