PUNTOS IMPORTANTES:
- Google y OpenAI discrepan sobre la regulación gubernamental de la inteligencia artificial (IA).
- OpenAI promueve una nueva agencia centrada en la IA, mientras que Google prefiere un enfoque multilateral y multi-interesado para la gobernanza de la IA.
- El debate sobre la necesidad de un ente regulador centralizado o autoridades regulatorias sectoriales existentes para la IA está en auge.
Google y OpenAI, dos líderes estadounidenses en inteligencia artificial, tienen ideas opuestas sobre cómo debería ser regulada la tecnología por el gobierno, revela un nuevo documento.
El lunes, Google presentó un comentario en respuesta a la solicitud de la Administración Nacional de Telecomunicaciones e Información sobre cómo considerar la responsabilidad de la IA en un momento en que la tecnología avanza rápidamente. Google es uno de los principales desarrolladores de IA generativa con su chatbot Bard, junto a OpenAI, respaldado por Microsoft, con su bot ChatGPT.
Mientras Sam Altman, CEO de OpenAI, promovió la idea de una nueva agencia gubernamental centrada en la IA para lidiar con sus complejidades y licenciar la tecnología, Google en su documento expresó que prefiere un «enfoque multilateral y multi-interesado para la gobernanza de la IA».
«A nivel nacional, apoyamos un enfoque de hub-and-spoke – con una agencia central como el Instituto Nacional de Estándares y Tecnología (NIST) informando a los reguladores sectoriales que supervisan la implementación de la IA – en lugar de un ‘Departamento de IA'», escribió Google en su documento. «La IA presentará problemas únicos en servicios financieros, atención médica y otras industrias y áreas reguladas que se beneficiarán de la experiencia de los reguladores con experiencia en esos sectores – que funciona mejor que una nueva agencia reguladora promulgando e implementando reglas al inicio que no son adaptables a los diversos contextos en los que se despliega la IA».
Investigadores en el sector de la IA , han expresado opiniones similares, argumentando que la regulación gubernamental de la IA puede ser una mejor manera de proteger a las comunidades marginadas – a pesar del argumento de OpenAI de que la tecnología avanza demasiado rápido para tal enfoque.
Emily M. Bender, profesora y directora del Laboratorio de Lingüística Computacional de la Universidad de Washington, publicó en Twitter que «los sistemas llamados ‘IA’ no deberían ser desplegados sin algún tipo de proceso de certificación primero. Pero ese proceso debería depender de para qué es el sistema. Las agencias reguladoras existentes deberían mantener su jurisdicción. Y afirmarla».
Esto contrasta con la preferencia de OpenAI y Microsoft por un modelo regulatorio más centralizado. El presidente de Microsoft, Brad Smith, ha dicho que apoya una nueva agencia gubernamental para regular la IA, y los fundadores de OpenAI, Altman, Greg Brockman e Ilya Sutskever han expresado públicamente su visión para regular la IA de manera similar a la energía nuclear, bajo un organismo regulador global de IA similar a la Agencia Internacional de Energía Atómica.
Los ejecutivos de OpenAI escribieron en una entrada de blog que «cualquier esfuerzo que supere un cierto umbral de capacidad (o recursos como computación) tendrá que estar sujeto a una autoridad internacional que pueda inspeccionar sistemas, requerir auditorías, probar la conformidad con las normas de seguridad y poner restricciones a los grados de despliegue y niveles de seguridad».
En una entrevista con el Post, el Presidente de Asuntos Globales de Google, Kent Walker, dijo que no se opone a la idea de un nuevo regulador para supervisar la licencia de los grandes modelos de lenguaje, pero afirmó que el gobierno debería ver la tecnología «más holísticamente». Y el NIST, según él, ya está bien posicionado para tomar la delantera.
Las aparentemente opuestas opiniones de Google y Microsoft sobre la regulación indican un creciente debate en el espacio de la IA, que va mucho más allá de cuánto debe ser regulada la tecnología y se adentra en cómo debería funcionar la logística organizativa.
«Hay esta cuestión de si debería haber una nueva agencia específicamente para la IA o no», dijo Helen Toner, directora del Centro para la Seguridad y la Tecnología Emergente de Georgetown a CNBC, añadiendo, «¿Deberías manejar esto con las autoridades reguladoras existentes que trabajan en sectores específicos, o debería haber algo centralizado para todo tipo de IA?».