PUNTOS IMPORTANTES:
- Cunningham renuncia acusando a OpenAI de actuar como propaganda corporativa.
- Ejecutivos instan a construir soluciones en lugar de publicar estudios críticos.
- La fuga de talento ético crece ante la valoración de 1 billón de dólares.
OpenAI ha publicado durante mucho tiempo investigaciones sobre la seguridad potencial y el impacto económico de su propia tecnología. Sin embargo, un nuevo informe de Wired sugiere que la compañía dirigida por Sam Altman se está volviendo más reservada al publicar estudios que pintan una verdad incómoda sobre los efectos negativos de la inteligencia artificial en la economía.
La percepción de censura se ha convertido en un punto de frustración tal que al menos dos empleados del equipo de investigación económica han renunciado, según fuentes citadas. Uno de ellos fue el investigador económico Tom Cunningham, quien en su mensaje de despedida interno escribió que el equipo se estaba desviando de hacer investigación real para actuar como el brazo de propaganda de su empleador.
Poco después de la partida de Cunningham, el director de estrategia de OpenAI, Jason Kwon, envió un memorando indicando que la empresa debería «construir soluciones», no solo publicar investigaciones sobre «temas difíciles».
«Mi punto de vista sobre los temas difíciles no es que no debamos hablar de ellos. Más bien, debido a que no somos solo una institución de investigación, sino también un actor en el mundo que pone el objeto de investigación en el mundo, se espera que asumamos la responsabilidad de los resultados».
Kwon en Slack.
Esta hostilidad hacia el trabajo que expone los riesgos y aspectos negativos de la IA es emblemática del alejamiento de OpenAI de sus raíces sin fines de lucro. La empresa se transforma en un gigante económico global que busca una valoración de 1 billón de dólares en una posible oferta pública inicial, lo que sería una de las mayores de la historia.
Conflictos financieros y éxodo de talento
Aunque su brazo sin fines de lucro sigue nominalmente al mando, OpenAI ha recaudado miles de millones en inversión y firmado acuerdos masivos. Por un lado, un fabricante de chips de IA acordó invertir hasta 100.000 millones de dólares en la empresa; por otro, OpenAI dice que pagará a Microsoft (MSFT) hasta 250.000 millones de dólares por sus servicios en la nube Azure.
Con ese dinero en juego, existen miles de millones de razones para no publicar hallazgos que sacudan la fe del público en su tecnología, como el potencial para destruir empleos o los riesgos existenciales. Actualmente, la investigación económica está supervisada por Aaron Chatterji, quien dirigió un informe reciente glorificando la productividad de ChatGPT, algo que un execonomista de la firma calificó de sospechoso.
Cunningham no es el único en irse por preocupaciones éticas. William Saunders, exmiembro del equipo de «Superalineación», dijo que renunció al darse cuenta de que se priorizaban los productos nuevos sobre la seguridad. Asimismo, el exinvestigador Steven Adler y el exjefe de política Miles Brundage han criticado la dificultad de publicar investigaciones honestas sobre los riesgos de la IA.
Descargo de responsabilidad: Toda la información encontrada en Bitfinanzas es dada con la mejor intención, esta no representa ninguna recomendación de inversión y es solo para fines informativos. Recuerda hacer siempre tu propia investigación.














