PUNTOS IMPORTANTES:
- Vitalik Buterin destaca el potencial de la IA para identificar y solucionar errores en el código de Ethereum.
- Experimentos con GPT-4 de OpenAI muestran resultados prometedores en la detección de vulnerabilidades en contratos inteligentes Solidity.
- Se recomienda precaución en la implementación de IA en aplicaciones blockchain de alto riesgo, subrayando la importancia de un uso complementario con la experiencia humana en codificación.
Vitalik Buterin, cofundador de Ethereum, ha compartido su entusiasmo por la inteligencia artificial (AI) en ayudar a identificar posibles fallos en la base de código de Ethereum.
El cofundador de Ethereum, Vitalik Buterin, afirma que la inteligencia artificial (AI) podría ser crucial para resolver uno de los «mayores riesgos técnicos» de Ethereum: errores ocultos profundamente en su código.
En una publicación del 18 de febrero en X, Buterin compartió su emoción por la auditoría impulsada por IA para identificar y corregir código defectuoso en la red Ethereum, describiéndola como el «mayor riesgo técnico» para la red.
Avances y desafíos en la implementación de IA
Los comentarios de Buterin llegan mientras Ethereum se acerca a la implementación de su esperada actualización Dencun, programada actualmente para el lanzamiento el 13 de marzo. Dencun se implementó en la testnet Goerli el 17 de enero, pero un bug en Prsym impidió que la red finalizara en la testnet durante cuatro horas. Las actualizaciones en la red Ethereum son cruciales para la hoja de ruta a largo plazo de la blockchain.
Sin embargo, no todos están de acuerdo en que la IA sea una herramienta confiable para detectar errores en el código basado en Ethereum.
En julio de 2023, OpenZeppelin realizó una serie de experimentos que utilizaron GPT-4 de OpenAI para identificar problemas de seguridad en contratos inteligentes Solidity — el lenguaje nativo del código de Ethereum.
Durante estos experimentos, GPT-4 identificó correctamente vulnerabilidades en 20 de 28 desafíos.
Cuando GPT-4 no logró identificar fallas, a menudo podía ser inducido rápidamente a corregir sus errores. Sin embargo, en otras ocasiones, OpenZeppelin encontró que la IA había inventado una vulnerabilidad que nunca había existido en primer lugar.
La visión prudente sobre el uso de IA
De manera similar, Kang Li, el director de seguridad en CertiK, le dijo a Cointelegraph que usar herramientas impulsadas por IA —como ChatGPT— en la codificación a menudo crea más problemas de seguridad de los que resuelve.
En general, Li recomienda que los asistentes de IA se utilicen solo como asistentes para codificadores experimentados, ya que pueden ser útiles para explicar rápidamente a los desarrolladores lo que significa una línea de código.
«Creo que ChatGPT es una herramienta de ayuda excelente para personas que realizan análisis de código e ingeniería inversa. Definitivamente es un buen asistente, y mejorará nuestra eficiencia tremendamente.»
Mientras que Buterin es en gran parte optimista sobre el futuro de la IA, previamente ha advertido a los desarrolladores que ejerzan precaución al implementar la IA con tecnología blockchain, especialmente cuando se despliega junto con aplicaciones de «alto riesgo», como oráculos.
«Es importante tener cuidado: si alguien construye, por ejemplo, un mercado de predicciones o una moneda estable que usa un oráculo de IA, y resulta que el oráculo es atacable, eso es una enorme cantidad de dinero que podría desaparecer en un instante».