• Nuestro Equipo
  • Anunciate
  • Contactanos
sábado, mayo 16, 2026
Bitfinanzas
Quantfury
Siga los mercados en TradingView
  • Finanzas
    • Acciones
    • Divisas
    • Commodities
    • Earnings
  • Cripto
    • Bitcoin
    • Altcoins
    • Blockchain
    • DeFi
  • Herramientas
    • Calendario Económico
    • Calendario de Earnings
  • Formación
  • Nuestro Broker
No Result
Ver todos los resultados
Bitfinanzas
  • Finanzas
    • Acciones
    • Divisas
    • Commodities
    • Earnings
  • Cripto
    • Bitcoin
    • Altcoins
    • Blockchain
    • DeFi
  • Herramientas
    • Calendario Económico
    • Calendario de Earnings
  • Formación
  • Nuestro Broker
Plugin Install : Cart Icon need WooCommerce plugin to be installed.
Bitfinanzas

IA de Google: Aumento del 40% en habilidades de codificación

Sergio Sánchez Escrito por Sergio Sánchez
2 años atrás
En Sector Tecnologico
0
Comparte en FacebookComparte en TwitterComparte en RedditComparte en TelegramComparte por Whatsapp

PUNTOS IMPORTANTES:

  • Google desarrolla un método para mejorar modelos de lenguaje grandes (LLM) con otros modelos, mejorando significativamente su rendimiento.
  • El modelo PaLM2-S de Google, similar a GPT-4, mostró mejoras del 40% en tareas de codificación tras su mejora.
  • Esta innovación podría tener implicaciones legales importantes para el uso de datos con derechos de autor en la IA.

La inteligencia artificial (IA) ha dado un salto significativo gracias a los investigadores de Google Research y Google DeepMind. Han desarrollado un método que permite ampliar un modelo de lenguaje grande (LLM) con otros modelos de lenguaje.

Este avance aborda uno de los problemas más grandes con los LLM, permitiendo a los desarrolladores dotar a los modelos existentes de nuevas habilidades sin necesidad de empezar desde cero o realizar costosas sesiones de reentrenamiento o ajuste fino.

Quantfury Quantfury Quantfury

Mejoras significativas en tareas xxistentes

El equipo de Google Research explica que complementar un LLM con otro mejora significativamente su rendimiento en tareas existentes y habilita nuevas tareas antes imposibles para los modelos de forma individual.

Esta mejora se demostró claramente en su investigación con el modelo PaLM2-S de Google, comparable a GPT-4.

Articulosde interes

Dossier azul NVIDIA 'China Trade Strategic Pivot' y chip H20 en almohadilla.

El acuerdo de Nvidia en China es un asunto mayor por un motivo inesperado

15 de mayo de 2026
630
Monitor que muestra una gráfica financiera con texto sobre dominio tecnológico y rotación de valor.

La Rotación bursátil encara un giro tras 6 semanas de dominio de la tecnología

14 de mayo de 2026
597
Quantfury Quantfury Quantfury

Tras su mejora con modelos de lenguaje especializados y más pequeños, PaLM2-S exhibió notables avances. Por ejemplo, en tareas de traducción, la versión mejorada logró un incremento de rendimiento de hasta un 13% en comparación con el modelo base. Asimismo, en tareas de codificación, el modelo híbrido alcanzó una mejora relativa del 40%.

Implicaciones potencialmente masivas

Estas ganancias de rendimiento tienen implicaciones inmediatas para el sector de la IA. Por ejemplo, el aumento de rendimiento en tareas de traducción es particularmente significativo al traducir idiomas con poco soporte al inglés. Además, esta línea de investigación podría abordar problemas legales potenciales que amenazan a las empresas tecnológicas en el sector de la IA, especialmente en relación con el uso de datos con derechos de autor.

Derechos de autor vs. inteligencia artificial

Los creadores de algunos de los modelos de lenguaje más populares enfrentan demandas por alegaciones de que estos sistemas de IA se entrenan con datos con derechos de autor.

Quantfury Quantfury Quantfury

La cuestión clave es si una empresa con fines de lucro puede usar legalmente estos datos para entrenar sus modelos de lenguaje. Si los tribunales dictaminan que los desarrolladores no pueden usar dichos datos y que cualquier modelo entrenado con material con derechos de autor debe ser purgado, podría ser técnicamente imposible o financieramente inviable continuar ofreciendo los servicios afectados.

La innovación de Google en la ampliación de modelos de IA podría mitigar muchos de los requisitos de escalabilidad y costos de desarrollar un LLM desde cero o reentrenar uno existente, marcando un hito en el campo de la inteligencia artificial.

Etiquetas: GoogleIAInteligenciaArtificial

Articulos Relacionados

Cathie Wood junto a hardware de IA en entorno tecnológico sobrio.

Cathie Wood compra la IPO de IA más exitosa del año: ¿Por qué ARK apuesta por Cerebras?

15 de mayo de 2026
642
Dossier azul NVIDIA 'China Trade Strategic Pivot' y chip H20 en almohadilla.

El acuerdo de Nvidia en China es un asunto mayor por un motivo inesperado

15 de mayo de 2026
630
Logo de Cerebras junto a hardware de IA en entorno bursátil.

Cerebras salta un 68% tras su debut en bolsa y su CEO anticipa mayores avances

14 de mayo de 2026
693
83054191 - alibaba.com logo on the glass against blurred business center. editorial 3d rendering

Alibaba redobla su apuesta en medio de pérdidas

13 de mayo de 2026
679
Oblea de semiconductores en laboratorio industrial de alta tecnología.

El sector de semiconductores suma 3,8 billones mientras la demanda de IA crece

11 de mayo de 2026
675
Mano de ejecutivo estampando "RISK" en documento de Análisis del Modelo Anthropic.

Anthropic desata el pánico en Wall Street con un modelo de IA que detecta 1.000 vulnerabilidades

10 de mayo de 2026
810
Planta industrial nocturna de USA Rare Earth con cartel y gráfico de "+114% ROADMAP 2030".

USA Rare Earth registra un alza del 114% tras asegurar capital para su meta de 2030

13 de mayo de 2026
715

Mercado inmobiliario en EEUU continúa bajo tensión

11 de mayo de 2026
668
tom lee ethereum Cathie Wood lo respalda.

5 claves del rally Ethereum a $12 000 según Tom Lee y Cathie Wood

14 de mayo de 2026
641
El mercado global reacciona a factores económicos y geopolíticos con fuerte impacto en activos clave.

Mercado hoy: Wall Street mixto ante cumbre de Trump y Xi en China

13 de mayo de 2026
554
Moneda de Bitcoin en primer plano con varias monedas desenfocadas.

Bitcoin todavía está en su “fase Amazon”: ¿Qué significa?

14 de mayo de 2026
832
Logo de JPMorgan junto a activos tokenizados en entorno premium

JPMorgan lanza fondo de tokenización en Ethereum para reservas de stablecoins

13 de mayo de 2026
570

Nuestras Redes:

  • 49.6k Followers
  • 4.7k Followers
Bitfinanzas diario de criptomonedas y finanzas

Portal de noticias financieras y de criptomonedas.

De Interes:

  • Acciones
  • Al cierre con bitfinanzas
  • Altcoins
  • Análisis técnico Acciones
  • Análisis técnico Commodities
  • Análisis técnico Cripto
  • Análisis técnico Indices
  • Bitcoin
  • Bitcoin
  • bitfinanzas tv
  • Blockchain
  • Commodities
  • Cripto
  • DeFi
  • Divisas
  • Earnings
  • En tendencia
  • Energía
  • Finanzas
  • formacion
  • Glosario
  • Herramientas
  • Juegos Blockchain
  • Mercado Laboral
  • Metaverso
  • Mundo
  • NFT
  • Podcast
  • sector energético
  • Sector Financiero
  • Sector Tecnologico
  • Streamings
  • Terra
No Result
Ver todos los resultados
📬

Suscríbete a nuestra Newsletter

Recibe contenido exclusivo sobre finanzas, inversiones y análisis de mercado directamente en tu email.

  • Acerca de nosotros
  • Politica Editorial
  • Nuestro Equipo
  • Contactanos
  • Anunciate

© 2022-2026 BitFinanzas - Hecho por Team DM. 😎

No Result
Ver todos los resultados
  • Inicio
  • Finanzas
    • Acciones
    • Divisas
    • Commodities
    • Earnings
  • Cripto
    • Bitcoin
    • Altcoins
    • Blockchain
    • DeFi
  • Herramientas
    • Calendario Económico
    • Calendario de Earnings
  • Formación
  • Contactanos
  • Anunciate
  • Nuestro Broker

© 2022-2026 BitFinanzas - Hecho por Team DM. 😎

Este sitio web utiliza cookies. Al continuar utilizando este sitio web, está dando su consentimiento para el uso de cookies. Visite nuestra Política de privacidad y cookies para saber más.