SK Hynix completó el desarrollo de HBM4, su producto de memoria de próxima generación para IA de ultra alto rendimiento. La empresa surcoreana también estableció un sistema de producción en masa de estos chips de memoria de alto ancho de banda para sus clientes.
Según informó la compañía, este chip semiconductor interconecta verticalmente múltiples chips DRAM y aumenta la velocidad de procesamiento de datos en comparación con los productos DRAM convencionales. SK Hynix confía en que la producción masiva de los chips HBM4 liderará la industria de inteligencia artificial.
SK Hynix prepara la producción masiva de HBM4
La empresa desarrolló su producto basándose en el reciente aumento dramático en la demanda de IA y procesamiento de datos, que requiere memoria de alto ancho de banda para una mayor velocidad del sistema. También considera que asegurar la eficiencia energética de la memoria se ha convertido en un requisito clave para los clientes, ya que el consumo energético para la operación de centros de datos ha aumentado considerablemente.
El proveedor de semiconductores espera que el mayor ancho de banda y eficiencia energética del HBM4 sea la solución óptima para satisfacer las necesidades de los clientes. La producción de esta nueva generación implica apilar chips verticalmente para ahorrar espacio y reducir el consumo de energía, lo que ayuda a procesar grandes volúmenes de datos generados por complejas aplicaciones de IA.
"La finalización del desarrollo de HBM4 será un nuevo hito para la industria. Al suministrar el producto que satisface las necesidades del cliente en rendimiento, eficiencia energética y fiabilidad de manera oportuna, la empresa cumplirá con los plazos de comercialización y mantendrá una posición competitiva."
–Joohwan Cho, Jefe de Desarrollo de HBM en SK Hynix.
La empresa surcoreana reveló que su nuevo producto tiene la mejor velocidad de procesamiento de datos y eficiencia energética de la industria. Según el informe, el ancho de banda del chip se ha duplicado respecto a la generación anterior al adoptar 2.048 terminales I/O, y su eficiencia energética ha aumentado más del 40%.
SK Hynix también afirmó que HBM4 mejorará el rendimiento del servicio de IA hasta en un 69% cuando se aplique el producto. La iniciativa busca resolver los cuellos de botella de datos y reducir los costos energéticos de los centros de datos.
La empresa reveló que HBM4 supera la velocidad operativa estándar de JEDEC (8Gbps) al incorporar más de 10Gbps en el producto. JEDEC es el organismo de estandarización global que desarrolla estándares abiertos y publicaciones para la industria microelectrónica.
SK Hynix también incorporó el proceso Advanced MR-MUF (Mass Reflow Molded Underfill) en HBM4, que permite apilar los chips e inyectar materiales protectores líquidos entre ellos para proteger el circuito y endurecerlos.
La compañía afirmó que este proceso ha demostrado ser confiable y más eficiente en el mercado para la disipación de calor en comparación con el método de colocar materiales tipo película para cada pila de chips.
Las acciones de SK Hynix se disparan
Tras el lanzamiento de HBM4, el precio de las acciones de SK Hynix alcanzó un máximo histórico el viernes, aumentando hasta un 6,60% a 327.500 KRW ($235,59). El precio de las acciones de la empresa también ha aumentado aproximadamente un 17,5% en los últimos cinco días y casi un 22% en el último mes.
El analista senior de Meritz Securities, Kim Sunwoo, pronosticó que la participación de mercado de HBM de la compañía permanecerá en el rango bajo del 60% en 2026. Argumentó que esto estará respaldado por el suministro temprano de HBM4 a clientes clave y la ventaja resultante de ser el primero en moverse.
SK Hynix suministra la mayor cantidad de chips semiconductores HBM a Nvidia, seguido por Samsung Electronics y Micron, que suministran volúmenes más pequeños. El jefe de planificación de negocios de HBM de la compañía, Choi Joon-yong, proyectó que el mercado de chips de memoria para IA aumentará un 30% anual hasta 2030.
Joon-yong afirmó que la demanda de IA por parte del usuario final es muy fuerte. También ve que los miles de millones de dólares en gastos de capital para IA de las empresas de computación en la nube se revisarán al alza en el futuro.
Descargo de responsabilidad: Solo para fines informativos. El rendimiento pasado no es indicativo de resultados futuros.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
SK Hynix logra hito crucial en chips HBM4 de próxima generación
SK Hynix completó el desarrollo de HBM4, su producto de memoria de próxima generación para IA de ultra alto rendimiento. La empresa surcoreana también estableció un sistema de producción en masa de estos chips de memoria de alto ancho de banda para sus clientes.
Según informó la compañía, este chip semiconductor interconecta verticalmente múltiples chips DRAM y aumenta la velocidad de procesamiento de datos en comparación con los productos DRAM convencionales. SK Hynix confía en que la producción masiva de los chips HBM4 liderará la industria de inteligencia artificial.
SK Hynix prepara la producción masiva de HBM4
La empresa desarrolló su producto basándose en el reciente aumento dramático en la demanda de IA y procesamiento de datos, que requiere memoria de alto ancho de banda para una mayor velocidad del sistema. También considera que asegurar la eficiencia energética de la memoria se ha convertido en un requisito clave para los clientes, ya que el consumo energético para la operación de centros de datos ha aumentado considerablemente.
El proveedor de semiconductores espera que el mayor ancho de banda y eficiencia energética del HBM4 sea la solución óptima para satisfacer las necesidades de los clientes. La producción de esta nueva generación implica apilar chips verticalmente para ahorrar espacio y reducir el consumo de energía, lo que ayuda a procesar grandes volúmenes de datos generados por complejas aplicaciones de IA.
La empresa surcoreana reveló que su nuevo producto tiene la mejor velocidad de procesamiento de datos y eficiencia energética de la industria. Según el informe, el ancho de banda del chip se ha duplicado respecto a la generación anterior al adoptar 2.048 terminales I/O, y su eficiencia energética ha aumentado más del 40%.
SK Hynix también afirmó que HBM4 mejorará el rendimiento del servicio de IA hasta en un 69% cuando se aplique el producto. La iniciativa busca resolver los cuellos de botella de datos y reducir los costos energéticos de los centros de datos.
La empresa reveló que HBM4 supera la velocidad operativa estándar de JEDEC (8Gbps) al incorporar más de 10Gbps en el producto. JEDEC es el organismo de estandarización global que desarrolla estándares abiertos y publicaciones para la industria microelectrónica.
SK Hynix también incorporó el proceso Advanced MR-MUF (Mass Reflow Molded Underfill) en HBM4, que permite apilar los chips e inyectar materiales protectores líquidos entre ellos para proteger el circuito y endurecerlos.
La compañía afirmó que este proceso ha demostrado ser confiable y más eficiente en el mercado para la disipación de calor en comparación con el método de colocar materiales tipo película para cada pila de chips.
Las acciones de SK Hynix se disparan
Tras el lanzamiento de HBM4, el precio de las acciones de SK Hynix alcanzó un máximo histórico el viernes, aumentando hasta un 6,60% a 327.500 KRW ($235,59). El precio de las acciones de la empresa también ha aumentado aproximadamente un 17,5% en los últimos cinco días y casi un 22% en el último mes.
El analista senior de Meritz Securities, Kim Sunwoo, pronosticó que la participación de mercado de HBM de la compañía permanecerá en el rango bajo del 60% en 2026. Argumentó que esto estará respaldado por el suministro temprano de HBM4 a clientes clave y la ventaja resultante de ser el primero en moverse.
SK Hynix suministra la mayor cantidad de chips semiconductores HBM a Nvidia, seguido por Samsung Electronics y Micron, que suministran volúmenes más pequeños. El jefe de planificación de negocios de HBM de la compañía, Choi Joon-yong, proyectó que el mercado de chips de memoria para IA aumentará un 30% anual hasta 2030.
Joon-yong afirmó que la demanda de IA por parte del usuario final es muy fuerte. También ve que los miles de millones de dólares en gastos de capital para IA de las empresas de computación en la nube se revisarán al alza en el futuro.
Descargo de responsabilidad: Solo para fines informativos. El rendimiento pasado no es indicativo de resultados futuros.