Explore 14 alternativas y competidores líderes de Nvidia en 2026
NVIDIA domina el mercado de GPU discretas para computadoras de escritorio y tendrá casi una participación de mercado del 88% en 2024, principalmente a través de su línea de productos GeForce, que es popular tanto entre los jugadores como entre los usuarios profesionales.
También es líder del mercado en inteligencia artificial y hardware de aprendizaje automático, con casi el 98 % de participación de mercado en GPU y procesadores de inteligencia artificial utilizados en centros de datos. Según TechInsights, una empresa de análisis de semiconductores, Nvidia envió 3,76 millones de GPU para centros de datos en 2023, frente a 2,64 millones en 2022. [1]
Este aumento contribuyó a que los ingresos de NVIDIA alcanzaran los 96.300 millones de dólares para el año fiscal que finalizó en julio de 2024, un asombroso aumento interanual del 194,6%. Aproximadamente el 78 % de estos ingresos provinieron de su negocio de centros de datos, y el 17,1 % de su segmento de GPU de escritorio.
En el año fiscal 2025, los ingresos de Nvidia alcanzaron los 165.210 millones de dólares, un 71,55% más que el año anterior. Su beneficio bruto aumentó a la asombrosa cifra de 115.390 millones de dólares, lo que supone un aumento interanual del 57,71 %.
Si bien los ingresos de Nvidia están creciendo rápidamente, también enfrenta una fuerte competencia en varios mercados clave. Aquí, destacamos a los principales competidores que desafían el dominio de NVIDIA en áreas como chips de inteligencia artificial, centros de datos, GPU para juegos y tecnologías de conducción autónoma.
¿Lo sabías?
La adquisición más cara de NVIDIA hasta la fecha fue la compra de Mellanox Technologies por 6.900 millones de dólares en 2019. Esta adquisición ayudó a Nvidia a fortalecer su posición en el mercado de centros de datos al ofrecer soluciones informáticas de extremo a extremo que combinan GPU y redes. [2]
14. IBM
Fundada :1911
Ingresos anuales :$64,03 mil millones+
Competencia :IA y HPC
IBM compite con NVIDIA principalmente en las áreas de IA, informática de alto rendimiento (HPC) y soluciones de centros de datos. Más específicamente, Watson AI y Power Systems compiten con las GPU aceleradas por IA de NVIDIA utilizadas para cargas de trabajo de aprendizaje automático.
IBM tiene una fuerte presencia en los servicios de nube híbrida:proporciona soluciones de automatización e inteligencia artificial adaptadas a diversas industrias como finanzas, atención médica y logística. Su división de consultoría ayuda a las empresas a integrar profundamente la IA y las tecnologías de la nube, ofreciendo un enfoque más integral que la estrategia centrada en el hardware de Nvidia.
Según un informe de investigación de mercado, los servicios globales de IBM Watson estaban valorados en 5.500 millones de dólares en 2023 y se prevé que alcancen los 76.470 millones de dólares en 2033, expandiéndose a una tasa compuesta anual del 30,1%. [3]
IBM también está invirtiendo fuertemente en computación cuántica. En 2023, presentó el potente procesador Condor con 1.121 qubits superconductores, que pueden competir con las futuras empresas de NVIDIA en este dominio. [4]
En el ámbito de la investigación, el hardware cuántico de IBM se está utilizando para experimentos más complejos, incluidas simulaciones de la teoría del calibre de red y estudios de fases topológicas. Estos experimentos ponen de relieve la creciente madurez de los dispositivos cuánticos “ruidosos de escala intermedia”.
13. Tecnología Marvell
Fundada :1995
Ingresos anuales :6.500 millones de dólares+
Competencia :Infraestructura de datos
Marvell Technology es una empresa de semiconductores que compite con NVIDIA en ciertos segmentos, particularmente en los mercados de centros de datos, nube e infraestructura 5G. Mientras NVIDIA se centra en las GPU, Marvell se centra en tecnologías de redes, almacenamiento y procesadores para centros de datos.
Marvell desarrolla Ethernet, conmutadores de centros de datos, unidades de procesamiento de datos y controladores de almacenamiento, que vende a fabricantes de equipos originales, proveedores de servicios en la nube y empresas de telecomunicaciones. Tiene una fuerte presencia en el mercado de infraestructura 5G:trabaja con los principales proveedores de telecomunicaciones y ofrece productos diseñados específicamente para optimizar las estaciones base 5G.
En 2025, la empresa presentó la solución de ampliación UALink, destinada a maximizar la utilización de la computación en aceleradores y conmutadores. Sus características clave incluyen baja latencia, soporte para estándares abiertos y opciones de empaque flexibles, como cobre u óptica empaquetados conjuntamente.
Marvell posee más de 20.290 patentes en todo el mundo, que abarcan tecnologías de semiconductores, redes y 5G. De ellos, el 49,6% se encuentran actualmente activos. La mayoría de las patentes se han presentado en Estados Unidos, seguido de China y países europeos. [5]
12. Sinopsis
Fundada :1986
Ingresos anuales :6,43 mil millones de dólares+
Competencia :Proporciona herramientas de automatización de diseño basadas en IA
Synopsys proporciona software y propiedad intelectual (IP) para el diseño, la verificación y las pruebas de chips, que las empresas de semiconductores como Nvidia utilizan para construir GPU complejas, aceleradores de inteligencia artificial y SoC (sistema en chip). Mientras Synopsys se centra en permitir el proceso de diseño, Nvidia se centra en construir y comercializar los propios chips.
Synopsys también ofrece soluciones en seguridad de software y verificación de hardware. Tanto Synopsys como Nvidia se cruzan para garantizar la seguridad de los sistemas impulsados por IA, aunque el primero se centra más en la fase de verificación y prueba.
Synopsys ha sido testigo de un crecimiento constante en herramientas de automatización de diseño electrónico (EDA) y licencias de IP de semiconductores, con un crecimiento anual de ingresos del 13-15%. Este crecimiento está impulsado por la creciente demanda de IA y diseños de chips personalizados. [6]
En 2025, Synopsys adquirió Ansys, creando nuevas sinergias al combinar las herramientas de automatización de diseño electrónico (EDA) de Synopsys con la simulación y el modelado basado en física de Ansys. El objetivo es ofrecer capacidades más sólidas de “silicio a sistemas” en todas las industrias.
11. Amazon (AWS Inferentia y chips Trainium)
Fundada :1994
Ingresos anuales :$111 mil millones+ (de AWS)
Competencia :Procesadores Graviton e Inferentia
AWS ha desarrollado su propio silicio personalizado, incluidos procesadores Graviton para cargas de trabajo informáticas generales y chips Inferentia optimizados para la inferencia de aprendizaje automático. Con estos dos chips, Amazon pretende reducir su dependencia del hardware de terceros. [7]
Los procesadores Inferentia de Amazon apuntan a los procesadores A100 y H100 de Nvidia, que están diseñados para cargas de trabajo de inferencia de aprendizaje automático. También ha introducido chips Trainium para el entrenamiento de aprendizaje profundo de modelos con más de 100 mil millones de parámetros. [8][9]
Amazon ofrece servicios de inteligencia artificial y aprendizaje automático, como SageMaker (un servicio de aprendizaje automático totalmente administrado), a través de AWS. Por el contrario, Nvidia impulsa los sistemas de inteligencia artificial con sus GPU y plataformas de software como CUDA.
La compañía también ha logrado avances significativos en sistemas autónomos al adquirir Zoox, una startup de conducción autónoma. Esta adquisición impulsó la posición de Amazon en patentes de tecnología de conducción autónoma y ayudó a la empresa a mejorar la automatización en su red de distribución, particularmente para la entrega de última milla.
Además, AWS está presionando para reducir la dependencia de los proveedores de GPU (principalmente Nvidia) para las cargas de trabajo de capacitación e inferencia mediante el desarrollo y escalamiento de sus propios chips. Esto reduce el costo (el llamado “impuesto Nvidia”) y le da a AWS más control sobre el rendimiento, la energía y la escalabilidad.
10. Nube de Alibaba
Hanguang 800 NPU
Fundada :2009
Ingresos anuales :$15 mil millones+
Competencia :infraestructura de hardware de IA
Alibaba Cloud es uno de los mayores proveedores de servicios en la nube y posee casi el 4% del mercado mundial de servicios en la nube. Ofrece servicios IaaS, PaaS e IA. Al igual que AWS, Alibaba Cloud utiliza GPU de Nvidia para cargas de trabajo de IA y aprendizaje automático, pero también ha desarrollado sus propios chips para competir con el hardware de Nvidia.
Por ejemplo, su Hanguang 800 (chip de inferencia de IA) compite con las GPU A100 y H100 de Nvidia por la inferencia de IA en la nube. Optimizado para un bajo consumo de energía, Hanguang 800 puede completar tareas como el análisis de imágenes impulsado por IA (que normalmente llevaría una hora) en solo cinco minutos. [10]
En 2022, Alibaba Cloud presentó su plataforma de desarrollo de chips, Wujian 600. Puede ayudar a los fabricantes a diseñar SoC de alto rendimiento para la informática de IA de vanguardia, aprovechando la arquitectura del conjunto de instrucciones RISC-V de una manera rentable y eficiente. [11]
En 2023, el gasto anual en I+D de Alibaba alcanzó los 7.600 millones de dólares, centrándose en chips de inteligencia artificial, infraestructura en la nube y desarrollo de chips personalizados. Para el año fiscal 2024, Alibaba Cloud Intelligence Group reportó ingresos anuales de 14,73 mil millones de dólares, un aumento interanual del 3 %, y el EBITA alcanzó los 848 millones de dólares.
En 2025, Alibaba se comprometió a invertir casi 52 mil millones de dólares durante los próximos tres años para desarrollar su infraestructura en la nube y sus capacidades de inteligencia artificial. Esto es más de lo que afirma haber gastado en IA + nube durante la última década.
9. Google (Unidades de procesamiento tensoriales – TPU)
Google TPU:Madera de Hierro
Fundada :2008 (plataforma Google Cloud)
Ingresos anuales :más de 36 mil millones de dólares (de Google Cloud)
Competencia : Unidades de procesamiento tensorial (TPU)
Google ha desarrollado Unidades de procesamiento tensorial (TPU) para acelerar las cargas de trabajo de aprendizaje automático. Los TPU están optimizados para TensorFlow, el marco de aprendizaje automático de código abierto de Google que se integra con CUDA de NVIDIA.
Las TPU proporcionan una alta eficiencia para el entrenamiento de modelos de IA. Por ejemplo, Google informó que las TPU podrían entrenar modelos como ResNet-50 hasta 15 veces más rápido que las GPU convencionales (como Nvidia P100) cuando se introdujeron.
En 2024, Google anunció la sexta generación de su TPU, que ofrece 4,7 veces más computación máxima por chip y es más de un 67% más eficiente energéticamente que la generación anterior. Este nuevo TPU está diseñado para acelerar la próxima ola de modelos de IA, ofreciendo un rendimiento más rápido y eficiente con latencia reducida. [12]
Google también lidera la investigación e innovación en IA, con desarrollos pioneros en aprendizaje profundo, procesamiento del lenguaje natural, computación en la nube y hardware personalizado para IA. Para el año fiscal 2024, la empresa gastó 47.130 millones de dólares en I+D, un aumento interanual del 10,65%. [13]
En 2025, Google anunció Ironwood, su primer TPU diseñado específicamente para inferencia, que ofrece ~4614 TFLOP por chip y escala hasta 9216 chips por clúster para aproximadamente ~42,5 exaflops.
8. Huawei
Fundada :1987
Ingresos anuales :99,37 mil millones de dólares
Competencia : Infraestructura de IA y 5G
Huawei desarrolla sus propios chips de IA, entre los que destacan los procesadores Ascend. Los chips Ascend 910 y Ascend 310, por ejemplo, están diseñados para tareas de IA de alto rendimiento. Los chips de la serie Ascend 910B de segunda generación han aumentado el rendimiento teórico máximo en 80 TFLOPS (FP16) en comparación con los chips de la serie Ascend 910 de primera generación. [14]
Estos chips impulsan los servicios en la nube de Huawei, el segundo proveedor de nube más grande de China continental. NVIDIA compite aquí suministrando GPU a otros importantes proveedores de nube y empresas para cargas de trabajo de IA y ML.
Huawei está preparando chips más nuevos, como el Ascend 910D, con la ambición de igualar o superar algunas de las ofertas de Nvidia en capacidad de entrenamiento.
Huawei también es líder en telecomunicaciones 5G e informática de punta, y posee casi el 30% del mercado mundial de equipos de telecomunicaciones. Sus tecnologías AI y 5G se superponen con las ambiciones de NVIDIA de dominar la AI en el borde, particularmente para sistemas autónomos e IoT. [15]
7. Tecnología Micron
Fundada :1978
Ingresos anuales :21,37 mil millones de dólares
Competencia :Soluciones de memoria para cargas de trabajo de IA
Micron desarrolla soluciones de almacenamiento DRAM, memoria flash NAND y SSD. Si bien la empresa no compite directamente en GPU o hardware de IA, sus productos son cruciales para el rendimiento de los modelos de IA y las infraestructuras de nube, donde también opera NVIDIA.
Las soluciones de memoria de Micron almacenan y gestionan conjuntos de datos masivos (que son procesados por chips de IA), proporcionando el acceso de alta velocidad requerido por los algoritmos de IA. La empresa es el proveedor clave de memoria GDDR6X, que es fundamental para las GPU de alto rendimiento de NVIDIA utilizadas en aplicaciones de centros de datos y de inteligencia artificial.
Micron es el tercer mayor productor de chips DRAM y posee aproximadamente el 21,5% del mercado mundial de DRAM, detrás de Samsung y SK Hynix. También posee el 9,9% del mercado de memorias flash NAND. [16]
En 2025, la compañía lanzó su nodo DRAM 1-gamma, que utiliza litografía EUV (ultravioleta extrema). También introdujeron nuevos módulos de factor de forma DDR5 que incluyen un controlador de reloj en el módulo de memoria (en lugar de depender completamente del reloj de la CPU). Estos módulos pueden alcanzar velocidades de hasta 6.400 MT/s.
6. Sistemas Cisco
Fundada :1984
Ingresos anuales :56.600 millones de dólares+
Competencia : IA, infraestructura del centro de datos y redes
La principal fortaleza de Cisco radica en el hardware (como conmutadores y enrutadores) y las soluciones de software para centros de datos. También proporciona redes en la nube y herramientas de redes definidas por software (SDN), que representan casi el 40% del mercado de infraestructura de redes empresariales. [17]
Sus conmutadores Nexus de alta gama, especialmente aquellos diseñados para centros de datos, ofrecen un gran ancho de banda y redes de baja latencia, que son esenciales para la IA y las cargas de trabajo en la nube. La arquitectura ACI de Cisco admite la automatización de la red y la optimización de la carga de trabajo, centrándose en el mercado de la informática de alto rendimiento (HPC).
Cisco también está invirtiendo en informática de punta al integrar redes con potencia de procesamiento en tiempo real en el borde, un mercado donde la plataforma Jetson de NVIDIA también es dominante. Ambas empresas abordan el procesamiento de IA en el borde para aplicaciones como IoT y sistemas autónomos.
En el año fiscal 2024, Cisco gastó más de 7.900 millones de dólares en el avance de tecnologías de redes, automatización de redes impulsada por IA, informática de punta y soluciones de ciberseguridad. [18]
Cisco ha anunciado varias iniciativas de IA en Medio Oriente, incluidas colaboraciones con G42 y la alianza HUMAIN en Arabia Saudita para construir infraestructura de IA. Estos esfuerzos muestran el objetivo de Cisco de desempeñar un papel central en el crecimiento de la IA en la región.
En 2025, Cisco amplió su asociación con NVIDIA para proporcionar una infraestructura de red de centros de datos preparada para IA. Un resultado clave es una “arquitectura unificada de cartera cruzada” que combina el silicio del conmutador Silicon One de Cisco con Ethernet Spectrum-X de NVIDIA, lo que permite que los conmutadores de Cisco se integren directamente en la plataforma Spectrum-X.
5. manzana
Fundada :1976
Ingresos anuales :29,36 mil millones de dólares (de Mac)
Competencia :chips de las series A y M
El silicio personalizado de Apple, incluidos los chips M1, M2 y M3 para su línea Mac, compite directamente con Nvidia en informática de alto rendimiento y cargas de trabajo de inteligencia artificial. En 2024, Apple presentó el chip M4, que presenta el Neural Engine más rápido hasta la fecha, capaz de ejecutar 38 billones de operaciones por segundo. [19]
Apple también desarrolla chips Bionic de la serie A, que integran aceleradores de aprendizaje automático y motores neuronales en los iPhone, lo que permite un potente procesamiento de IA en el dispositivo. Su chip más avanzado, el A18 Pro, cuenta con un motor neuronal de 16 núcleos que puede manejar 35 billones de operaciones por segundo.
Chip Apple Bionic A18 Pro de 3 nm para modelos de iPhone 16 Pro.
CPU de 6 núcleos
GPU de 6 núcleos#AppleEvent #AppleEvent24 #BionicA18Pro pic.twitter.com/1uKkQseltL
– Abhishek Yadav (@yabhishekhd) 9 de septiembre de 2024
En 2023, Apple vendió alrededor de 231 millones de iPhones, lo que representa el 52% de sus ingresos totales. En 2024, invirtió 31.370 millones de dólares en I+D, frente a 29.900 millones de dólares en 2023 y 26.200 millones de dólares en 2022, con un fuerte enfoque en inteligencia artificial, aprendizaje automático, silicio personalizado y tecnologías de realidad aumentada.
Apple se ha unido al Ultra Accelerator Link Consortium (ULink), que está desarrollando interconexiones estándar para aceleradores y chips de IA en grupos de centros de datos. El objetivo de UALink es superar los cuellos de botella de conectividad entre aceleradores como GPU, TPU y chips de IA personalizados, permitiendo que grandes grupos de chips trabajen juntos en módulos con gran ancho de banda y baja latencia.
4. AMD (microdispositivos avanzados)
GPU AMD Instinct MI355X
Fundada :1969
Ingresos anuales :23.700 millones de dólares
Competencia :GPU Radeon y procesadores EPYC en centros de datos.
AMD (abreviatura de Advanced Micro Devices) es el competidor directo de Nvidia en el mercado de GPU, centros de datos y hardware de inteligencia artificial. También diseña silicio personalizado para consolas como Xbox y PlayStation.
La serie Radeon de AMD compite con la serie GeForce de NVIDIA en GPU profesionales y para juegos. Su serie MI, que incluye los aceleradores MI100 y MI200, apunta a cargas de trabajo de inteligencia artificial y aprendizaje profundo, compitiendo con las GPU Tensor Core de Nvidia.
Además, sus procesadores EPYC y GPU Instinct ofrecen una poderosa combinación para centros de datos, particularmente en entornos de computación de alto rendimiento y computación en la nube. La serie EYPC Milán, en particular, ha mostrado mejoras sustanciales en el rendimiento, desafiando tanto a Nvidia como a Intel. [20]
La participación de mercado de AMD ha aumentado en los últimos trimestres. En el mercado de computadoras de escritorio, la participación de unidades de AMD es del 23,9% y la participación en ingresos es del 19,2%. En el mercado de portátiles, la cuota de unidades de AMD es aproximadamente del 19%. Sin embargo, controla sólo el 12% del mercado de GPU discretas, y NVIDIA tiene la participación dominante. [21]
En 2025, AMD presentó sus aceleradores Instinct Serie MI350 (MI350X y MI355X), lo que marcó un importante salto generacional. La serie ofrece aproximadamente cuatro veces el rendimiento informático de IA para capacitación y HPC en comparación con la generación anterior.
Es parte de la estrategia más amplia de infraestructura de IA de AMD, que ofrece mayor rendimiento por vatio, mayor memoria y escalabilidad mejorada.
3. Qualcomm
Fundada :1985
Ingresos anuales :37,34 mil millones de dólares
Competencia :IA móvil y sistemas de conducción autónoma
Si bien Qualcomm es mejor conocido por su liderazgo en procesadores móviles y tecnología 5G, se ha expandido a la inteligencia artificial y las plataformas automotrices, donde desafía directamente a Nvidia. Sus populares chips Snapdragon potencian el procesamiento de IA en dispositivos móviles y aplicaciones de IoT, con motores de IA integrados para inferencia en el dispositivo
Qualcomm también ha desarrollado la plataforma Snapdragon Ride que ofrece soluciones basadas en inteligencia artificial para asistencia al conductor y conducción autónoma. Tiene asociaciones con fabricantes de automóviles como General Motors, que compiten directamente con el ecosistema Drive de Nvidia. [22]
Actualmente, Qualcomm es la tercera empresa de semiconductores más grande, con una cuota de mercado mundial de semiconductores del 5,4%. Además, controla casi el 30% del mercado de chips para teléfonos inteligentes. [23]
Además de chips y tecnologías inalámbricas como 5G, Qualcomm genera ingresos mediante la concesión de licencias sobre partes de su amplia cartera de propiedad intelectual. Esto incluye ciertos derechos de patente que son cruciales para la fabricación de productos inalámbricos específicos.
En 2025, la empresa presentó una solución de dispositivo de IA local + una suite de inferencia de IA, que permite a las empresas y fabricantes ejecutar cargas de trabajo de visión por computadora e IA generativa localmente (en las instalaciones) en lugar de en la nube.
2. Intel
Fundada :1968
Ingresos anuales :53,07 mil millones de dólares
Competencia :CPU, GPU y plataforma de conducción autónoma
Intel diseña y fabrica chips de computadora, mientras que la mayoría de sus rivales (incluida Nvidia) sólo fabrican uno u otro. Desarrolla CPU, GPU, aceleradores de inteligencia artificial para centros de datos y tecnología de vehículos autónomos.
Más específicamente, Intel compite a través de sus procesadores Xeon y aceleradores de IA como los procesadores Habana Gaudi2 y Nervana Neural Network. Su plataforma oneAPI proporciona un modelo de programación unificado en CPU y GPU, compitiendo con el ecosistema CUDA de NVIDIA.
Intel tiene una participación de mercado significativa en el mercado global de GPU. Mientras que Nvidia controla más del 90% del mercado de GPU utilizadas en centros de datos, Intel domina el mercado de gráficos integrados con una cuota de mercado del 68%. [24]
Intel también compite con Nvidia en conducción autónoma a través de su filial Mobileye. Los chips EyeQ de Mobileye se utilizan en sistemas avanzados de asistencia al conductor (ADAS). Estos chips utilizan un solo sensor de cámara para proporcionar funciones ADAS, como control de crucero adaptativo, asistencia en atascos, asistencia para mantenerse en el carril, advertencia de colisión frontal y frenado automático de emergencia. Más de 50 fabricantes de automóviles incorporan chips EyeQ en sus tecnologías de conducción asistida. [25]
Según los resultados de las pruebas comparativas, los procesadores Intel alimentan casi el 71% de las CPU de portátiles, mientras que los procesadores AMD representan el 21% de las CPU de portátiles detectadas en las pruebas.
Intel ha enfrentado recientemente importantes desafíos financieros debido a la creciente competencia, los cambios del mercado y problemas internos. Sus ingresos anuales cayeron un 20% en 2022 y otro 14% en 2023. En el año fiscal 2025, los ingresos cayeron aún más a 53 mil millones de dólares. Para recuperarse, Intel se está centrando en estrategias a largo plazo, como aumentar la inversión en I+D y ampliar la producción nacional de chips.
1. TSMC (Empresa de fabricación de semiconductores de Taiwán)
Fundada :1987
Ingresos anuales :$104,4 mil millones+
Competencia :Fabricante de chips que habilitan la IA
TSMC opera en diferentes partes de la cadena de suministro de semiconductores. A diferencia de Nvidia, que diseña chips, TSMC los fabrica. Compite indirectamente con NVIDIA a la hora de influir en el desarrollo y la adopción de tecnología de semiconductores de vanguardia.
TSMC es la fundición de semiconductores exclusiva más grande del mundo y fabrica chips para varios gigantes tecnológicos, incluidos Apple, Qualcomm, AMD y la propia Nvidia. Se especializa en nodos avanzados como 5 nm y 4 nm, y ahora está pasando a la producción de 3 nm y 2 nm. Los clientes de TSMC utilizan sus nodos avanzados para competir directamente con los productos de Nvidia.
La empresa posee casi el 53% del mercado mundial de fabricación de semiconductores. Es el fabricante de chips avanzados, especialmente de 7 nm y menos. En 2023, TSMC envió 12 millones de obleas equivalentes a 12 pulgadas, y los chips de 7 nm y más pequeños representaron el 58% de los ingresos totales por obleas de la empresa. En 2024, entregaron 12,9 millones de obleas equivalentes a 12 pulgadas. [26]
TSMC ahora está impulsando agresivamente su tecnología de proceso de 2 nm (“N2”) hacia la producción en masa. La compañía ha revelado que su densidad de defectos en el nodo N2 (D0) es menor que la de nodos anteriores en una etapa comparable de desarrollo, lo que indica una rampa de rendimiento más rápida y una mayor madurez del proceso a pesar del cambio a transistores nanosheet de puerta completa.
Leer más
- Los 13 principales competidores de Intel
- Análisis FODA de NVIDIA [Vista detallada]
Fuentes citadas y referencias adicionales
- Agam Shah, Nvidia envió 3,76 millones de GPU para centros de datos en 2023, HPCWire
- Comunicado de prensa, Nvidia adquirirá Mellanox por 6.900 millones de dólares, Nvidia
- Informe, análisis del mercado de servicios de IBM Watson, Facts.mr
- Quantum Research, El hardware y software para la era de la utilidad cuántica, IBM
- Información clave:Marvell Technology tiene un total de 16347 patentes en todo el mundo, GreyB
- Informe del tercer trimestre de 2024, Synopsys publica los resultados financieros para el tercer trimestre del año fiscal 2024, Synopsys
- Productos, procesadores AWS Graviton, Amazon
- Productos, aceleradores AWS Inferentia, Amazon
- Productos, AWS Trainium para aprendizaje profundo y capacitación en IA generativa, Amazon
- Hanguang 800 NPU, solución de inferencia de IA para centros de datos, Grupo Alibaba
- Blogs, Alibaba Cloud presenta la plataforma de desarrollo de chips, Alibaba Cloud
- Compute, anunciando Trillium, la sexta generación de Google Cloud TPU, Google Cloud
- Descripción general de la empresa, gastos en I+D de Alphabet, macrotendencias
- Jacob Feldgoise, el chip de IA de Huawei prueba los controles de exportación de EE. UU., CSET
- Barry Elad, estadísticas de Huawei por ingresos y segmento de negocio, Coolest-Gadgets
- Tecnología y telecomunicaciones, participación en los ingresos de los fabricantes de DRAM a nivel mundial, Statista
- Tecnología y Telecomunicaciones, cuota de mercado de proveedores de infraestructura de redes empresariales a nivel mundial, Statista
- Descripción general de la empresa, gastos de I+D de Cisco, macrotendencias
- Comunicado de prensa, Apple presenta el chip M4, Apple
- Procesadores AMD Milan. Los nodos Milan están instalados en el piso de computadoras del edificio principal de la NAS, NASA
- Anton Shilov, AMD le quita participación de mercado de CPU a Intel en computadoras de escritorio y servidores, tom'sHardware
- Notas de prensa, General Motors y Qualcomm amplían su relación de larga data, Qualcomm
- Tecnología y Telecomunicaciones, cuota de ingresos del mercado de semiconductores de Qualcomm a nivel mundial, Statista
- Timothy Fries, ¿Pueden Intel y AMD competir con Nvidia?, Invertir
- EyeQ, el SoC para aplicaciones de automoción, Mobileye
- Informe Anual 2023, Carta a los accionistas y aspectos financieros destacados, TSMC
Tecnología Industrial
- Principales problemas de seguridad de OSHA para fabricantes:Bloqueo / etiquetado adecuado
- ¿Qué bombilla brilla más cuando se conecta en serie y en paralelo y por qué?
- Notación científica
- Optimización del marketing de fabricación con IA:una guía práctica de experimentos
- Cómo CMMS ayuda a los gerentes de instalaciones a capacitar a nuevos técnicos
- Más información sobre las laceraciones
- Determinación de los beneficios de CMMS con un análisis simple de costo-beneficio
- Fabricación de hardware para electrodomésticos
- Las palabras deberían importarle a los líderes
- Fabricación de un futuro más sostenible para un mundo pospandémico
- Sensor Acelerómetro:la introducción completa que necesita