Los clientes de Nvidia ahora tienen un fuerte incentivo para explorar alternativas más baratasLos clientes de Nvidia ahora tienen un fuerte incentivo para explorar alternativas más baratas

La guerra del silicio: Nvidia pierde el aura de invulnerabilidad

2025/12/06 16:14

Ninguna empresa se ha beneficiado más del furor por la inteligencia artificial que Nvidia, hoy la compañía más valiosa del mundo. En los últimos tres años, los inversores han impulsado sus acciones hasta el estratosfera bajo la creencia de que su dominio del mercado de chips de IA es inquebrantable. Fabricantes rivales y startups por igual han intentado abrirse paso en su negocio, con poco éxito.

Ahora, sin embargo, uno de los mayores clientes de Nvidia ha emergido como su competidor más feroz hasta el momento. Este mes Google, que fue pionera en la arquitectura “transformer” que sustenta la actual ola de IA, lanzó Gemini 3, un modelo de vanguardia que supera al de sus principales rivales —incluido OpenAI— en la mayoría de los benchmarks. Lo crucial es que Gemini 3 fue entrenado íntegramente con los propios chips de Google, llamados unidades de procesamiento tensorial (TPU), que la empresa empezó a ofrecer a terceros como una alternativa más barata a las unidades de procesamiento gráfico (GPU) de Nvidia. El mes pasado Anthropic, otro desarrollador de modelos, anunció planes para usar hasta 1 millón de las TPU de Google en un acuerdo valuado, según se informa, en decenas de miles de millones de dólares. Informes que aseguran que Meta —otro gigante tecnológico con grandes ambiciones en IA— también está en conversaciones para usar los chips de Google en sus centros de datos para 2027 hicieron que Nvidia sufriera hace unos días un derrumbe en el precio de sus acciones.

Hackers, IA y criptomonedas: una nueva ola del cibercrimen sacude a las empresas globales

Los clientes de Nvidia tienen un fuerte incentivo para explorar alternativas más baratas. Bernstein, una firma de investigación de inversiones, estima que las GPU de Nvidia representan más de dos tercios del costo de un rack típico de servidores de IA. Las TPU de Google cuestan entre la mitad y una décima parte de lo que vale un chip equivalente de Nvidia. Esos ahorros son importantes, dado el enorme volumen de dinero que hoy se destina a capacidad de cómputo para IA. Bloomberg Intelligence estima que el gasto de capital de Google alcanzará los US$95.000 millones el próximo año, y que casi tres cuartas partes se destinarán a entrenar y ejecutar modelos de IA. Los inversores han captado recientemente la enorme ventaja de costos que Google ha obtenido gracias a sus chips internos; en los últimos tres meses, las acciones de Alphabet, su empresa matriz, han subido un 50%, convirtiéndola en la tercera compañía más valiosa del mundo.

Otros gigantes tecnológicos, incluidos Amazon, Meta y Microsoft, también están desarrollando procesadores personalizados, y el mes pasado OpenAI anunció una colaboración con Broadcom, un diseñador de chips, para crear su propio silicio. Pero ninguno ha avanzado tanto como Google. La compañía comenzó a diseñar sus chips hace más de una década. En aquel entonces, los ingenieros de Google estimaban que si los usuarios utilizaban una nueva función de búsqueda por voz en sus teléfonos durante apenas unos minutos al día, la empresa necesitaría duplicar la capacidad de sus centros de datos. Esa predicción impulsó el desarrollo de un procesador más eficiente y adaptado a las necesidades de Google. Hoy la empresa va por la séptima generación de TPU. Jefferies, un banco de inversión, calcula que Google fabricará alrededor de 3 millones de estos chips el próximo año, casi la mitad del volumen de Nvidia.

Sin embargo, para los demás clientes de Nvidia, cambiarse a los chips de Google no será sencillo. La ventaja de Nvidia radica en parte en CUDA, la plataforma de software que ayuda a los programadores a aprovechar sus GPU. Los desarrolladores de IA están habituados a ella. Y mientras que el software que rodea a las TPU fue creado pensando en los propios productos de Google —incluida la búsqueda—, CUDA está diseñado para atender una amplia variedad de aplicaciones. Además, según Jay Goldberg de Seaport Research Partners, podría haber un límite en la voluntad de Google de vender sus TPU: podría preferir orientar a los potenciales clientes hacia su lucrativo servicio de computación en la nube. Para obstaculizar a sus competidores en IA, Google también podría verse tentada a mantener los precios de sus chips elevados.

Globalización en puerta: los laboratorios chinos se preparan para conquistar el mundo

Todo esto podría explicar por qué Jensen Huang, el director ejecutivo de Nvidia, no parece especialmente preocupado. Ha descrito a Google como “un caso muy especial”, dado que comenzó a desarrollar chips mucho antes de la actual ola de IA, y ha desestimado los esfuerzos de otros calificándolos como “super adorables y simples”. También apuesta por la flexibilidad. La arquitectura transformer que sustenta los modelos de IA actuales todavía está evolucionando. Las GPU, que fueron desarrolladas originalmente para videojuegos, son altamente adaptables, permitiendo a los investigadores de IA probar nuevos enfoques. Nvidia quizá ya no parezca tan invulnerable como antes. Pero su fortaleza no debe subestimarse.

Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección service@support.mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.

También te puede interesar

Sin maquillaje / arlamont@msn.com / 6 de diciembre de 2025

Sin maquillaje / arlamont@msn.com / 6 de diciembre de 2025

CIENTÍFICO ¿Desde cuándo usamos la palabra “científico”? R: Desde 1834. Durante siglos, quienes estudiaban el mundo natural eran llamados “filósofos naturales” u “hombres de ciencia”, términos que reflejaban una visión fragmentada y, a menudo, excluyente. Pero ese año, el académico inglés William Whewell propuso una palabra nueva: “científico”, inspirándose en el trabajo de Mary Somerville, matemática y divulgadora escocesa. Somerville había publicado Sobre la conexión de las ciencias físicas, una obra que unificaba distintas ramas del conocimiento en una sola narrativa accesible. Whewell, al reseñar el libro, entendió que la ciencia ya no era un conjunto de islas, sino un continente interconectado. Así nació el término “científico”, como quien crea arte con distintos medios: física, química, astronomía… todas buscando comprender el mundo. La palabra no sólo nombró una profesión; nombró una vocación colectiva.   ALGO NUEVO ¿Por qué sentimos placer al aprender algo nuevo? R: Porque el cerebro lo celebra. Aprender activa circuitos de recompensa similares a los del alimento o el afecto. Cuando descubrimos una idea, una conexión, una explicación que antes no teníamos, el cuerpo libera dopamina: la molécula del entusiasmo. En México, donde la conversación cotidiana mezcla historia, refranes, ciencia y farándula, aprender no es sólo académico, es social. Compartir un dato curioso en la sobremesa, entender un fenómeno natural, recordar una palabra antigua… todo eso nos conecta. Aprender es pertenecer. Y en tiempos de sobreinformación, encontrar algo que realmente nos sorprenda es como hallar una flor en medio del concreto. Nos recuerda que aún hay misterio, y que aún somos capaces de asombro. Todos los días, afortunadamente.   NOMBRANDO ¿Por qué importa cómo nombramos las profesiones? R. Porque el lenguaje construye realidad. Decir “hombre de ciencia”, excluye. Decir “científico”, incluye. Las palabras que usamos para nombrar profesiones, talentos o roles sociales definen quién tiene permiso para imaginarse ahí. Y durante siglos, muchas personas quedaron fuera por cómo se hablaba de ellas. En México, esto se refleja en cómo nombramos a las mujeres en cargos públicos, a los jóvenes en espacios técnicos, a los migrantes en profesiones calificadas. Cambiar el lenguaje no es corrección política: es justicia simbólica. Cuando decimos “ingeniera”, “doctora”, “artista”, “científica”, estamos abriendo puertas que antes estaban cerradas por gramática. Nombrar bien es incluir. Y eso también es ciencia social.   ARTE Y CIENCIA ¿Puede un artista ser también un científico? R. Absolutamente. La ciencia y el arte comparten más de lo que parece: observación, experimentación, sensibilidad, y búsqueda de patrones. Un artista analiza la luz, el color, la forma; un científico, también. La diferencia está en el lenguaje, no en la intención. Mary Somerville lo entendió bien: describió la ciencia como una red de conexiones, no como una torre de marfil. En México, donde la creatividad convive con la lógica en cada oficio, esta dualidad es cotidiana. Ser artista no excluye ser científico. Ser curioso es el punto de partida. La pregunta no es si se puede, sino por qué seguimos separando lo que el alma ya unió. Columnista: Alfredo La Mont IIIImágen Portada: Imágen Principal: Send to NewsML Feed: 0
Compartir
Excelsior2025/12/06 17:00