Noticias financieras
En los últimos días se filtró un mensaje de Sam Altam hablando de que Google venía aventajando a Open AI en la guerra de la Inteligencia Artificial. Veamos en detalle cómo Google está desarrollando una ventaja clave en dicha batalla.
Cuando la historia de la tecnología del siglo XXI sea escrita, el año 2023 y 2024 serán recordados no solo como el momento en que la Inteligencia Artificial Generativa despertó a la conciencia pública, sino como el inicio de una de las transferencias de riqueza más agresivas y rápidas de la historia corporativa.
El mundo mira con asombro las capacidades de los modelos: si ChatGPT escribe mejor poesía que Gemini, si Claude razona mejor código que Llama. Pero esta narrativa, centrada en el «quién es más listo», oculta la verdadera guerra estructural que se libra bajo la superficie. Es una guerra de infraestructura, energía y, sobre todo, de silicio.
En esta fiebre del oro moderna, existe un consenso casi universal: NVIDIA es el vendedor de picos y palas. La empresa dirigida por Jensen Huang se ha convertido en el portero del futuro, cobrando un peaje exorbitante a cualquiera que desee participar en la revolución de la IA. Microsoft, Meta, Amazon y xAI de Elon Musk hacen fila, chequera en mano, suplicando por asignaciones de GPUs H100.
Todos, excepto uno.
Google se encuentra en una posición única, una anomalía en la matriz del mercado. Mientras sus competidores están atrapados en una guerra de ofertas por hardware externo, Google opera en una realidad paralela, impulsada por una decisión estratégica tomada hace más de una década. Este artículo explora en profundidad por qué esa decisión —construir sus propios chips, las TPUs— no es solo una curiosidad técnica, sino la ventaja económica y estratégica más letal en la historia de la computación moderna.

Capítulo 1: La Tiranía de la GPU y el «Impuesto NVIDIA»
Para entender la ventaja de Google, primero debemos diseccionar la desventaja de todos los demás. La industria actual de la IA se basa en la Unidad de Procesamiento Gráfico (GPU). Originalmente diseñadas para renderizar videojuegos (calcular cómo la luz rebota en una espada en World of Warcraft), las GPUs resultaron ser increíblemente buenas para el tipo de matemáticas paralelas que requieren las redes neuronales.
Sin embargo, esta adaptación tiene un precio.
El Costo de la Dependencia
OpenAI, la empresa detrás de ChatGPT, no posee su destino físico. Su existencia depende de la nube de Microsoft Azure, la cual, a su vez, depende del suministro de NVIDIA.
Cuando Microsoft construye una supercomputadora para OpenAI, está pagando el precio de mercado. Una sola GPU NVIDIA H100 puede costar entre 25.000 y 40.000 dólares. Un clúster de entrenamiento serio requiere decenas de miles de estas unidades.
Hagamos las matemáticas básicas de la competencia:
* Mark Zuckerberg anunció que Meta tendría 600.000 GPUs H100 equivalentes para finales de 2024. A un precio conservador de 25.000 dólares por unidad (asumiendo descuentos por volumen), estamos hablando de 15 mil millones de dólares solo en chips.
* Elon Musk y xAI construyeron «Colossus» con 100.000 H100s.
* Microsoft reporta gastos de capital (CapEx) trimestrales que superan los 10 mil millones, gran parte destinados a hardware de terceros.

El Margen de NVIDIA es la Pérdida del Resto
El problema no es solo el precio absoluto, sino a dónde va ese dinero. NVIDIA opera con márgenes brutos que han superado el 75%. Esto significa que, de cada dólar que Meta u OpenAI gastan en hardware, 75 centavos son pura ganancia para NVIDIA y un costo hundido para ellos. Están financiando el dominio de su proveedor.
Además, al usar hardware de propósito general (las GPUs sirven para IA, pero también para gráficos, simulación física, minería de criptomonedas, etc.), hay una ineficiencia inherente. Estás pagando por silicio y transistores dedicados a funciones que un modelo de lenguaje (LLM) jamás utilizará.

Capítulo 2: La Visión de Google – El Nacimiento de la TPU
Para comprender la divergencia de Google, debemos viajar al pasado. Alrededor de 2013-2014, los ingenieros de Google notaron una tendencia alarmante: si cada usuario de Android usara las funciones de búsqueda por voz durante solo tres minutos al día, Google tendría que duplicar sus centros de datos globales. La ley de Moore (la idea de que los chips se vuelven más rápidos y baratos cada dos años) se estaba ralentizando, y las CPUs tradicionales no podían seguir el ritmo.
En lugar de comprar más GPUs, Google hizo algo radical: diseñó su propio chip desde cero.
¿Qué es una TPU? (Tensor Processing Unit)
A diferencia de una GPU, que es una navaja suiza, la TPU es un bisturí láser. Es un ASIC (Circuito Integrado de Aplicación Específica).
La magia de la IA reside en una operación matemática llamada multiplicación de matrices. Imagina una hoja de cálculo gigante de números multiplicándose por otra hoja de cálculo gigante.
* En una CPU: Se leen los números, se multiplican, y se guardan. Se repite uno por uno.
* En una GPU: Se hace en paralelo, pero todavía hay mucha gestión de memoria.
* En una TPU: Google implementó una arquitectura llamada Matriz Sistólica (Systolic Array).
Imaginate el flujo de datos como el bombeo de sangre en un corazón (sístole). En una TPU, los datos fluyen a través del chip en una ola, realizando miles de multiplicaciones en cada paso sin tener que ir y venir a la memoria constantemente. Esto reduce drásticamente el consumo de energía y aumenta la velocidad.
Google lanzó la TPU v1 internamente en 2015. Hoy, mientras el mundo pelea por GPUs, Google opera en la sexta generación de sus chips (Trillium) y la quinta generación masiva (v5p).
Capítulo 3: Integración Vertical – La Estrategia «Apple» a Escala de Centro de Datos
La ventaja de Google no es solo tener un chip diferente; es controlar la pila completa. Esta es la misma estrategia que catapultó a Apple a la cima con el iPhone y los chips M1/M2.
El Rompecabezas Completo
Cuando OpenAI entrena GPT-4, debe lidiar con:
* Hardware de NVIDIA.
* Redes de interconexión (Infiniband) de proveedores externos.
* Servidores de Microsoft.
* Software de orquestación (Kubernetes).
* Librerías de CUDA (propiedad de NVIDIA).
Cualquier actualización, fallo o cuello de botella en uno de estos estratos afecta a todo el sistema.
Cuando Google entrena Gemini, controla:
* El Chip: TPU v5p.
* El Servidor: Diseñado por Google.
* La Red: «Jupiter» (interruptores ópticos propietarios que conectan las TPUs).
* El Compilador: XLA (Accelerated Linear Algebra).
* El Framework: JAX y TensorFlow.
* El Modelo: Gemini.
El Superordenador de IA (AI Hypercomputer)
Google no conecta chips individuales; conecta «Pods». Un Pod de TPU v4 contiene 4096 chips conectados entre sí con una velocidad tan alta que el software «ve» todo el sistema como si fuera una sola máquina gigantesca.
Esto permite una eficiencia que las GPUs luchan por igualar. En la arquitectura de NVIDIA, cuando miles de GPUs tienen que «hablar» entre sí para compartir lo que han aprendido, a menudo se produce un atasco de tráfico en los cables. Google diseñó sus centros de datos con interruptores ópticos (usando luz en lugar de señales eléctricas para la conmutación) que permiten reconfigurar la topología de la red en tiempo real según las necesidades del modelo.
Capítulo 4: La Economía de la Inferencia – Donde se Ganan las Guerras
Aquí es donde el argumento se vuelve financiero. Entrenar un modelo cuesta cientos de millones (CapEx), pero eso se hace una vez. Ejecutar el modelo (Inferencia) cuesta dinero cada segundo de cada día.
Cada vez que un usuario pregunta «¿Cómo hago una asado?», la IA debe procesar la respuesta. Si tienes 100 millones de usuarios diarios, el costo de inferencia se vuelve astronómico.
El Costo Marginal Cero
Debido a que Google fabrica sus propias TPUs:
* Evita el margen de NVIDIA: Google paga a TSMC (la fábrica de chips) el costo de manufactura. Se estima que una H100 que NVIDIA vende a 30.000 dólares, cuesta menos de 4.000 dólares fabricarla. Google paga el costo de fabricación, no el precio de venta.
* Eficiencia por Vatio: Las TPUs, al carecer de componentes gráficos innecesarios, suelen ofrecer más operaciones por vatio de electricidad. En la escala de megavatios de un centro de datos, esto son millones de dólares al año en ahorro de luz.
Esto significa que el costo unitario para Google de generar una respuesta en Gemini es significativamente menor que el costo para OpenAI de generar una respuesta en ChatGPT.
A largo plazo, esto permite a Google:
* Ofrecer servicios gratuitos (con publicidad) de manera más sostenible.
* Integrar IA en productos masivos (Gmail, Docs, Android) sin quebrar.
* Soportar guerras de precios que sus competidores no pueden aguantar porque sus costos base (alquiler de GPUs) son más altos.
Capítulo 5: Implicaciones Técnicas – La Ventana de Contexto y la Multimodalidad
¿Cómo se traduce esta ventaja de hardware en el producto final que tú usas? La respuesta está en la «Ventana de Contexto».
La ventana de contexto es la memoria a corto plazo de la IA. Es cuánta información puedes pegarle en el chat antes de que olvide el principio.
* La mayoría de los modelos basados en GPU luchan por superar los 128k o 200k tokens de manera eficiente debido a limitaciones de memoria VRAM y ancho de banda entre chips.
* Gemini 1.5 Pro ofrece 2 millones de tokens.
Esta capacidad «sobrehumana» de leer, en segundos, miles de líneas de código, horas de video o bibliotecas enteras de documentos, es posible gracias a la arquitectura de las TPUs. La capacidad de distribuir la memoria del modelo a través de miles de chips con latencia ultrabaja permite manejar estos contextos masivos de una forma que es económicamente inviable o técnicamente dificilísima en clusters de GPUs tradicionales.
Además, al ser Multimodal Nativo (entrenado desde el principio con imágenes, audio y video, no como parches separados), Gemini aprovecha la capacidad de las TPUs para manejar tipos de datos densos y diversos simultáneamente. Las TPUs son excelentes moviendo tensores grandes (bloques de datos), lo que las hace ideales para video y audio.

Capítulo 6: El Futuro – ¿Pueden los demás ponerse al día?
La industria se ha dado cuenta del error de depender de NVIDIA. Ahora, todos intentan copiar el libro de jugadas de Google.
* Microsoft anunció sus chips «Maia».
* Amazon tiene sus chips «Trainium» e «Inferentia».
* Meta está trabajando en «MTIA».
Sin embargo, el diseño de silicio es un juego de paciencia. Se tarda de 3 a 5 años en desarrollar un chip de alto rendimiento.
Mientras Microsoft despliega su primera generación de Maia (que es prometedora pero inmadura), Google lleva más de 10 años optimizando sus compiladores y su hardware.
El «foso defensivo» (moat) de Google no es solo el chip físico; es el software que corre sobre él. Optimizar TensorFlow y JAX para sacar el 100% del jugo a una TPU ha llevado una década de ingeniería. Los competidores no solo tienen que construir el chip, tienen que construir el ecosistema de software desde cero, mientras sus ingenieros están acostumbrados a programar en CUDA (NVIDIA).
El factor escasez
En un mundo donde la geopolítica (tensiones en Taiwán) o los cuellos de botella en la cadena de suministro pueden cortar el flujo de GPUs, la independencia de Google es un seguro de vida. No compiten por el mismo stock que Meta o xAI. Tienen su propia línea de suministro garantizada con los fabricantes.
Conclusión: El que ríe último…
La batalla por la IA se ha narrado como una carrera de velocidad, donde OpenAI salió disparado primero con ChatGPT. Pero la historia de la tecnología nos enseña que estas no son carreras de 100 metros; son maratones de logística.
NVIDIA es, sin duda, la ganadora actual del mercado bursátil. Pero para las empresas que construyen la IA, NVIDIA es un impuesto existencial.
La ventaja de Google es silenciosa pero tectónica. Mientras sus competidores queman capital de riesgo y reservas de efectivo pagando márgenes exorbitantes a un tercero, Google reinvierte en una arquitectura que posee al 100%.
En el ajedrez de la inteligencia artificial, los modelos (GPT, Gemini, Claude) son las piezas que se mueven en el tablero y capturan la atención del público. Pero el hardware (TPUs vs GPUs) es el tablero mismo. Y en este momento, Google es el único jugador que ha traído su propio tablero a la partida, mientras los demás tienen que pagar alquiler por usar el de alguien más.
A medida que la IA se integre en cada aspecto de la economía global, la eficiencia de costos dictará quién sobrevive. La capacidad de pensar es importante, pero la capacidad de permitirse pensar a escala planetaria sin arruinarse es lo que determinará al vencedor. Y en esa hoja de balance, las TPUs son el arma secreta que podría asegurar que, a largo plazo, la casa (Google) siempre gane. Aunque, como todo en la vida, nada está dicho todavía.
Te podría interesar también:
Tanto vos como tu empresa también pueden invertir en compañías de calidad
En las Mentorías Financieras de El Inversor de Bolsillo® podés ir aprendiendo mientras invertís y te guiamos de acuerdo con lo que vos necesitás. La consultoría financiera para individuos incluye sesiones de asesoría uno a uno, cursos online, informes bursátiles y todo lo necesario para que tu inversión sea un éxito, tanto invirtiendo en la Argentina como en cualquier parte del mundo.
Hay distintos planes mensuales de acuerdo a tus circunstancias y tu presupuesto. Lo más importante es que elijas el plan que elijas, nunca vas a estar solo. Vamos a acompañarte en el aprendizaje para que puedas invertir exitosamente.
Conseguir el mejor financiamiento para tu empresa no es nada fácil. Y además, estás concentrado en como mejorar tu negocio, por lo que las cuestiones financieras pueden ser difíciles. No te preocupes, estamos para ayudarte.
Con el Programa de Optimización Financiera de El Inversor de Bolsillo®, hacemos una evaluación de la compañía y te damos sugerencias concretas para optimizar el rendimiento de los saldos a la vista y reducir la carga por intereses. Te ayudamos a gestionar el alta en una Sociedad de Garantía Recíproca y conseguir las mejores tasas del mercado. Una vez pasados los tres meses gratuitos, se define una cantidad de horas mensuales de consultoría financiera.
Si querés conocer más acerca de cómo invertir sin riesgos, visita nuestra web www.elinversordebolsillo.com.ar o nuestro canal de youtube.
Ver más notas de nuestro blog:
-
La Crisis Financiera de 1825 y la Impactante Caída de London Bank Pole
El 14 de diciembre de 1825 caía uno de los bancos más importantes de Inglaterra: el London Bank Pole. Esta crisis de 1825 tendría impacto en todo el mundo. Veamos cómo sucedió.
-
El Terrorífico Origen de Wall Street: Su Sorprendente Mercado en 1711
El 13 de diciembre de 1711 se estableció el mercado de esclavos en Nueva York en lo que hoy se conoce como Wall Street. La formalidad de un mercado específico simboliza la brutal realidad de la economía colonial.
-
Apple: A 45 Años de su Formidable Salida a la Bolsa
El 12 de diciembre de 1980 se realiza la Oferta Pública Inicial de Apple, cotizando a 22 dólares por acción.
Nube de palabras clave del Blog:
Aeronáutica ahorro analisis fundamental análisis fundamental Apple Asesor Financiero bancos Berkshire Hathaway Bolsa Bolsa de valores bonos burbuja Burbuja puntocom byma commodities Consejos financieros Criptomonedas crisis crisis subprime curso de finanzas gratuito economía Empezar a invertir esquema piramidal Estados Unidos estafas Facebook finanzas Finanzas personales inflación inglaterra libros de finanzas libros de inversión LTCM mentoría financiera mercado argentino mercado de valores mercado internacional Microsoft Petróleo rusia Steve Jobs Tecnología value investing Wall Street warren buffett



