Samsung Electronics ganhou 57 trillion KRW (≈$39B) em apenas três meses
Nos primeiros três meses deste ano, Samsung Electronics faturou 57.2 trillion KRW. É difícil ter noção, né? Como o governo coreano gasta cerca de 60 trillion KRW por ano em defesa, a Samsung sozinha ganhou quase esse valor em apenas três meses.
Receita de 133 trillion KRW, lucro operacional de 57.2 trillion KRW. Quase igualou, em apenas um trimestre, em três meses, o maior lucro operacional da história que havia registrado ao longo de todo o ano de 2018 (58.9 trillion KRW).
Mas vocês sabem o que esses números realmente significam? Por que, de repente, a empresa passou a ganhar tanto dinheiro, se isso é algo temporário, e por que a NVIDIA, que ganha valores parecidos, vale 5 vezes mais do que a Samsung. Vamos destrinchar isso passo a passo.
1º Apple US$ 50,9 bilhões · 2º NVIDIA US$ 44,3 bilhões · 3º Microsoft US$ 38,3 bilhões · 4º Samsung Electronics ~US$ 38,0 bilhões · 5º Alphabet US$ 35,9 bilhões
Lucro operacional das big techs no 1º tri de 2026 — Samsung em 4º lugar?
Samsung Electronics ultrapassou a Alphabet, controladora do Google, e entrou no top 5 das big techs.
DDR5 vs GDDR6X vs HBM3E — comparação rápida
Veja a diferença de desempenho entre DDR5, GDDR6 e HBM no gráfico abaixo.
DDR5 vs GDDR6X vs HBM3E — qual é a diferença?
As três memórias diferem como as faixas de uma rodovia. Dá pra ver de cara. HBM é dominante.
| Indicador | 💻 DDR5 | 🎮 GDDR6X | 🤖 HBM3E |
|---|---|---|---|
| Largura do barramento | 64bit — estrada de 1 faixa | 384bit — via expressa de 6 faixas | 1,024bit — rodovia 32 faixas |
| Largura de banda | 77 GB/s | 1,008 GB/s | 1,170 GB/s (15× DDR5) |
| Consumo de energia (24GB) | ~10W | ~60W (precisa de 12 chips) | ~15W (uma pilha basta) |
| Estrutura | disposição plana (2D) | disposição plana (2D) | Empilhamento vertical (3D) – 16 andares como um apartamento |
| Uso principal | computador comum, servidor | GPU para jogos, gráficos | treinamento/inferência de IA, datacenter |
Por que a IA “devora” tanto essa memória?
A velocidade de processamento das GPUs quase dobra a cada ano, mas a velocidade de buscar dados da memória só cresce cerca de 25–30% ao ano. Isso é chamado de 'Memory Wall'.
Por mais rápido que uma GPU consiga calcular, se a memória não conseguir fornecer os dados rapidamente, a GPU fica esperando à toa. É exatamente como numa rodovia: por mais rápidos que sejam os carros, se a praça de pedágio tiver só uma faixa, tudo congestionará.
Modelos de linguagem de grande porte, como o GPT, precisam manter na memória centenas de bilhões de números e acessá-los a todo momento. O HBM é, na prática, a única solução para eliminar esse gargalo.
O mercado de HBM saltou de cerca de US$ 4 bilhões (5.6 trillion KRW) em 2023 para US$ 46.7 bilhões (65 trillion KRW) em 2025, explodindo mais de 10 vezes em apenas 2 anos. Só existem 3 empresas no mundo capazes de produzi-lo — Samsung Electronics, SK Hynix e Micron.
Em 2026, o HBM4 produzido em massa pela Samsung Electronics pela primeira vez no mundo tem largura de barramento de 2,048 bits (o dobro da anterior) e largura de banda de até 2 TB/s. É como se 32 faixas tivessem virado 64 faixas.
Por que os resultados da Samsung Electronics parecem uma montanha-russa
Passe o mouse sobre os pontos para ver os valores exatos. Do fundo do poço em 2023 até a recuperação em 2026, a montanha-russa aparece de relance.
O que torna este superciclo de IA diferente?
Nos ciclos anteriores, a demanda vinha de coisas como "as pessoas compram mais smartphones" e "os data centers aumentam". No fim, isso satura. Mas a IA é diferente. À medida que modelos de IA como GPT, Gemini e Claude ficam cada vez maiores, a demanda por memória cresce exponencialmente, e novas fontes de demanda como agentes de IA, condução autônoma e robôs continuam surgindo.
Além disso, estruturalmente é difícil resolver a escassez de oferta. O HBM consome 3 vezes mais wafers do que o DRAM comum, mas o rendimento é de apenas 65%. Mesmo com as fábricas operando a plena capacidade, saem poucos chips de fato.
O Banco da Coreia também avaliou isso como o "superciclo mais forte desde os anos 2000". O preço da DRAM subiu até 10 vezes em apenas um ano.
① Explosão da demanda (surgimento de nova tecnologia) → ② Escassez de oferta e disparada dos preços (margem de lucro de 55~60%) → ③ Frenesi de investimento em capacidade → ④ Conclusão das fábricas, excesso de oferta e colapso dos preços → de volta a ① (ciclo de cerca de 4 anos)
Samsung vs SK Hynix — três viradas
No mercado de HBM, a liderança entre Samsung e SK Hynix mudou de mãos várias vezes, de forma surpreendente.
2013: SK Hynix inventa o HBM
Concluiu o primeiro HBM do mundo em codesenvolvimento com a AMD. A Samsung ainda não participava.
2016: Samsung vira o jogo com o HBM2
A Samsung iniciou a produção em massa do HBM2 pela primeira vez no mundo. O NVIDIA V100 veio equipado com HBM2 da Samsung.
2019: o erro fatal da Samsung
A diretoria da Samsung desmantelou a equipe de P&D de HBM, dizendo que "não tinha viabilidade de mercado". Ao mesmo tempo, a SK Hynix continuou investindo. Esse vazio de 2~3 anos muda tudo.
2022~2024: domínio absoluto da SK Hynix
A SK iniciou primeiro a produção em massa do HBM3 e forneceu com exclusividade para o NVIDIA H100. A Samsung foi reprovada nos testes devido a problemas de aquecimento. Participação de mercado: SK 62% / Micron 21% / Samsung 17%.
2026.2: Samsung inicia a produção em massa do HBM4 pela primeira vez no mundo
DRAM 1c + fundição própria de 4 nm + baixa tensão TSV = adoção simultânea de três processos de ponta. 11,7 Gbps (46% acima do padrão). Ainda assim, o volume segue em Samsung 30% vs SK 70%.
Samsung Electronics vs NVIDIA — olhando os números
Passe o mouse sobre cada item para ver os números detalhados. A diferença no comprimento das barras representa a distância entre as duas empresas.
Se ganham quase o mesmo dinheiro, por que a NVIDIA vale 5 vezes mais?
CUDA controla bem a GPU, então lida com os cálculos sem problemas. Por isso engenheiros de IA em todo o mundo trabalham com CUDA. Mas o CUDA só roda nas GPUs da NVIDIA. Então, se você quer fazer IA precisa de CUDA, e para usar CUDA precisa da NVIDIA. A memória da Samsung é um pouco diferente; dá para usar algo que não seja HBM e não é obrigatório usar só a memória da Samsung. Então a vantagem principal da Samsung é menor que a da NVIDIA.
| Indicador | 🏭 Samsung Electronics | 🧠 Nvidia |
|---|---|---|
| Modelo de negócio | projeto + fabricação (opera a fábrica diretamente) | só projeto (fabless, terceirizado para a TSMC) |
| Vantagem principal | fábrica + capacidade tecnológica | Ecossistema CUDA 2 milhões de desenvolvedores |
| Padrão de lucro | cíclico (58조→6조→57조) | crescimento estrutural (31 vezes em 4 anos) |
Então, o que isso significa para nós que vivemos na Coreia?
Só a Samsung Electronics responde por cerca de 20% de todas as exportações da Coreia e por cerca de 20% da capitalização de mercado do KOSPI.
Quando as exportações de semicondutores aumentam, dólares entram na Coreia → fortalecimento do won. Para quem envia dinheiro ao país de origem, isso é uma faca de dois gumes. Quando o won se valoriza, a quantidade de dólares, ienes ou baht que você pode trocar diminui.
No superciclo de 2018, o crescimento econômico da Coreia foi de 2,9%; em 2023, ano de recessão, foi de 1,4%. Os resultados da Samsung não são apenas o boletim de uma empresa, mas sim o termômetro da economia coreana.
Sempre que aparece "resultados da Samsung" nas notícias, isso está ligado às exportações do país, à taxa de câmbio, ao emprego e ao cotidiano de vocês.
Mesmo ganhando o mesmo dinheiro, o que divide a avaliação do mercado é se 'esse lucro vai continuar'. A Samsung é uma 'fábrica que produz bem'; a NVIDIA é um 'ecossistema do qual ninguém consegue sair' — e o mercado atribui um valor mais alto à segunda.




