삼성전자가 석 달 만에 57조를 벌었다
삼성전자가 올해 첫 석 달 동안 벌어들인 돈이 57조 2천억 원이거든요. 감이 잘 안 오죠? 한국 정부가 1년 동안 국방에 쓰는 돈이 약 60조 원이니까, 삼성 혼자 거의 그만큼을 석 달 만에 벌어버린 거예요.
매출 133조 원, 영업이익 57조 2천억 원. 2018년 한 해 동안 벌었던 역대 최대 영업이익(58조 9천억 원)을 1분기, 석 달 만에 거의 따라잡았어요.
근데 이 숫자들이 진짜 뭘 의미하는지 아시나요? 왜 갑자기 이렇게 돈을 많이 벌게 된 건지, 이게 일시적인 건지, 비슷한 돈을 버는 엔비디아는 왜 삼성보다 5배나 비싼 건지. 하나씩 풀어볼게요.
1위 애플 509억 달러 · 2위 엔비디아 443억 달러 · 3위 마이크로소프트 383억 달러 · 4위 삼성전자 ~380억 달러 · 5위 알파벳 359억 달러
2026 Q1 빅테크 영업이익 — 삼성이 4위?
삼성전자가 구글 모회사 알파벳을 제치고 빅테크 톱5에 진입했어요.
DDR5 vs GDDR6X vs HBM3E — 한눈에 비교
DDR5와 GDDR6, 그리고 HBM까지 - 그 성능 차이를 아래 그래프를 통해 느껴 보세요
DDR5 vs GDDR6X vs HBM3E — 뭐가 다를까?
비유하자면 세 메모리의 차이는 고속도로의 차선 규모 차이라 보면 될 것 같아요. 근데 그냥 써 보면 알아요. HBM이 압도적이에요.
| 지표 | 💻 DDR5 | 🎮 GDDR6X | 🤖 HBM3E |
|---|---|---|---|
| 버스 폭 | 64bit — 1차선 도로 | 384bit — 6차선 고속도로 | 1,024bit — 32차선 고속도로 |
| 대역폭 | 77 GB/s | 1,008 GB/s | 1,170 GB/s (DDR5의 15배) |
| 전력 소비 (24GB) | ~10W | ~60W (칩 12개 필요) | ~15W (스택 1개로 충분) |
| 구조 | 평면 배치 (2D) | 평면 배치 (2D) | 수직 적층 (3D) — 아파트처럼 16층 |
| 주요 용도 | 일반 컴퓨터, 서버 | 게이밍 GPU, 그래픽 | AI 학습/추론, 데이터센터 |
AI가 왜 이 메모리를 폭식하는 걸까?
GPU의 연산 속도는 매년 거의 2배씩 빨라지는데, 메모리에서 데이터를 가져오는 속도는 연 25~30%밖에 못 따라가거든요. 이걸 '메모리 월(Memory Wall)'이라고 해요.
GPU가 아무리 빨리 계산할 수 있어도 메모리가 데이터를 빨리 못 가져다 주면 GPU가 멍하니 기다려야 해요. 고속도로에서 차가 아무리 빨라도, 톨게이트가 1차선이면 꽉 막히는 것과 똑같죠.
GPT 같은 대형 언어 모델은 수천억 개의 숫자를 메모리에 올려놓고 매 순간 불러와야 해요. HBM은 이 병목을 해소하는 사실상 유일한 솔루션이에요.
HBM 시장은 2023년 약 40억 달러(5.6조 원)에서 2025년 467억 달러(65조 원)로, 2년 만에 10배 이상 폭발했어요. 만들 수 있는 회사는 전 세계에 딱 3곳 — 삼성, SK하이닉스, 마이크론뿐이에요.
2026년 삼성이 세계 최초 양산한 HBM4는 버스 폭이 2,048bit(기존 2배), 대역폭 최대 2TB/s. 32차선이 64차선이 된 셈이에요.
삼성 실적은 왜 롤러코스터를 타나
점 위에 마우스를 올리면 정확한 수치를 볼 수 있어요. 2023년 바닥에서 2026년 반등까지, 롤러코스터가 한눈에 보입니다.
이번 AI 슈퍼사이클은 뭐가 다를까?
이전 사이클들은 "스마트폰 많이 산다", "데이터센터 늘어난다" 같은 수요였어요. 결국 포화되죠. 근데 AI는 달라요. GPT, 제미나이, 클로드 같은 AI 모델이 점점 커지면서 메모리 수요가 기하급수적으로 늘고, AI 에이전트·자율주행·로봇 같은 새 수요처가 계속 생기고 있어요.
게다가 구조적으로 공급 부족이 해소되기 어려워요. HBM은 일반 D램보다 웨이퍼를 3배 더 소모하는데 수율은 65%밖에 안 돼요. 공장 풀가동해도 실제 칩은 적게 나오는 거죠.
한국은행도 "2000년대 이후 가장 강력한 슈퍼사이클"이라고 평가했어요. D램 가격이 1년 새 최대 10배까지 뛰었습니다.
① 수요 폭발 (새 기술 등장) → ② 공급 부족·가격 폭등 (이익률 55~60%) → ③ 설비 투자 광풍 → ④ 공장 완공·공급 과잉·가격 폭락 → 다시 ①로 (약 4년 주기)
삼성 vs SK하이닉스 — 세 번의 역전
HBM 시장에서 삼성과 SK하이닉스의 주도권은 놀랍게도 여러 번 뒤바뀌었어요.
2013: SK하이닉스가 HBM을 발명
AMD와 공동 개발로 세계 최초 HBM 완성. 삼성은 아직 참여하지 않았어요.
2016: 삼성이 HBM2에서 역전
삼성이 HBM2 세계 최초 양산. 엔비디아 V100에 삼성 HBM2가 탑재됐어요.
2019: 삼성의 치명적 오판
삼성 경영진이 "시장성 없다"며 HBM R&D팀 해체. 같은 시각 SK하이닉스는 투자 지속. 이 2~3년 공백이 모든 걸 바꿔요.
2022~2024: SK하이닉스 독주
SK가 HBM3 최초 양산, 엔비디아 H100 독점 공급. 삼성은 발열 문제로 테스트 탈락. 점유율: SK 62% / 마이크론 21% / 삼성 17%.
2026.2: 삼성 HBM4 세계 최초 양산
1c D램 + 자체 4nm 파운드리 + TSV 저전압 = 3종 최선단 공정 동시 투입. 11.7Gbps(표준 46% 초과). 단, 물량은 아직 삼성 30% vs SK 70%.
삼성전자 vs 엔비디아 — 숫자로 보면
각 항목 위에 마우스를 올리면 상세 수치를 볼 수 있어요. 막대 길이 차이가 곧 두 회사의 격차입니다.
돈은 비슷하게 버는데, 왜 엔비디아가 5배 비쌀까?
CUDA가 워낙 GPU를 잘 콘트롤하여 연산처리를 문제없이 잘 처리해 주는 소프트웨어이기 때문에, 전 세계 AI 엔지니어들은 CUDA 위에서 작업을 한다고 생각하면 돼요. 그런데 CUDA는 엔비디아의 GPU에서 작동을 하거든요. 그러니까 AI를 하려면 CUDA를 써야 하고 CUDA를 쓰려면 엔비디아를 써야만 하는거죠. 하지만 삼성전자의 메모리는 조금 달라요. HBM말고 다른 걸 써도 되고, 꼭 삼성전자 메모리만 써야 한다는 법은 없죠. 그러니 삼성전자가 갖고 있는 핵심경쟁력은 엔비디아에 비해 떨어진다고 봐야 맞아요.
| 지표 | 🏭 삼성전자 | 🧠 엔비디아 |
|---|---|---|
| 비즈니스 모델 | 설계+제조 (공장 직접 운영) | 설계만 (팹리스, TSMC 위탁) |
| 핵심 해자 | 공장 + 기술력 | CUDA 생태계 200만 개발자 |
| 이익 패턴 | 사이클리컬 (58조→6조→57조) | 구조적 성장 (4년간 31배) |
그래서 이게 한국에 사는 우리한테 무슨 의미야?
삼성전자 하나가 한국 전체 수출의 약 20%, 코스피 시가총액의 약 20%를 차지해요.
반도체 수출이 늘면 한국으로 달러가 들어와요 → 원화 강세. 본국에 송금하는 분들에게는 양날의 검이에요. 원화가 세지면 바꿀 수 있는 달러·엔·바트가 줄어들거든요.
2018년 슈퍼사이클 때 한국 경제성장률 2.9%, 불황이던 2023년은 1.4%. 삼성 실적은 한 회사 성적표가 아니라 한국 경제의 체온계예요.
뉴스에서 "삼성 실적"이 나올 때마다, 그건 이 나라의 수출, 환율, 고용, 그리고 여러분의 생활과 연결된 이야기입니다.
같은 돈을 벌어도 '그 이익이 계속되느냐'가 시장 평가를 갈라요. 삼성은 '잘 만드는 공장', 엔비디아는 '못 떠나는 생태계' — 시장은 후자에 더 높은 값을 매깁니다.




