나는 고전 공학부터 현대 공학, 그리고 딥러닝 AI까지 직접 경험해 보았다. 그래서 칩 워가 직접적으로 말하지 않는, 반도체와 경제를 둘러싼 보다 본질적인 이야기를 나의 경험과 시선에서 풀어보고자 한다.
CPU의 탄생, 무엇을 준비했는가?
세상에는 수많은 물리 법칙이 존재한다. 중력, 마찰력, 만유인력처럼 누구나 한 번쯤 들어본 개념들이다. 우리는 학창 시절 이 법칙들을 계산하고 연결하려 애썼고, 그 과정이 얼마나 복잡한지 체감해왔다. 이 복잡함을 해결하기 위해 등장한 것이 여러 방정식을 한 번에 계산하려는 시도였고, 이는 선형대수의 발전으로 이어졌다. 사람들은 이를 통해 복잡한 시스템을 시간 영역에서 정밀하게 계산하려 했다.
그러나 제2차 세계대전은 이 접근의 한계를 드러냈다. 전차와 포탄의 궤적을 계산하려 했지만, 공기역학과 회전 모멘트 등 다양한 요소가 얽히며 계산은 쉽게 맞지 않았다. 더 많은 변수를 넣을수록 문제는 오히려 풀기 어려워졌다. 이때 등장한 대안이 주파수 영역 기반 계산이다. 정확도는 다소 떨어지지만, 계산은 훨씬 단순해졌다. 전쟁 상황에서 중요한 것은 완벽함이 아니라 충분히 정확하면서 빠른 결과였기 때문이다.
흥미로운 점은 이후 국가별 선택의 차이다. 소련은 전쟁의 한복판에서 즉각적인 결과가 필요했기에, 빠르고 실용적인 주파수 영역 계산에 집중했다. 반면 미국은 상대적으로 여유가 있었고, 여전히 시간 영역 기반의 선형대수 연구를 이어갔다.
이러한 차이는 이후 큰 결과로 이어진다. 소련은 주파수 기반 접근을 통해 빠르게 스푸트니크 1호 발사에 성공하며 세계를 놀라게 했다. 당시 많은 이들은 소련이 기술 패권을 잡을 것이라 예상했다. 하지만 미국은 달랐다. 장기적인 관점에서 계산의 정밀성을 포기하지 않았고, 그 결과 아폴로 11호 달 착륙이라는 성과를 이루어낸다. 결국 언젠가 컴퓨터의 성능이 이를 감당할 수 있을 것이라는 믿음 아래, 더 어렵지만 본질적인 방법을 준비했던 선택이 기술 패권으로 이어진 것이다.
GPU의 탄생, 무엇을 준비했는가?
CPU의 등장 이후 계산 자체는 더 이상 큰 문제가 아니게 되었다. 이제 어떤 수식이든 계산할 수 있는 기반이 마련되었다. 그 다음 단계에서 사람들은 단순 계산을 넘어, 컴퓨터가 스스로 판단하기를 원하기 시작했다. 이를 위해서는 의사결정 로직이 필요했고, 1980년대 제프리 힌턴은 딥러닝의 핵심 이론을 제시한다. 그러나 문제는 여전히 계산이었다. 딥러닝은 이론적으로 강력했지만, 당시의 컴퓨팅 성능으로는 연산량을 감당할 수 없었다.
같은 시기 일본은 빠른 경제 성장을 위해 즉시 적용 가능한 기술을 선택한다. 그 결과 퍼지 이론이 산업 전반에 도입되었고, 일본은 IT 강국으로 빠르게 도약한다. 퍼지 이론은 딥러닝보다 단순하고 정확도는 떨어지지만, 현실에서 빠르게 활용할 수 있는 장점이 있었다. 당시 일본 경제의 위상을 보여주는 상징적인 표현으로 도쿄의 가치가 미국 전체를 살 수 있다는 말까지 나올 정도였다.
반면 미국은 달랐다. 많은 연구자들이 여전히 딥러닝 연구를 이어갔다. 언젠가 컴퓨터가 충분히 빨라질 것이라는 믿음을 가지고 말이다. 그리고 그 순간이 찾아온다. 엔비디아가 게임용으로 개발한 GPU가 딥러닝 연산에 적합하다는 사실이 밝혀지면서, AI는 폭발적으로 성장하기 시작한다. 이후 흐름은 분명하다. 일본 경제는 장기 침체에 들어가고, 미국은 AI를 중심으로 다시 한 번 기술 패권을 장악한다. 결국 여기서도 동일한 패턴이 반복된다. 당장 쓸 수 있는 기술이 아니라, 언젠가 가능해질 기술을 준비한 선택이 미래를 결정했다는 점이다.
CPU, GPU 그 다음, 무엇을 준비해야 하는가?
반도체에서 중요한 축은 크게 두 가지다. 연산 속도와 메모리다. 현재 미국은 Intel, NVIDIA, AMD 등을 중심으로 연산 속도를 극대화하는 데 집중하고 있다. 반면 한국은 삼성와 하이닉스를 중심으로 메모리 용량과 집적도를 높이는 데 강점을 가지고 있다. AI에서 이 두 요소의 역할은 분명히 다르다. 인공지능을 학습할 때 중요한 것은 얼마나 많은 데이터를 한 번에 다룰 수 있는가, 즉 메모리다. 반면, 학습이 완료된 AI를 실제 서비스에 적용할 때는 얼마나 빠르게 계산할 수 있는가, 즉 연산 속도가 중요해진다.
이처럼 현재 반도체 산업은 연산 속도 중심의 미국과 메모리 중심의 한국 이라는 서로 다른 전략 위에서 발전하고 있다. 과거를 돌아보면, 소련과 미국, 일본과 미국의 경쟁에서 결국 승리한 쪽은 더 먼 미래를 준비한 국가였다. 그렇다면 지금의 대한민국과 미국은 어떤 방향으로 나아가고 있는가. 그리고 그 결과는 어떻게 달라질 것인가.
그럼 우리는 무엇을 준비해야 하는가?
우리는 반도체를 직접 설계하거나 생산하는 사람이 아니다. 그렇다면 이 거대한 흐름 속에서 우리는 무엇을 준비해야 할까. 결론은 점점 분명해지고 있다. 이제 핵심은 반도체가 아니라 데이터다. 반도체는 계산을 빠르게 해주는 도구일 뿐이다. 아무리 뛰어난 GPU와 AI 모델이 있더라도, 그 위에 올라갈 데이터가 없다면 의미가 없다. 실제로 NVIDIA 역시 결국 AI의 성능을 결정하는 것은 데이터라는 점을 지속적으로 강조해왔다.
데이터는 단순한 정보가 아니다. 경험의 축적이며 산업의 자산이고 미래 경쟁력 그 자체다 앞으로 더 강력한 반도체가 등장하고, 더 정교한 AI 모델이 개발될수록 그 차이를 만드는 것은 결국 누가 더 많은, 더 좋은 데이터를 가지고 있는가가 될 것이다.
그렇다면 우리의 선택은 분명하다. 지금부터 데이터를 모아야 한다. 단순히 양을 늘리는 것이 아니라, 의미 있는 데이터를 쌓고 그것을 구조화하고 활용할 수 있는 형태로 축적해야 한다 이 준비는 당장 눈에 보이는 성과로 이어지지 않을 수도 있다. 하지만 과거 미국이 그랬듯, 언젠가 기술이 이를 따라올 것이라는 믿음 아래 준비한 것들이 결국 패권을 만들었다.
CPU에서 GPU로 이어지는 흐름은 단순한 기술 발전이 아니다. 그것은 계산 능력의 한계를 어디까지 밀어붙일 것인가에 대한 인간의 선택이었다. 그리고 이제 그 다음 단계는 분명하다. 계산이 아니라, 무엇을 계산할 것인가의 문제, 즉 데이터의 문제다. 앞으로의 시대는 더 이상 누가 더 빠르게 계산하는가의 경쟁이 아니라 누가 더 의미 있는 데이터를 가지고 있는가의 경쟁이 될 것이다.
반도체가 길을 열어준 시대에서, 데이터는 그 길 위를 달리는 힘이 된다. 그리고 그 준비는 거창한 기술이 아니라, 지금 우리가 무엇을 기록하고, 무엇을 축적 하느냐 에서 시작된다.
