본문 바로가기
인공지능(AI)

쳇 GPT 돌풍-삼성, 하이닉스 고성능.고용량 메모리 견인 (ft 엔비디아)

by 위드웨이브 2023. 2. 5.

반도체는 경기 변동의 바로미터입니다. 최근 글로벌 경기 침체 우려로 반도체 수요 감소가 진행되고 있는데요. 다행히 인공지능(AI) 기반 쳇 GPT 돌풍으로 AI 반도체 수요의 대폭 증가를 전망하고 있습니다. 관련 사항 살펴보도록 하겠습니다.

 

 

◆ 인공지능(AI) 반도체 시장 규모

 

2023년 2월 5일 반도체 시장조사업체 가트너에 의하면 2020년 220억 달러(한화 약 27조 원) 규모이든 AI 반도체 시장규모가 2023년 올해 553억 달러(약 69조 원) 규모로의 성장을 예상하고 있습니다. 더불어 2026년에는 861억 달러 (약 107조 원)까지의 성장 전망을 내놓고 있습니다.

 

 

1. 인공지능(AI) 산업 응용분야

 

 

음성인식, 기계번역, 자율주행, 메타버스, 이미지분류 등 AI의 응용분야는 지속적으로 확대되고 있습니다.

 

2. AI 분야 반도체 데이터 처리방식 -병렬처리

 

 

AI 분야에서 주로 사용하는 반도체한 번에 대량으로 데이터를 처리하는 '병렬방식'의 그래픽처리장치(GPU)입니다. 아시겠지만 GPU 시장의 절대강자는 80% 이상의 점유율을 지키고 있는 엔비디아입니다. 실제로 쳇 GPT 돌풍에 의거 지난 1월 주가 상승률도 어마어마했지요

 

 

▶ 고대역폭 메모리(HBM) 메모리 대거 탑재

 

하지만 희망적인 것은 이러한 GPU 제품에도 고대역폭 메모리(HBM)를 포함한 D램이 대거 탑재된다는 사실입니다.

 

 

◆ 서버 인프라 투자 확대

 

관련 업계에서는 인공지능(AI) 서비스 학습과정이 텍스트뿐만 아니라 이미지와 비디오, 생체 신호, 등 모든 데이터 형식을 커버하는 멀티모달 형식으로 진행될 것으로 예상되는 만큼 학습과 추론을 위한 서버 증설을 위한 인프라 투자도 확대될 것으로 전망하고 있습니다.

 

 

이러한 서버 인프라 투자는 메모리 수요를 증가시켜 현재의 침체 상태를 반등시키는 계기가 될 수 있습니다.

 

 

▶멀티모달 : 전통적인 텍스트 외에 음성, 표정, 제스처, 생체신호, 등 여러 입력 방식을 융합해 사람과 컴퓨터 사이에 자연스러운 의사소통이 가능한 사용자 친화형 기술을 가능하게 해주는 것을 말합니다.

 

 

◆ 고성능, 고용량 메모리 지원 필수

 

 

1. 학습과 추론 - 대량연산 필수

 

"자연어 기반 대화형 AI 서비스가 미래 메모리 수요에 긍정적인 영향을 미칠 거라고 기대한다"라고 삼성전자 김재준 메모리사업부 부사장은 지난 2023년 1월 31일 22년 4분기 컨퍼런스콜에서 밝혔습니다. AI 기술에 기반한 모델의 학습과 추론을 위해서는 대량연산이 필요한데 이를 가능하기 위해서는 고성능 프로세스와 이를 지원하는 고성능. 고용량 메모리 조합이 필수이고 말했습니다.

 

 

 

2. 고성능 HBM 고용량 D램 수요 증가

 

쳇 GPT 등 AI 기반 서비스가 확장되면 GPU 등에 직접 데이터를 제공하는 고성능 HBM과 AI 학습 데이터 처리를 위해 지원하는 중앙처리장치(CPU)의 양, 128GB 고용량 서버 D램의 수요가 장기적으로 우상향 할 것이라는 기대를 내비치었습니다.

 

 

 

3. 디바이스 기반 성장 한계 → 데이터 기반 성장

 

이는 기존 PC나 스마트폰 등 디바이스 기반의 성장에서 탈피 테크놀로지, 플랫폼, 콘텐츠 기반의 데이터가 주도하는 성장으로 바뀌는 것을 의미합니다. 앞에서 언급한 데이터센터 서바 인프라 확장도 동일 방향으로 이해하면 될 것 같습니다.

 

 

 

4. 메모리 측면 → 속도, 용량 증가 중요

 

기존 서버 메모리 중에서 특히 128GB 급 이상의 모듈 수요가 빠르게 성장하고 있는데요. 향후에는 64GB 에서 128GB로 넘어가는 시점이 빨리 당겨질 수 있는 중요 이슈가 인공지능(AI)이 될 수 있다고 하이닉스 박명수 D램 마케팅 담당은 분석했습니다.

 

 

 

◆ 삼성전자의 메모리 역량

 

1. HBM -PIM(지능형 반도체) 개발

2021년 세계 최초로 메모리 반도체와 AI 프로세스를 하나로 결합한 HBM-PIM(지능형 반도체)을개발했고요. 이어서 AI와 머신러닝 등 데이터센터 성능을 획기적으로 개선할 수 있는 CXL 기반 D램 메모리 기술을 발표하기도 했습니다. 또한 2022년 5월에는 기존 대비 메모리 용량을 4배 늘린 512GB CXL D램을 개발했습니다.

 

 

2.2022년 12월 네이버 제휴

 AI 시스템의 데이터 병목을 해결하고 전력 효율을 극대화할 새로운 반도체 설루션 개발을 위한 제휴를 체결했습니다.

 

 

◆ 하이닉스의 메모리 역량

 

1. HBM3 → 엔비디아 'H100'탑재

하이닉스가 생산하는 고대역폭 제품인 HBM3 가 엔디비아의 'H100'에 탑재 돼 가속컴퓨팅 등 AI 기반 다양한 첨단기술 분야에 공급되고 있습니다.

 

 

HBM3는 HBM 4세대 제품으로 초당 819기가바이트(GB)의 데이터를 처리할 수 있습니다. 이는 풀 HD 영화 163편을 1초에 전송하는 수준이라고 하는데요. 정말 놀랍지 않습니까?

 

 

이 같은 기술 발전으로 말미암아 메모리 업계에도 인공지능(AI) 발전이 장기적 성장동력이 될 거라고 기대하고 있는 겁니다.

 

 

◆ 오픈 AI (쳇 GPT 3.5 → 쳇 GPT 4) / 구글 AI '람다' / 네이버 AI '서치 GPT '

 

1. 쳇 GPT 3.5에서 →  쳇 GPT 4

 

쳇 GPT -3.5 인공지능(AI) 모델의 처리속도 기준인 파라미터(매개변수)는 공개되지 않았습니다. 다만 이전 모델인 쳇 GPT 3의 파라미터가 1천750억 개였다는 점으로 미루어 볼 때 연내 공개가 예상되는 GPT 4의 파라미터(매개변수)는 조 단위(1조~100조 개)로 예상된다고 하는군요.

 

 

2. 구글 '람다' 기반 대화형 챗봇 / 네이버 생성형 AI  '서치 GPT'  베타버전

 

알파벳 최고 경영자 순다르 피차이는 지난 23년 2월 2일  구글이 수개월 내 자사의 인공지능(AI) 언어프로그램 '람다'와 같은 AI 기반의 광범위한 언어를 사용하는 프로그램을 출시할 것이라고 밝혔습니다. 네이버 또한 상반기 중  생성형 AI  '서치 GPT'를 베타버전으로 선보일 계획이라고 하는데요. 인공지능(AI) 발전속도를 지켜보는 것도 매우 흥미롭습니다.

 

댓글