오픈AI는 15초 분량 음성을 활용해 딥페이크(Deep fake) 목소리를 만들어내다
  No.14/ Apr 2024 
모든 빅테크가 자체 AI칩에 '올인' 하는 이유 

인공지능(AI) 없는 실리콘밸리는 상상할 수가 없어요. 매일 AI 소식이 쏟아지고 있는 것인데요. 이번에는 AI 반도체(칩)에 대한 이야기를 해보려고 해요. 구글·아마존·MS에 이어 메타까지 빅 테크 기업들이 자체 AI 칩을 개발해 선보이고 있어요.

최근 페이스북 모회사 메타플랫폼 차세대 AI 반도체 'MTIA'(Meta Training and Inference Accelerator)를 공개했어요. 'MTIA' 칩은 지난해 5월 메타가 처음 선보인 반도체 모델 'v1'2세대 버전이에요. 메타는 MTIA에 대해 이전 모델보다 더 빠른 속도를 제공하고 자체 테스트 결과 4개 유형에서 3배 더 나은 성능을 보였다고 강조했어요. 
AI칩 부동의 선두주자는 엔비디아인데요. 

엔비디아는 생성형 AI의 학습과 추론에 필수인 그래픽처리장치(GPU) 시장의 80% 이상을 장악하고 있어요. 또 엔비디아는 지난달 전작 대비 30배 성능이 우수한 차세대 AI 칩 '블랙웰'을 선보이고 AI 칩 왕좌 굳히기에 나선 상태예요. 
그런데 왜 빅테크들은 엔비디아의 AI 칩을 사용하지 않고 천문학적인 비용을 들이면서 자체 AI 칩을 개발하고 있는 것일까요.

인공지능(AI) 반도체(Chip)
AI Chip은 다양한 AI 작업을 처리하도록 설계된 칩을 뜻해요. AI칩은 패턴 인식, 자연어 처리 등과 같은 특정 AI 학습과 추론을 가속화하도록 맞춤화되어 있어요.
AI 칩은 크게 그래픽 처리 장치(GPU), 프로그래머블 반도체(FPGA), 주문형 반도체(ASIC)를 포함해요.
GPU는 원래 게임용으로 개발된 것인데 이제 딥 러닝과 AI에 필수적인 요소가 되었어요. GPU 대량의 연산이 필요한 AI 계산과 훈련에 최적화되어 있기 때문이에요. FPGA는 특정 AI 작업에 유연하게 사용할 수 있고 ASIC는 AI 작업에 최적화된 맞춤형 설계를 자랑해요.

고대역폭 메모리(HBM·High Bandwidth Memory)
AI Chip에서 뺴놓을 수 없는 것이 HBM이에요. HBM은 AI chip 제조에 반드시 필요한 메모리인데 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품을 뜻해요. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발됐어요. HBM3E는 HBM3의 확장(Extended) 버전이에요. 현재 AI Chip 시장을 장악하고 있는 엔비디아의 AI 칩에는 SK하이닉스의 HBM이 공급되고 있어요.
거의 모든 빅테크 들이 개발에 뛰어든 AI 칩.  ⓒ 로이터연합뉴스
📢 엔비디아 쏠림 현상, 손에 넣는데 무려 1년
  • 빅테크들이 자체 AI 칩 개발에 올인하고 있는 이유는 아주 간단해요. 엔비디아의 AI칩을 손에 넣기까지 시간이 너무 오래걸리기 때문이에요.
  • AI 붐으로 엔비디아의 고성능 GPU 칩 'H100' 공급은 수요를 따라가지 못하고 있어요. AI 열풍이 불면서 고성능 엔비디아 AI 칩을 주문해 손에 넣기까지 대기 기간이 평균 1년 정도 걸린다고 해요.
  • 때문에 빅테크는 물론, 전 세계의 모든 기술기업들이 조금이라도 더 많이 엔비디아의 'H100'을 확보하려고 하고 있지만 상당히 어려운 상황이에요. 빅테크나 IT 업계에게 1년이라는 시간은 너무나 길고 아까운 시간이에요. 때문에 빅테크들은 이런 엔비디아 의존도를 타파하기 위해 자체 AI 칩 개발에 힘을 쏟고 있어요.
 엔비디아의 젠슨 황 CEO가 지난달 18일 미국 캘리포니아주 새너제이 SAP 센터에서 열린 엔비디아 GTC(연례개발자컨퍼런스)에서 차세대 AI칩 '블랙웰'을 선보이고 있다.  ⓒ AFP연합뉴스
메타플랫폼의 마크 저커버그 CEO ⓒ AFP연합뉴스
 😵"메타버스 아니다" AI칩으로 방향 바꾼 메타플랫폼
  • 메타의 차세대 AI 반도체 'MTIA'는 대역폭이 기존 모델보다 늘어났어요. 또 메타는 칩에 들어가는 서버컴퓨터용 랙도 직접 개발할 정도로 MTIA에 정성을 쏟았어요.

  • 메타는 MTIA 칩의 역량을 확장해 자체 대규모언어모델(LLM)인 '라마'와 같은 생성형 AI를 훈련하는 것이 목표라고 강조했어요. 이를 위해 컴퓨팅, 대역폭, 메모리 용량의 균형에 초점을 두고 있다고 설명했어요. 메타는 MTIA를 통해 엔비디아에 대한 의존도를 낮출 수 있을 것으로 기대하고 있어요.

  • 저커버그가 메타버스에 꽂혀 지난 몇 년간을 허비하며 상당한 손실을 본 것과 비교하면 상당히 다른 행보예요. 시장에서는 "이제야 저커버그가 바른길로 가고 있다"라며 메타의 향후 모습을 기대하고 있어요.

  • 마크 저커버그 최고경영자(CEO)는 인간 지능에 가깝거나 능가하는 범용인공지능(AGI) 구축을 위해 가장 많이 사용되는 엔비디아의 H100 칩 35만개를 포함해 연내에 총 60만 개의 H100급 AI 칩을 확보할 것이라고 밝힌 바 있어요.
    또 지난해 10월에는 AI 지원 인프라 구축을 위해 350억 달러를 지출할 계획이라며 AI가 올해 가장 큰 투자 영역이 될 것이라고 했어요. 

애플. ⓒ로이터연합뉴스
📢 AI 뒤처진 애플도 AI칩 내놔
  • 다른 빅테크나 경쟁사보다 AI에서 뒤처지고 있는 애플도 차세대 M4 생산을 앞두고 있어요.
  • 애플의 새로운 M4 칩은 AI에 기능에 중점을 두고 있어요.  애플은 자체 개발한 새 칩으로 맥(Mac·PC 및 노트북) 라인업의 전면 개편을 추진할 계획이에요.

  • 새 칩을 장착한 기본형 14인치 맥북 프로와 고급형 14인치 및 16인치 맥북 프로, 맥 미니를 우선 출시하고 이후 13인치와 15인치 맥북 에어, 맥스튜디오(데스크톱) 등도 선보일 예정이라고 해요. 애플은 올해 말부터 시작해 내년 초까지 M4 칩을 탑재한 제품의 출시를 목표로 하고 있어요.

  • 애플이 AI칩 M4를 통해 서둘러 맥 라인업 전면 개편에 나선 것은 최근 맥 판매량이 크게 줄어들고 있기 때문이에요. 맥 판매량은 애플 2022 회계연도(2021년 10월∼2022년 9월)에 정점을 찍은 이후 2023 회계연도(2022년 10월~2023년 9월)에는 전년 대비 27% 급감했어요. 애플은 지난해 10월 M3 칩을 탑재하며 새로운 맥 제품을 출시했지만, M3의 성능이 이전 칩과 별다른 차이가 나지 않으면서 판매량도 크게 개선되지 않았었어요.

미국 반도체 챔피언 인텔이 내놓은 인텔의 최신형 AI 칩 '가우디3'의 성능이 소개된 화면 ⓒ 인텔 제공
📢 인텔 AI칩 '가우디3'으로 엔비디아에 도발
  • 인텔은 최신 AI 칩 '가우디3'을 공개하고 AI칩 시장의 80%를 장악하고 있는 엔비디아에 도전장을 던졌어요.
  • 인텔은 지난 9일(현지시간) 미국 애리조나주 피닉스에서 개최된 '인텔 비전 2024'에서 가우디3을 소개하고 가우디3이 엔비디아의 AI칩 'H100'에 비해 성능이 탁월하다고 주장했어요. 팻 겔싱어 인텔 CEO는 "가우디3은 엔비디아의 최신 H100보다 전력 효율이 두 배 이상 높고 실행능력도 1.5배 더 빠르다"고 말했어요.
  • 겔싱어 CEO는 "AI 칩 가우디3은 경쟁사 대비 35%에서 최대 60%까지 더 빠른 추론 속도를 제공한다"며 엔비디아를 도발했어요. 인텔의 다스 캄하우트 소프트웨어 담당 부사장 역시 "경쟁력 있는 가격과 차별화된 개방형 통합 네트워크를 가진 가우디3는 강력한 제품"이라고 강조했어요. 인텔은 가우디3이 엔비디아가 지난달 GTC에서 공개한 차세대 반도체 블랙웰과도 겨뤄볼 만하다고 자신하고 있어요..
AI칩 등 AI에 막대한 투자를 하고 있음을 공개한 세계 최대상거래 기업 아마존. ⓒ AP연합뉴스
🔈 아마존까지 AI칩 개발에 뛰어들어
  • 아마존도 AI 칩에 투자하고 있는 점을 주주들에게 강조했어요.
  • 앤디 재시 아마존 최고경영자(CEO)는 최근 주주들에게 보낸 연례 서한에서 아마존이 AI에 집중적으로 투자하고 있다고 설명했어요. 아마존이 현재 AI와 관련해 AI칩 개발을 비롯해 AI 모델과 챗GPT와 같은 모델을 기반으로 만들어진 애플리케이션 등 3가지에 집중하고 있다는 것이 재시 CEO의 설명이에요.
  • 아마존은 이미 AWS(아마존클라우드·아마존웹서비스)를 통해 AI와 멀어지지 않고 있는 상황이에요. 그는 "앞으로 수년간 AI가 회사에 수백억 달러의 수익을 견인할 것"이라고 기대했어요.
  • 그러면서도 재시 CEO는 주주들에게 인내심을 가질 것을 요청했어요. 아마존이 AI 개발의 초기 단계라며 실제 큰 수익을 창출할 때까지는 시간이 필요할 것이라는 것이 그의 주장이에요. 재시 CEO는 "AI 솔루션을 통해 얻을 수 있는 사회적, 비즈니스적 이익은 우리 모두를 놀라게 할 것"이라며 주주들에게 다시 한번 아마존이 AI칩 등 AI에 집중하고 있음을 강조했어요.
■개인 맞춤형 음악 선곡도 이제 AI가 대세

→약 1억곡의 음원 트랙과 세계 6억여 명의 구독자를 보유한 미국 최대 음원 기업 스포티파이(Spotify)는 최근 'AI DJ' 서비스를 선보여 

→'AI DJ' 서비스의 핵심은 AI가 라디오 DJ처럼 청취자가 계속해서 편안하게 음악을 들을 수 있도록 그동안의 청취 패턴을 분석한 뒤 새롭게 좋아할 만한 곡을 골라 들려주는 것

→스포티파이가 이 같은 서비스를 선보일 수 있었던 배경은 지난 10여년 동안 AI 분야, 특히 머신러닝에 적극적으로 투자한 결과

■구글 캘리포니아주에서 뉴스 제공 중단

→ 구글 미국 캘리포니아주 뉴스 매체에 사용료를 지급하라는 법안에 대한 영향을 조사하기 위해 이 지역 사이트에 대한 뉴스 제공 일시 중단

→캘리포니아주는 저널리즘을 보호하기 위해 구글 등 온라인 플랫폼 대기업이 뉴스 사용료를 내게 하는 '저널리즘 보호법'(Journalism Preservation Act)을 추진중
→구글  이번 조치가 얼마나 계속 될지, 얼마나 많은 사용자가 영향을 받을지, 뉴스 제공 중단에는 어떤 뉴스 기관이 포함될 지 등에 대해서는 언급하지 않아

■테슬라 풀셀프드라이빙(FSD) 월 이용료 대폭 인하
→테슬라 미국과 캐나다에서 주행보조장치인 풀셀프드라이빙(FSD) 월 이용료를 199달러에서 99달러로 인하
→FSD는 테슬라의 주행보조장치로 앞차와 간격을 유지하며 차선을 따라가는 '오토파일럿' 기능에 더해 차선도 바꾸고 신호등을 감지하며 설정한 목적지를 찾아가게 함
→오토파일럿 기능이 기본 탑재된 것과 달리 FSD는 차 구매시 1만2000 달러에 소프트웨어를 사거나 월 199달러의 구독료를 내야 했음
written by Changki Hong(The Financial News)
edited by Changki Hong(The Financial News)
매주 새로운 소식이 궁금하다면
아래의 구독 버튼을 눌러주세요!
파이낸셜뉴스
서울 서초구 강남대로 315
위 레터에 포함된 모든 콘텐츠 저작권은 파이낸셜뉴스에 있습니다.