[칼럼] 김은희 l 한국오라클 컨설턴트 "틱톡숍과 AI 인프라의 힘"

패션비즈 취재팀 (fashionbiz_report@fashionbiz.co.kr)
26.02.06 ∙ 조회수 613
Copy Link

[칼럼] 김은희 l 한국오라클 컨설턴트


“좋아하는 것만 쫙 보여주니까 재미가 없을 수가 없다.” 틱톡 광고처럼 인공지능(AI) 개인화 영상의 정점에 있는 틱톡은 2023년 9월 틱톡숍(Tiktok shop) 론칭과 함께 ‘크리에이티브 커머스’와 ‘발견형(Discovery) 커머스’라는 새로운 쇼핑 패러다임을 열었다. 보고 즐기는 콘텐츠가 자연스럽게 구매로 이어지며 틱톡은 단순한 플랫폼을 넘어 소비의 흐름을 재편하는 거대한 생태계가 됐다. 


틱톡숍은 2024년 332억달러(약 48조원)의 거래액을 기록했고, 2025년 660억달러(약 96조원)를 넘어선 것으로 알려졌다. 전 세계 16억명(미국 내 1억7000만명)의 사용자는 스크롤을 내리다가 우연히 눈길을 사로잡는 제품을 ‘발견’하고 구매하는 새로운 경험을 하고 있다. 크리에이터의 라이브 쇼핑은 상품을 매력적인 콘텐츠로 재탄생시키고 구매자는 다시 크리에이터가 돼 “틱톡 보고 샀는데 진짜 좋아(#TikTokMadeMeBuyIt)”라는 후기로 바이럴을 만든다. 


이 경험을 가능하게 하는 것은 강력한 인프라다. 최근 ‘오라클 AI 월드’에서 공개한 ‘프로젝트 텍사스’는 틱톡의 기적을 뒷받침하는 인프라를 보여줬다. 2020년 개인정보 유출과 보안 우려로 사용 금지 위기를 맞은 틱톡은 오라클과 기술 파트너십을 맺고 미국 사용자 데이터를 전용 리전(Dedicated Region) 클라우드로 이전하며 데이터 주권 문제를 해결했다.  


특히 1억5000만명에 달하는 사용자의 취향을 분석하기 위해 클릭, 스와이프, 댓글, 시청 시간 등 ‘실시간 행동 로그’와 매초 쏟아지는 영상 메타데이터를 수집해야 했고, 에지 데이터센터에서 오라클 클라우드 중앙 AI 학습 리전까지 400Gbps 대역폭의 ‘FastConnect’ 전용선을 구축했다. 이는 일반 가정용 속도(1Gbps)와 경쟁사의 전용선(100 Gbps)을 압도하는 대역폭이며, 데이터 이동 경로(Hop)를 단 2개로 줄인 획기적인 설계로 지연 시간을 최소화했다. 빛의 속도로 전달된 대용량 데이터는 즉각 AI 학습과 추론에 투입돼 좋아요를 누른 0.1초 만에 맞춤 영상을 띄우는 ‘초개인화 추천’이 가능해졌다.  


더 놀라운 것은 AI 연산 효율이다. 틱톡은 초고속 AI 추론을 구현하기 위해 오라클 클라우드가 제공하는 RoCE(RDMA over Ethernet) 기반의 GPU 슈퍼클러스터 환경을 전격 도입했다. 과거 오라클 DB 가속에 쓰이던 RDMA 기술은 이제 AI GPU 가속의 핵심으로 진화했다. 수천 개의 GPU가 AI 모델을 학습할 때 CPU와 운영체제를 거치지 않고 메모리 간 직접 데이터를 교환(Direct Memory Access)한다. 마치 신호등 없는 400Gbps 고속도로 위를 스포츠카(GPU)가 질주하듯, AI는 순간적으로 취향을 분석하고 구매확률이 높은 영상을 추천한다. 



틱톡의 기적은 치밀하게 설계된 엔지니어링의 승리다. 사용자들이 쇼핑에 몰입하는 동안 백엔드에서는 400Gbps의 초고속 전용선(Fast Connect)이 데이터 고속도로를 열고, RoCE 기술은 GPU 간 직접 통신을 지원해 찰나의 순간에 실시간 AI 추론을 수행해 낸다.


한국 패션산업이 배워야 할 교훈은 명확하다. 트렌디한 상품과 재미있는 콘텐츠만으로는 글로벌 시장에서 경쟁할 수 없다. 세계적 스케일의 트래픽을 감당하고 전 세계 사용자의 숨은 취향까지 찾아내는 AI 인프라에 과감히 투자할 때, 비로소 글로벌 경쟁력을 갖춘 플랫폼으로 도약할 수 있음을 기억해야 한다.


이 기사는 패션비즈 2026년 2월호에 게재된 내용 입니다.

패션비즈는 매월 패션비즈니스 현장의 다양한 리서치 정보를 제공합니다.


패션비즈 취재팀   fashionbiz_report@fashionbiz.co.kr
Comment
  • 기사 댓글 (0)
  • 커뮤니티 (0)
댓글 0
로그인 시 댓글 입력이 가능합니다.