[kt cloud TECH UP] 매크로 잡으려다 파산할라: 비용 효율적인 AI 방어 시스템 구축기
2026. 1. 30.본 포스팅은 수많은 협업과 피드백이 오갔던 kt cloud TECH UP 실무 통합 프로젝트 마라톤 티켓팅 플랫폼 구축기의 멘토링 회고 시리즈 두 번째 이야기입니다.)
1. 완벽한 방패를 향한 환상: "모두에게 캡차(VQA)를!"
마라톤 티켓팅의 가장 큰 적인 매크로(Macro) 업자들을 막기 위해, 우리 팀의 AI 파트는 야심 찬 방어 모델을 준비했습니다. 기존의 단순 텍스트 캡차(Captcha)는 OCR(광학 문자 인식) 프로그램에 너무 쉽게 뚫려버렸기 때문입니다.
우리의 무기는 VQA(Visual Question Answering) 모델이었습니다. 사용자가 대기열에 진입하기 직전, AI가 무작위로 생성한 복잡한 이미지(예: "여러 과일 중 빨간색 사과는 총 몇 개인가요?")를 띄우고 그 질문에 대한 정답을 맞혀야만 티켓팅 창구로 넘어갈 수 있게 만드는 강력한 문지기 역할이었죠.
초기 기획은 이렇습니다: "티켓팅을 시도하는 15,000명의 '모든 유저'에게 VQA 창을 띄우자!"
2. 멘토님의 일침: "그거 클라우드 비용 감당 되나요?"
자랑스럽게 VQA 모델 구조를 설명하는 우리에게, kt cloud 보안/AI 담당 멘토님은 아찔한 현실의 제약을 상기시켜 주셨습니다.
멘토님 (kt cloud 침해분석대응 / AI 파트): "VLM이나 VQA 같은 딥러닝 모델은 한 번 추론(Inference)하는 데 매우 큰 GPU 리소스와 시간이 소모됩니다. 15,000명이 동시 접속하는 초당 수천 건의 트래픽(TPS) 환경에서, 모든 사용자에게 실시간으로 딥러닝 방어선을 가동하면 매크로를 막기도 전에 클라우드 인프라 비용으로 파산(Bankruptcy)할 겁니다."
이 조언을 통해 현실적인 클라우드 운영 한계를 인지할 수 있었습니다. 사용자 경험(UX) 측면에서도 선량한 일반 유저들까지 매번 복잡한 퀴즈를 풀어야 한다는 것은 '좋은 UX'와 거리가 멀었습니다.
3. "창과 방패"의 분업화: 하이브리드 방어 아키텍처
멘토님의 피드백을 수용하여, 우리는 비용과 성능, 사용자 경험을 모두 잡을 수 있는 2단계 하이브리드 방어 아키텍처로 설계를 전면 개편했습니다.
1단계: 가벼운 행동 분석 (Classical ML)
티켓팅 화면에서 '결제' 버튼으로 이동하는 찰나의 순간, 프론트엔드는 사용자의 1) 마우스 궤적 이동 속도, 2) 클릭 간격, 3) 폼 입력 속도 등의 데이터를 수집합니다. 이 데이터는 Random Forest나 선형 회귀(Linear Regression)와 같은 매우 가볍고(Lightweight), 실시간 대량 처리가 가능하며 저렴한 고전적 머신러닝 모델 혹은 룰 기반 백엔드 로직에 입력됩니다. 이 1단계 문지기는 이 트래픽이 "직선으로만 움직이는 기계(매크로)"인지 "손을 떠는 일반 사람"인지를 1차적으로 빠르게 판별합니다.
2단계: 선별적인 VQA 출격 (Deep Learning)
수만 명 중 1단계에서 "기계로 강하게 의심되는 10%"의 불량 트래픽(혹은 고위험 IP)에게만 2단계 문지기인 무거운 VQA 캡차가 출격합니다. 이제 고가의 GPU 자원은 전체의 10%에 해당하는 트래픽만 감당하면 되므로 인프라 비용이 획기적으로 절약됩니다.
선량한 일반 유저는 어떠한 방해물도 없이 매끄럽게 티켓팅에 진입하고(좋은 UX), 매크로 업자들만 퀴즈 지옥에 갇히게 되는 것입니다.
4. 완벽한 방어는 '적절한 타협'에서 나온다
기술적으로 가장 뛰어나고 오차율이 적은 무거운 AI 모델 하나를 시스템 전면에 떡하니 세워두는 것은 어쩌면 주니어 레벨에서 가장 흔히 하는 '보여주기식' 설계일지 모릅니다.
하지만 실제 기업의 비즈니스 환경에서는 제한된 인프라 예산과 초당 처리량(Throughput)을 최우선으로 계산해야 합니다. 이번 멘토링을 통해 "저렴하고 빠른 1차 필터링 -> 무겁고 정확한 2차 타격" 이라는 실무 보안 아키텍처의 정석을 배울 수 있었습니다.
다음 포스팅에서는 클라우드 인프라단에서 맞은 뼈아픈 조언, '오토 스케일링(Auto-Scaling)의 함정'에 대한 이야기를 이어가겠습니다.