LGU+, AWS 행사에서 플랫폼 구축 사례 소개
AI 개발부터 서비스 운영까지 효율적으로 연결
GPU 고정 할당 방식 대신 유연 배분 구조 적용
[서울=뉴시스]박은비 기자 = LG유플러스가 아마존웹서비스(AWS) 기반 인프라 운영을 자동화하고 인공지능(AI) 플랫폼을 구축한 사례를 공개했다.
LG유플러스는 AWS가 '생성형 AI와 에이전트 기술을 활용한 인프라 운영 자동화'를 주제로 개최한 행사에서 플랫폼 구축 사례를 공개했다고 10일 밝혔다.
LG유플러스는 기존 온프레미스 중심의 AI 개발 환경을 클라우드와 연계해 유연한 구조로 전환하고, AI 개발부터 서비스 운영까지 전 과정을 효율적으로 연결한 플랫폼 구축 경험을 공유했다. 온프레미스는 회사가 자체 전산실이나 데이터센터에 서버와 시스템을 직접 설치·운영하는 방식을 말한다. 이를 통해 AI 서비스 품질과 운영 안정성을 함께 높일 수 있는 기반을 강화하고 있다고 소개했다.
이번에 소개한 플랫폼은 AI 모델 개발과 서비스 운영 단계 사이에서 발생하는 단절을 줄이는 데 초점을 맞췄다. 그동안 AI 모델의 학습, 평가, 배포, 운영이 각각 분리돼 진행되면서 서비스 전환 과정에서 반복적인 작업이 발생했는데, 이를 하나의 흐름으로 통합한 게 핵심이다.
LG유플러스는 AI를 한 번 개발하고 끝내는 구조가 아니라 항상 서비스에 바로 활용할 수 있는 모델 준비 상태를 유지하는 게 중요하다고 보고 플랫폼을 설계했다. 데이터 수집부터 학습, 평가, 배포, 운영까지 전 과정을 하나의 파이프라인으로 연결해 개발자와 운영자가 보다 일관된 기준과 환경에서 AI를 다룰 수 있게 했다는 게 회사 설명이다.
그래픽처리장치(GPU) 자원 활용 방식을 개선한 것도 이번 플랫폼 특징이다. 기존처럼 GPU를 장비 단위로 고정 할당하는 방식 대신 필요한 만큼 자원을 유연하게 배분하는 구조를 적용해 GPU 미사용 시간을 줄였다. 덕분에 AI 모델 학습이나 서비스 제공이 필요한 시점에 GPU 자원을 보다 효율적으로 활용할 수 있게 됐다.
LG유플러스는 이번 플랫폼 구축 과정에서 AI를 단순한 기술이 아니라 실제 서비스 관점에서 안정적으로 운영할 수 있는 구조와 기준을 설계하는 데 주력했다. 플랫폼이 인프라와 자원 관리 부담을 줄여주면서 AI 서비스를 더 빠르게 제공하고, 품질과 운영 안정성을 지속적으로 높일 수 있는 기반을 갖추게 됐다.
권기덕 LG유플러스 인공지능전환(AX)엔지니어링랩장은 "LG유플러스는 AX 서비스 가속화를 위해 데이터 수집부터 모델 개발·배포·운영까지 아우르는 AI 주도 개발 라이프사이클(AI-DLC) 기반 엔지니어링 플랫폼 역량을 강화하고 있다"며 "앞으로도 AWS와의 기술 협력을 통해 AI 서비스 품질과 운영 안정성을 지속적으로 높여 나가겠다"고 말했다.
◎공감언론 뉴시스 silverline@newsis.com