452 읽음
기업 내 ‘신(新) 특권계정’ 부상한 AI 에이전트… ‘보안 리스크’ 지적
IT조선
0
인공지능(AI) 에이전트가 최근 기업 시스템 내에서 새로운 '특권계정'으로 작동하며 보안 리스크를 만들어내자 사이버 보안 업계가 대응에 나서고 있다. 보안 전문가들은 AI 에이전트가 자동화와 자율성을 기반으로 다양한 시스템과 데이터를 오가며 작업을 수행하지만, 이를 기존 사용자 계정처럼 면밀히 관리하는 체계가 부족해 보안 사각지대가 커지고 있다고 지적한다.

AI 에이전트는 사용자가 설정한 목표에 따라 주어진 환경을 분석하고 필요한 각종 도구를 활용해 인간의 개입 없이도 자율적으로 업무를 수행하는 AI 시스템을 뜻한다. 기존 거대언어모델(LLM) 기반의 AI가 정보 제공에 초점이 맞춰졌다면, AI 에이전트는 정보를 기반으로 외부 도구와 연동해 필요한 작업을 스스로 수행한다.

17일 글로벌 아이덴티티 보안 기업 사이버아크의 조사에 따르면 금융 대기업과 소프트웨어 회사의 약 40%가 이미 AI 에이전트를 운영 환경에 도입했다. 하지만 이들 AI 에이전트의 보안 제어 기능을 대규모로 구축한 조직은 10곳 중 1곳 미만인 것으로 나타났다. 특히 금융 및 소프트웨어 기업의 CISO(최고정보보호책임자) 3분의 2가 AI 에이전트를 '3대 사이버 보안 위협'으로 인식하고 있으며, 3분의 1은 가장 우려사항으로 답했다.
현재 AI 도입 기업에서는 AI 에이전트가 API, 데이터베이스, 클라우드 애플리케이션 등 여러 자원에 자동 접근하는 구조가 일반화됐다. 결과적으로 AI가 관리자 계정에 준하는 '과도한 권한'을 갖는 경우도 빈번한 상황이다.

전문가들은 AI 에이전트가 사람보다 훨씬 빠른 속도로 매우 광범위한 데이터를 처리한다는 점에서 기존 특권계정보다 더 까다로운 위험요소가 될 수 있다고 평가한다. 특히 에이전트가 별도 승인 없이 필요한 작업을 수행하거나, 다른 에이전트와 협업하는 과정 등에서 문제가 발생할 수 있다. 인간 사용자를 중심으로 설계된 기존 IAM(신원 및 접근 관리) 및 PAM(특권 접근 관리) 시스템이 이를 적절히 감시하지 못한다는 문제가 지적되는 것이다.

최근 다수 보안 전문 기업들의 보고서에는 AI 에이전트가 악성 명령어를 주입받아 내부 자격증명 파일을 외부로 전송할 뻔하거나, 실제 전송까지 했다는 테스트 사례들을 다루고 있다. 또 내부 코드 저장소에 대한 접근 정책을 우회하거나 외부 도메인과 자동 통신하는 등 전형적인 내부자 위협에 가까운 행동을 수행한 정황도 확인됐다.

악의성이 있는 명령어는 AI가 수행하지 않도록 설정할 수 있다. 하지만 교묘하게 우회해 명령어를 입력할 수 있기에 '지시된 입력을 있는 그대로 수행한다'는 AI의 특성이 리스크를 증폭시킬 수 있다는 지적이다.

이러한 리스크는 국내 기업들도 예외는 아니다. 금융, 제조, 공공 등 민감 데이터를 많이 다루는 분야에서는 AI 에이전트 권한 설정 하나가 대규모 정보유출로 이어질 가능성이 크다. 정보보호 법·규제 역시 비인간 계정에 대한 관리 책임을 강화하는 방향으로 움직이고 있어, 기업의 선제적 대응이 필요하다는 분석이 나온다.

금융보안원은 올해 6월 발표한 보고서를 통해 AI 에이전트가 본격적으로 도입되면 보안 위협이 높아질 것이라고 전망했다. AI 에이전트가 사용자의 정당한 지시와 숨겨진 공격자의 악의적인 지시를 구분하지 못한다면, 비정상적인 대출 승인이나 공격자 계좌로의 자금 승인 등 직접적인 피해까지 발생할 것이라고 우려했다. 이에 AI 에이전트의 의사결정 과정을 기록·추적하는 체계를 구축하고, 사람의 검토·승인 절차를 도입하며, 최소 권한을 부여하며 관리해야 한다고 조언했다.

보안 솔루션 업계 전문가들 역시 같은 맥락의 해결책을 제시하고 있다. AI 에이전트를 단순한 자동화 도구가 아니라 '비 인간 신원(Non-human Identity)'으로 분류하고, 신원·권한관리를 기존 사용자 계정과 동일한 수준으로 격상해야 한다고 강조한다. 에이전트별 고유 계정 발급, 최소권한 원칙 재정의, 에이전트 행위 기반 모니터링 도입, 개발부터 폐기까지 이어지는 생애주기(Lifecycle) 관리 체계 구축이 핵심 대응책으로 제시된다.

최장락 사이버아크코리아 이사는 "AI 에이전트는 기업 혁신을 가속화하는 강력한 도구지만, 적절한 통제 없이 운영될 경우 기존 특권계정보다 훨씬 빠르고 넓은 범위로 피해를 확산시킬 수 있는 위험 요소가 된다"며 "기업은 이제 AI를 포함한 모든 비인간 정체성을 사람과 동일한 수준으로 관리하는 체계를 갖춰야 한다. 최소권한 원칙과 라이프사이클 기반의 접근 제어가 제대로 갖춰지지 않으면 AI 에이전트는 기업 내부에서 가장 강력한 공격 지점이 될 수 있다"고 말했다.
사이버아크는 이러한 리스크에 대응하기 위해 최근 '시큐어 AI 에이전트 솔루션(Secure AI Agents Solution)'을 선보였다. AI 에이전트를 자동 식별하고 최소권한 기반의 적시 접근(Zero Standing Privileges) 원칙을 적용해 필요할 때만 권한을 부여하도록 설계됐다. 또한 에이전트의 생성부터 폐기까지 생애주기를 관리하고 이상 행위를 실시간 탐지해 무단 접근과 권한 오남용을 방지한다.

정종길 기자

jk2@chosunbiz.com
0 / 300