LLM 앱 취약점 진단 가이드 발간
(서울=연합뉴스) 김현수 기자 = SK쉴더스가 올해 주요 보안 위협으로 인공지능(AI) 기반 해킹 증가를 꼽으며, 데이터 검증 절차 강화와 다층 보안 체계 등이 필요하다고 8일 당부했다.
SK쉴더스는 AI 보안 위협에 선제적으로 대응하기 위해 거대언어모델(LLM) 애플리케이션(앱) 취약점 진단 가이드를 발간했다며 이같이 밝혔다.
오픈AI '챗GPT', 구글 '제미나이' 등 LLM 기반 앱은 금융·제조·헬스케어 등 다양한 산업에서 활용되지만, 데이터 및 사용자 입력 처리 방식의 독특한 특성으로 인해 기존 IT 시스템과 다른 보안 위협에 취약하다.
SK쉴더스는 "소규모 언어 모델(sLLM)을 겨냥한 해킹과 LLM의 구조적 취약점을 악용한 데이터 조작·유출 공격이 심화될 것"이라고 전망했다.
이에 따라 가이드에서 LLM 통합, 에이전트, 모델 등 세 가지 핵심 영역의 보안 이슈를 다뤘으며, 14개 주요 취약점을 위험도에 따라 3단계로 분류해 점검 방법과 대응 방안을 제시했다고 SK쉴더스는 전했다.
대표 보안 위협으로는 사용자의 입력값을 악의적으로 조작해 시스템이 의도하지 않은 응답을 출력하도록 유도하는 '프롬프트(명령어) 인젝션', API(응용프로그램 인터페이스) 요청값을 변경해 시스템 권한을 초과하는 동작을 실행시키는 'API 매개 변수 변조' 등을 꼽았다.
이 같은 위협을 예방하기 위해 사용자와 시스템 프롬프트를 분리하고, 데이터 흐름 점검과 데이터 검증 절차 강화, 검색 증강 생성(RAG) 활용 시 권한 없는 데이터 접근을 차단하기 위한 그룹별 권한 관리 체계 구축, 다층 보안 체계 도입 등이 필요하다고 SK쉴더스는 강조했다.
김병무 SK쉴더스 사이버보안부문장은 "AI 기술은 편리함을 제공하지만 기술적 불안정으로 인해 보안 취약점이 악용될 경우 심각한 해킹 사고가 발생할 수 있다"며 "이번 가이드는 기업과 기관이 직면할 수 있는 AI 보안 문제를 사전 예방함과 동시에 신뢰할 수 있는 AI 시스템을 구축하는 데 실질적 도움을 줄 것으로 기대된다"고 말했다.
hyunsu@yna.co.kr