[K-VIBE] 이은준의 AI 톺아보기...AI 윤리와 표현의 자유

연합뉴스 2024-10-20 00:00:38

[※ 편집자 주 = 한국국제교류재단(KF)의 2024년 발표에 따르면 세계 한류 팬은 약 2억2천5백만명에 육박한다고 합니다. 또한 시간과 공간의 제약을 초월해 지구 반대편과 동시에 소통하는 '디지털 실크로드' 시대도 열리고 있습니다. 바야흐로 '한류 4.0'의 시대입니다. 연합뉴스 K컬처팀은 독자 여러분께 새로운 시선의 한국 문화와 K컬처를 바라보는 데 도움이 되고자 전문가 칼럼 시리즈를 준비했습니다. 시리즈는 매주 게재하며 K컬처팀 영문 한류 뉴스 사이트 K 바이브에서도 영문으로 보실 수 있습니다.]

이은준 경일대 교수

어제(18일) 일이다.

26개 대학생 단체로 구성된 '딥페이크 성범죄 OUT 대학생 공동행동'은 18일 서울 종로구 광화문 광장에서 기자회견을 열고 "교육부는 각 대학을 지도하고 감독하는 책임을 지면서 대학은 딥페이크 성범죄의 실태 파악, 예방 조치까지 모든 절차에서 외면받고 있다"고 말했다.

'딥페이크' 성범죄 규탄, 대책 마련하라

공동행동에 참여한 학생들은 서울대·인하대 등 전국 70여개 대학 이름이 붙은 딥페이크 성 착취물 공유 단체방이 발견됐지만 딥페이크 성범죄가 청소년 문제로 국한돼 정작 대학 내 피해자들은 조명받지 못하고 있다고 주장했다.

이어 교육부에 대학별 딥페이크 성범죄 실태 전수조사, 피해자 보호 지원대책 마련, 대학별 인권센터 예산·전문인력 확충 지원 등을 촉구했다.

한마디로 대학이 딥페이크 성범죄의 '플랫폼'이 돼가고 있다는 주장이고 대학과 교육부가 적극 대응해야 한다는 말이다. 여성으로서, 대학에서 학생을 지도하는 교육자로서 참담한 심정이었다.

대학생이 훨씬 딥페이크 프로그램의 프롬프트(명령어) 작성에 익숙하기 때문이다. 인공지능 사용 윤리 교육을 어디서부터 시작해야 할지 고민에 빠졌다. 프롬프트 필터링의 ABC부터 가르쳐야 할 터였다.

그러자 한가지 지점에서 막혔다. 이전 칼럼에서도 여러 차례 밝힌 바대로 필터링이 예술 활동에 대한 과도한 제약으로 작용할 수 있기 때문이다.

◇ 필터링 기준 설정의 모호성

필자는 교육자이면서 오랫동안 국내외를 다니며 미디어 아티스트로도 활동해왔다. 때로는 일관된 '비주얼 참고 자료'를 위해 인공지능 모델의 도움을 받기도 했다. 오랜 시간 컴퓨터를 벗 삼아 창작 활동을 해온 '경력'(?)으로 프롬프트를 다양하게 입력하며 원하는 결과물을 만들어 냈다.

최근 수개월간 프롬프트 필터링이 상당 부분 진화하고 있다는 사실도 알게 됐다. 어느 순간 생각하지 못했던 지점에서 제약이 걸려 작업에 애를 먹었던 적이 많아졌다.

대부분의 사용자 역시 챗GPT가 실수가 잦다는 것을 알고 항상 팩트체크와 교차 확인을 이어가고 있다. 프롬프트 필터링의 기준 또한 인공지능 모델 개발사나 플랫폼이 자체적으로 설정한다,

그런데 그 기준이 불투명하거나 일관성이 없는 경우가 많다. 특히 아예 생성이 안 되거나 상당히 낮은 수준으로(필터링 때문에) 결과물을 제시하면 일이 커진다.

이렇게 되면 예술가가 필터링 정책을 예측하기 어렵게 되며, 작품 창작 과정에서 불확실한 요소가 커진다.

따라서 필자는 인공지능 모델 개발사나 플랫폼 사업자에게 이렇게 말하고 싶다.

필터링 시스템은 예술적 창작의 자유를 존중하는 동시에 사회적 책임을 다할 수 있도록 설계돼야 한다.

또한 예술가가 특정 주제를 탐구할 때 필터링 시스템이 맥락을 고려하지 않고 기계적으로 차단할 경우, 단순 검열 이상의 문제로, 표현의 자유에 대한 근본적인 침해가 될 수 있다.

필터링의 기준과 적용 범위에 대한 사회적 합의와 투명한 정책이 필요하다. 현재 음원이나 기타 지식재산권에 대해서는 활발한 논의는 물론 사회적 협의체도 구성되고 있다고 알고 있다.

그런데 이 분야에는 정책 입안자는 물론 학계도 그저 플랫폼 사업자의 입장에 순응하는 듯 해 대단히 우려스럽다. 예술가가 자신의 창작 의도와 표현 방식에 대해 플랫폼과 협의할 수 있는 구조적 지원 역시 필요하다.

◇ 윤리교육과 병행 필요

인공지능 모델 개발사들은 프롬프트와 결과물의 맥락을 이해하고 예술적 표현의 자유를 존중하는 방식으로 발전해야 한다. 물론 여기에는 관계 당국의 딥페이크 등 사회 문제에 대한 강력한 윤리 교육도 함께 해야 한다.

먼저 사용자의 의견을 기반으로 필터링 시스템을 더욱 정교하게 개선하는 동적 필터링 시스템을 발전시켜야 한다. 25년여 전 비선형 영상 편집 시스템이 처음 나왔을 때 AVID 사가 뉴스 편집을 위한 'AVID Newscutter' 프로그램 개발에 미국 지상파 방송 기자를 투입해 의견을 단계별로 청취해 만들어간 사례가 있다.

그런 방식으로 AVID 사는 뉴스에 관한 직관적 편집 시스템을 발표했다.

단순한 키워드 차단이 아닌, 맥락을 고려한 필터링과 경고 시스템을 포함할 수 있다.

시스템은 생성된 이미지에 대한 평가를 바탕으로 인공지능 모델이 학습을 통해 필터링 기준을 동적으로 조정하게 된다.

동적 필터링 시스템은 예술가와 플랫폼 사이의 협력을 통해 창작의 자유와 사회적 책임의 균형을 맞추는 데 도움이 될 것이다.

기업을 위한 투명한 인공지능 정책 필요

또 다른 중요 요소는, 회사별로 투명한 필터링 정책이 절실하다.

필터링의 기준과 정책을 공개하고, 예술가가 이해하고 준수할 수 있도록 명확한 가이드라인을 제시해야 한다. 필요할 경우 예술적 맥락에 따라 예외를 인정하는 유연한 정책도 필요하다.

마지막으로는, 사용자가 자기 창작물을 관리하고 책임질 수 있는 '사용자 맞춤형 필터링 설정' 또한 중요한 요소다.

사용자가 자신의 창작 의도에 맞게 필터링 시스템을 조정할 수 있는 환경을 제공하면서도, 인공지능 모델이 생성하는 이미지가 사회적 기준에 부합하도록 보완할 수 있는 방법이 될 것이다.

인공지능 개발사가 걸어온 궤적을 보면 이러한 필터링 시스템과 정책 수립은 그들의 미래를 더욱 풍성하게 해주며 더 큰 성공으로 이어질 것이다. 근본적으로 인공지능 모델은 '사람'을 위한 것이기 때문이다.

이은준 미디어아티스트

▲ 경일대 사진영상학부 교수

<정리 : 이세영·성도현 기자>

raphael@yna.co.kr