"中 AI, 퀄리티도 韓 앞섰다…분야별LLM으로 2차 방어선 세워야"

연합뉴스 2025-03-18 16:00:04

이정헌 의원실, 'AI 대전환 속 대한민국의 길' 토론회 개최

'AI 대전환 속 대한민국의 길: 세계는 어떻게 준비하는가' 토론회

(서울=연합뉴스) 조현영 기자 = 황승진 미국 스탠퍼드 경영대학원 석좌명예교수가 18일 "인공지능(AI)의 비즈니스 측면에서 우리나라가 중국보다 가격 면에서 뒤졌지만 퀄리티 측면에서는 앞섰다고 이야기해왔지만, 이제는 완전히 박살 났다"며 "중국이 가격 측면에서뿐 아니라 퀄리티 면에서도 앞설 수 있다"고 말했다.

그러면서 그는 거대 언어 모델(LLM) 개발이라는 1차 방어선은 이미 뚫렸음을 인정하고, 이제는 분야별 LLM 등 AI를 채택하고 사용하는 쪽에서 2차 방어선을 쳐야 한다고 강조했다.

황 교수는 이날 더불어민주당 이정헌 의원이 국회 의원회관 제9간담회의실에서 연 'AI 대전환 속 대한민국의 길: 세계는 어떻게 준비하는가' 토론회에 화상으로 참가해 이같이 밝혔다.

그는 "국가별 AI 발전 정도를 알려주는 토토이즈 지표에서 한국은 AI 모델 개수로 따질 때 지표가 27 정도인데 중국은 한국의 2배인 54"라며 "이는 딥시크나 마누스가 나오기 이전의 지표이므로 지금 지표를 업데이트하면 상당히 올라갈 것"이라고 말했다.

재작년 11월 오픈 AI가 챗GPT를 발표한 이후 전 세계에서 다양한 거대 언어 모델(LLM)이 발표됐다.

LLM은 글과 이미지를 읽고 생성하는 능력을 바탕으로, 검색 기능과 함께 외부 파일과 연결해 업무를 자동화할 수 있다는 점에서 각광받는다.

이처럼 LLM은 오픈 AI와 구글의 선도 아래 어느 기업이나 개발할 수 있는 기술이 됐으므로 제조·군사·금융 산업 분야별 LLM을 통해 2차 방어선을 세우고 돈을 벌어야 한다고 황 교수는 주장했다.

이를 바탕으로 기업에 AI 전략을 컨설팅하면 오픈 AI 수입의 수십배 이상을 벌어들일 수 있다는 것이 그의 설명이다.

대표적인 예가 월 스트리트의 금융 데이터 전문사 블룸버그가 만든 '블룸버그GPT'다. 회사가 보유한 엄청난 양의 데이터를 기존 인터넷상 데이터와 합쳐 만든 모델인데, 외부 회사가 감히 경쟁하기도 어려울 정도로 독보적인 LLM이 됐다고 황 교수는 말했다.

스탠퍼드 의대에서 만든 '머스크'라는 암 진단 및 치료 AI 모델도 같은 맥락에서 주목받고 있다.

이날 중국의 AI 반도체 전략을 소개한 이우근 중국 칭화대 전자공학과 교수 또한 중국이 무서운 속도로 발전하고 있다고 강조했다.

그는 "중국 AI 산업의 약진은 공학적 측면에서 당연히 일어날 수밖에 없는 단계이고 앞으로 더욱더 많은 기술이 나오고 본격적인 춘추전국시대가 될 것"이라며 "중국은 막대한 내수 시장이 있고 처음부터 목표를 10%도 안 되는 자국 반도체 생산 비율을 75%로 인상하는 데 뒀다"고 말했다.

반면 강력한 내수 시장이 없는 우리나라는 단순히 초격차 기술만으로는 중국 시장을 공략하기 어렵기 때문에 중국 시장을 포기할지 말지에 대한 전략이 필요하고 팹리스에 집중하는 중국에 대응해 반도체 장비나 파운더리 분야가 기회가 될 수 있다고 강조했다.

이런 가운데 독자적인 파운데이션 모델을 개발하는 일도 간과하지 않아야 한다고 전문가들은 입을 모았다.

송경희 성균관대 교수는 파운데이션 모델이 가장 기초 기술이기 때문에 이 분야에서 기술력을 확보하지 않으면 AI 기술 관문을 넘을 수 없다며 소버린 AI 모델 개발도 중요하다고 밝혔다.

김경만 과학기술정보통신부 AI기반정책관도 투트랙 전략이 중요하다며 AI 산업화를 끌어내는 것도 중요하지만, 외국에 앞선 파운데이션 모델을 개발하는 일을 배제할 필요가 전혀 없다고 말했다.

강도현 과기정통부 제2차관은 "정부와 국회는 AI 인프라 확충에 대해 심도 깊게 논의하고 있다"며 "한국은 독자적 LLM에 있어 숫자는 부족하더라도 세계 3위권을 유지하고 있는 만큼, 열심히 상상력 발휘해 발전시키겠다"고 말했다.

한편 전문가들은 AI 개발에 있어 인재 양성과 규제 완화가 가장 중요한 문제라고 지적했다.

황 교수는 "사람을 키워야 하고 제도적으로 이들이 연속해서 비즈니스할 수 있게 만들어줘야 한다"고 말했다.

또 AI에 직업을 뺏기는 게 아니라 AI를 할 줄 아는 사람에게 직업을 뺏기는 것이라면서 다양한 형태의 재교육이 필요하다고 강조했다.

규제 완화와 관련해서는 이우근 교수가 "가장 좋은 방법은 규제를 풀어주고 지켜본 다음에 규제하는 것"이라고 말했다.

화상으로 참여한 메타 규제 및 정치 분야 디렉터인 셰인 카힐 또한 유럽연합(EU)의 AI 규제법이 생기고 나서 700여 개 미국 기업이 AI 법이 위험이 될 수 있다는 우려를 표하고 있다고 말했다.

AI가 초래할 수 있는 안전 문제도 신경 써야 한다.

황 교수는 인간과 AI 간 공정한 관계를 정립하자는 의미에서 생긴 스탠퍼드대 AI 안전연구소를 소개했다.

마이크로소프트(MS)의 책임 있는 AI 부문 디렉터 또한 "거버넌스와 혁신 간 균형을 도모해야 한다"며 "AI 시스템이 수반하는 리스크를 최소화하는 방법, 그리고 규제 관련 샌드박스를 만들어 가장 리스크가 높을 것으로 예상되는 경우에 대한 안전성을 가하는 것이 중요한 부분"이라고 말했다.

hyun0@yna.co.kr