//

 

수요일 경제 뉴스 정리합니다~

 

경제 뉴스 브리핑 6월 26일
경제 뉴스 브리핑 6월 26일(수)

 

 

[목차]

 

1. 대출한도 축소 DSR규제 두 달 연기

2. '기업가치 3.7조' 네이버웹툰, 27일 美 나스닥 상장

3. "2년 후 AI 성장 멈출 수도", 데이터 절벽 경고

 

 

1. 대출한도 축소 DSR규제 두 달 연기

가계대출 한도를 줄이기 위해 7월부터 정부가 도입하려던 '2단계 스트레스 총부채원리금상환비율(DSR)' 규제가 시행 일주일을 앞두고 전격 두 달 연기됐습니다.

 

스트레스 DSR은 대출기간 중 원리금 상환 능력이 떨어질 수 있다는 점을 감안해 DSR 산정 때 가산금리인 스트레스 금리를 부과해 대출한도를 낮게 산출하는 제도인데요. 25일 금융위원회는 7월부터 시행 예정이던 2단계 스트레스 DSR을 9월 1일로 연기하여 시행한다고 밝혔어요. 기존 0.38%였던 스트레스 금리는 2단계 스트레스 DSR이 적용되는 9월부터는 0.75%로 상향됩니다.

 

금융당국은 최근 화두가 된 부동산 프로젝트파이낸싱(PF) 연착륙과 서민과 자영업자의 어려운 상황을 고려해 이 같은 결정을 내렸습니다. 금융위는 스트레스 DSR 시행으로 실제 대출한도가 제약되는 소위 '영끌' 고DSR 차주 비중은 7~8%로 추정하며 따라서 스트레스 DSR 강화가 반드시 대출한도 축소로 이어지지 않는다는 설명이에요. 그럼에도 2단계 스트레스 DSR 도입 시점을 늦춘 것은 고DSR 차주 비중이 높은 2금융권 대출자를 고려한 것입니다. 2금융권 이용자의 경우 높은 DSR로 대출한도가 줄어들게 되는 차주가 전체의 15%를 차지해요.

 

하지만 주요 시중은행의 대출금리 하단이 2%대까지 떨어지고, 5대 은행의 가계대출이 20일 만에 4조원 이상 불어나는 등 불안상황이 감지되며 우려의 목소리도 나오고 있어요. 금융당국의 제도 시행 연기 취지에 공감하면서도 최근 가계부채가 급증하면서 이 같은 조치가 가계부채 문제를 악화시키고, 부동산 가격 상승세에도 영향을 미칠 수 있다는 이유입니다.

 

반응형

 

2. '기업가치 3.7조' 네이버웹툰, 27일 美 나스닥 상장

네이버웹툰 본사(미국 법인)인 웹툰엔터테인먼트가 27일 미국 나스닥에 상장합니다. 종목 코드는 'WBTN', 상장 주관사는 골드만삭스, 모건스탠리, JP모건, 에버코어예요.

 

공모가 희망 범위는 주당 18달러~21달러(약 2만 5000원~2만 9000원)로 공모가 상단 가격 적용시 기업 가치는 최대 26억 7000만 달러(약 3조 7000억 원)로 추산돼요.

 

웹툰엔터테인먼트는 네이버 계열사 중 첫 미국 시장 상장사(예정)입니다. 지분 구성은 네이버 71.2%, 라인야후(LY) 28.7%예요.

 

회사는 현재 150개국 이상에서 서비스하고 있으며 약 1억 7000만 명의 월간 활성 사용자(MAU)를 보유하고 있습니다. 작년 매출 12억 8270만 달러(약 1조 7740억 원)를 올렸으며 순손실은 1억 4480만 달러(약 2002억 원)예요.

 

현재 미국을 비롯한 글로벌에서 'K-웹툰'은 드라마, 게임 제작 원천으로 높은 평가를 받고 있어요. 

 

3. "2년 후 AI 성장 멈출 수도", 데이터 절벽 경고

AI 학습에 필수적인 데이터 확보에 비상이 걸렸습니다. 대규모언어모델(LLM) 등장 이후 AI 모델이 필요로 하는 양질의 데이터가 점점 고갈되고 있기 때문인데요. 빠르면 수년 내에 학습용 데이터가 바닥나 AI 침체기를 맞을 수 있다는 전망까지 나오고 있어요.

 

AI 연구기관 에포크 AI(Epoch AI)에 따르면 2년 후인 2026년부터 AI 학습용 데이터가 소진되기 시작할 전망이에요. AI 학습 속도가 가속화되면서 데이터 증가 속도를 앞지르고 있기 때문인데요. 특히 AI가 과잉훈련(Over training)한다고 가정하면 당장 내년부터 데이터 고갈에 직면할 수 있다는 분석이에요. AI 과잉훈련이란 경량화·효율화를 위해 모델을 키우기보다 학습 데이터를 늘리는 시도를 말합니다. 

 

AI는 텍스트, 이미지, 영상으로 학습 범위를 넓히면서 발전에 가속도가 붙었어요. 올해 등장한 메타의 최신 모델 라마3는 15조 개가 넘는 토큰(문장의 최소 단위)을 학습하며 2020년 오픈AI가 처음 선보인 GPT-3의 3000억 개 토큰보다 불과 4년 만에 학습 데이터양이 50배 늘어났습니다.

 

반면 데이터 구하기는 점점 어려워지고 있어요. 지금까지 AI는 도서, 논문을 비롯해 뉴스, 소셜 미디어, 블로그 콘텐츠 등 인터넷에 떠도는 정보를 긁어 학습하는 경우가 대부분이었어요. 하지만 AI 훈련에 사용할 수 있는 언어 데이터는 연간 7%씩 증가하는데 그치고 있습니다.

 

데이터가 있다고 해도 저작권 문제를 해결해야 하는 난관에 봉착해 LLM을 고도화하기 위한 고품질 데이터는 씨가 마른 상태에요. 고품질 데이터주제가 다양하고 풍부한 표현이 들어간 데이터를 말합니다. 철자나 문법 오류가 없으면서 일관성있는 정보가 필요해요. 그러나 인터넷에 떠도는 정보 중 고품질 데이터는 10%도 되지 않아요. 한글 데이터 부족은 더욱 심각한데 사용하는 인구가 적기 때문에 확보할 수 있는 데이터 자체가 적은 상황이에요. 네이버, 카카오 등 한국 기업들의 데이터를 모두 합쳐도 빅테크와 비교해 6~7% 수준으로 조(兆) 단위도 되지 않습니다.

 

국내 기업들은 데이터 부족을 호소하며 해외 데이터를 구매하거나 합성 데이터를 이용하는 것으로 알려졌습니다. 네이버는 초거대 AI '하이버클로바X'에 뉴스와 블로그 등을 학습시키다 저작권 문제로 작년부터는 뉴스 학습을 중단시킨 상태예요.

 

데이터 부족으로 AI가 세번째 겨울을 맞을 수 있다는 전망까지 나오고 있습니다. AI는 기술적 한계로 1970년대와 1980년대 두 번의 침체기를 겪은 바 있어요. 챗GPT 등장으로 다시 황금기를 열었지만 데이터 절벽에 부딪혀 훈련 데이터가 소진되면서 AI 발전 속도가 둔화될 가능성이 높다는 우려가 나오고 있어요.

 


구독, 공감, 댓글은 항상 힘이 됩니다. ^^


 

반응형
  • 네이버 블러그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 카카오스토리 공유하기