메타의 대규모언어모델(LLM) ‘라마’가 생성AI 시장에서 ‘조용한 공세’로 주목받고 있다. 챗GPT를 개발한 오픈AI와 구글이 시장을 양분하고 있는 가운데 ‘오픈소스 전략’으로 차별화하며 지분을 확보하고 있기 때문이다.

22일 IT업계와 외신 등에 따르면 메타가 지난 2월 라마를 다른 연구자나 엔지니어들이 활용할 수 있도록 소스코드를 공개한 후 다양한 AI 모델들이 연이어 등장하고 있다. 지난달 이미지 생성AI로 잘 알려진 스테빌리티AI가 생성AI ‘스테이블LM’을 출시했고, 독일의 비영리단체인 오픈 어시스턴스도 챗GPT와 흡사한 기능을 갖춘 생성AI ‘허깅챗’을 내놨다. 이에 앞서 스탠포드대 연구진이 라마를 기반으로 개발한 ‘알파카’나 US버클리-스탠포드대 연구진이 함께 개발한 ‘비쿠냐’ 등 소형언어모델(sLLM)도 좋은 평가를 받았다.

이들 AI 모델은 라마의 70억개 파라미터(매개변수)를 기반으로 개발됐다. 최근 구글이 공개한 LLM 팜2(5400억개)는 물론 챗GPT를 구동하는 GPT-3.5(1750억개)과 비교하면 턱없이 적은 수치다. 업계 관계자는 “라마는 상대적으로 매개변수가 작아 슈퍼컴퓨팅 없이도 AI 모델을 단시간 내에 구현할 수 있는 게 특징”이라며 “다양한 개발자들이 파인튜닝을 통해 맞춤형 AI 모델을 개발할 수 있는 토대를 제공했다”고 설명했다. 여러 개발자들이 라마를 활용함으로써 구글과 오픈AI에 맞서는 ‘범 메타 연대’를 구축할 수 있게 됐다는 것이다.

메타는 AI 영향력 강화를 위해 라마의 성능을 개선할 방침이다. 현재 공개된 오픈소스 모델의 파라미터는 최대 650억개다. 메타는 보다 높은 수준의 개발이 가능하도록 이를 1000억대로 확대할 것으로 알려졌다. 다만 라마의 상업적 사용을 제한하는 방침은 유지할 전망이다. 최근 일부 개발자들 사이에서 “라마에 대한 상업적 사용을 허락해달라”는 요구에 대해 메타는 “연구와 개발을 위해 공개한 것”이라고 선을 그었다.

메타의 ‘예상 밖 흥행’을 다른 업체들도 주시하고 있다. 구글에선 이달 초 ‘오픈소스가 많은 문제를 해결하고 있다’는 내용의 내부 문서가 공개되기도 했다. 오픈AI는 최근 모바일에서 사용할 수 있는 챗GPT 앱을 출시했다. 편의성·접근성 높여 선두주자 입지를 지키겠다는 것이다. IT 전문매체 디인포메이션은 최근 “오픈AI가 첫 오픈소스 LLM을 선보이기 위해 준비하고 있다”고 보도하기도 했다.

구글은 여전히 소스코드 공개에 부정적이다. 제한 없는 오픈소스 접근은 위험하다는 것이다. 구글의 조빈 가라마니 연구 부사장은 최근 뉴욕타임스와의 인터뷰에서 “구체적 내용이나 오픈소스 코드 공개에 신중해야 한다”고 지적했다.

최진석 기자 iskra@hankyung.com