본문 바로가기

    ADVERTISEMENT

    정보 등록 실수? 위메이드 '나이트 크로우'도 확률 논란

    • 공유
    • 댓글
    • 클린뷰
    • 프린트
    일부 아이템 실제 획득 확률, 기재 확률 3분의 1 그치기도
    웹젠 '뮤 아크엔젤'은 뽑기 '바닥' 시스템 적용 논란
    정보 등록 실수? 위메이드 '나이트 크로우'도 확률 논란
    게임업계가 확률형 아이템 정보공개 의무화 전후로 기존 확률 정보를 정정하는 과정에서 잇따라 조작 논란에 휩싸이고 있다.

    3일 게임 업계에 따르면 위메이드는 지난달 29일 '나이트 크로우' 공지사항을 통해 "특정 확률형 아이템 1종에 대한 웹사이트 내 확률 정보가 실제 확률과 차이가 있음이 확인됐다"며 "실제 게임 내 적용된 확률 정보로 정정하고자 한다"고 밝혔다.

    '나이트 크로우'는 위메이드가 지난해 4월 국내에 출시한 다중접속역할수행게임(MMORPG)으로, 한때 국내 앱 마켓 매출 순위 1위를 기록했던 히트작이다.

    '나이트 크로우' 운영진에 따르면 문제가 발생한 확률형 아이템은 '조화의 찬란한 원소 추출'로, 구매하면 캐릭터 성능 강화에 쓰이는 불·물·번개·바람·땅 원소 아이템을 무작위로 지급하는 상품이었다.

    그런데 이 중 희귀도가 가장 높은 전설 등급 원소 획득 확률은 0.0198%에서 0.01%로, 영웅 등급 원소의 획득 확률은 1%에서 0.32%로, 희귀 등급 원소 획득 확률은 7%에서 3.97%로 정정됐다.

    원소의 실제 획득 확률을 기재된 확률의 절반에서 3분의 1에 불과하게 낮게 설정해 놓았다가 사후에 정정한 것이다.

    반면 가치가 가장 낮은 고급 등급 원소는 획득률이 91.9802%에서 95.7%로 정정돼 획득률이 실제보다 더 높았던 것으로 나타났다.

    운영진은 "확률 정보 등록 시의 실수로 인한 것"이라며 "잘못된 정보를 드리게 된 점 머리 숙여 사과드린다"고 밝혔다.

    정보 등록 실수? 위메이드 '나이트 크로우'도 확률 논란
    이보다 앞서 웹젠의 '뮤 아크엔젤'에서는 특정 횟수 뽑기 시도 전까지는 획득 확률이 0%로 설정된 '바닥 시스템'이 존재하던 것으로 드러나 파문이 일었다.

    '뮤 아크엔젤' 운영진은 지난달 21일 홈페이지를 통해 확률 오류 발견 사실을 알리고, 실제 적용 확률과 다르게 표기된 아이템의 확률을 정정했다.

    이 과정에서 '레전드 장신구 세트석 패키지'를 뽑을 수 있는 '세트보물 뽑기' 상품의 경우 기존에 공개된 확률과 다르게 360레벨∼400레벨의 경우 100회, 401레벨 이상의 경우 150회 뽑기까지 획득률이 아예 0%로 설정돼있던 사실이 드러났다.

    '뮤 아크엔젤' 운영진은 이와 관련해 이용자들에게 사과하고, 확률 오류가 발생한 아이템에 대해 "4월 중으로 환불 신청 접수 진행을 목표로 하고 있다"고 전날 공지했다.

    그러나 일부 이용자들은 웹젠 측을 공정거래위원회에 신고한 것으로 알려졌다.

    정보 등록 실수? 위메이드 '나이트 크로우'도 확률 논란
    그라비티의 '라그나로크 온라인' 이용자들도 최근 공정위에 회사 측의 전자상거래법 위반 의혹을 조사해 달라는 민원을 제기했다.

    과거 개별 획득률이 0.8%로 공시됐던 일부 아이템의 획득률이 실제로는 8분의 1인 0.1%에 불과했던 사실 등이 드러난 것이다.

    공정위는 해당 사건을 서울지방공정거래사무소에서 본부로 사건을 이관한 뒤 본격적인 조사에 착수한 상태다.

    지난달 22일 확률형 아이템 정보공개 의무화를 담은 개정 게임산업법 시행 이후 첫 조사다.

    '라그나로크 온라인' 운영진은 라이브 방송을 통해 이용자들에게 사과하고, 이날로 예정된 정기점검 진행 후 전체 이용자들에게 아이템 보상을 진행하기로 했다.

    /연합뉴스

    ADVERTISEMENT

    1. 1

      "경주 얼굴무늬 수막새 그려줘" 챗GPT에 요청했더니…

      29일 챗GPT와 제미나이에 국가 보물 ‘경주 얼굴무늬 수막새’를 그려달라고 요청하자 기와가 아니라 독립된 석조 조형물이 화면에 나타났다. 흙을 구워 생긴 거친 질감은 사라지고, 유물엔 없는 문양과 장식 테두리가 생겼다. 아시아의 조각 양식을 뒤섞어 내놓은 이른바 ‘시각적 할루시네이션(환각)’이 발생한 것이다.인공지능(AI)이 한국 문화를 잘못 학습해 왜곡하는 문제는 AI가 본격화한 이후 어제오늘 일이 아니다. 정부는 이런 현상을 막기 위해 한국 AI 학습 대응에 나섰다. 선봉엔 문화체육관광부 산하 국립국어원이 섰다. 국립국어원이 쌓아놓은 대규모 한글 데이터에 영상과 음성 등을 붙인 데이터를 구축하겠다는 구상이다. 이를 한국 AI 모델에 학습시키고 이후 산업 현장의 휴머노이드 로봇 등 피지컬AI에도 적용한다는 방침이다. ◇한글 문장을 장면으로 데이터화국립국어원은 지난달 ‘한국언어문화 멀티모달 말뭉치 구축 사업’을 시작했다. 영상, 음성, 이미지, 텍스트를 유기적으로 연계한 데이터를 구축하는 프로젝트다. 지시문을 기반으로 총 16만 개 규모의 멀티모달 데이터를 확보하는 게 목표다. 올해 예산은 약 15억5000만원으로 적지만 내년엔 더 확보해 AI 학습 사업을 확대한다는 계획이다.말뭉치는 실제 사용하는 언어 사례를 모아 정리한 대규모 데이터다. 그간 텍스트를 중심으로 데이터를 모았다면 이제 특정 단어가 쓰일 때의 표정, 주변 사물의 위치, 목소리 톤까지 기록해 AI에 ‘현실 세계’를 통째로 가르친다. 정부가 영상과 음성이 결합된 ‘멀티모달 말뭉치’ 구축에 나선 것은 처음이다.사업 배경엔 기존 데이터 구조의 한계가 있다. 텍스

    2. 2

      "AI가 스타트업 판 바꿔…美 현지서 부딪치며 도전해야"

      “인공지능(AI) 열풍 이후 미국에 ‘올인’하는 국내 스타트업이 많아졌습니다.”28일(현지시간) 미국 캘리포니아주 팰로앨토 사무실에서 만난 김범수 퀀텀프라임벤처스 대표(사진)는 “실리콘밸리에서 AI가 너무 빠르게 발전하다 보니 한국에서 해온 서비스를 그대로 해서는 안 된다는 걸 스타트업이 느끼고 있다”며 이같이 말했다. 실리콘밸리에서 23년째 창업과 벤처투자 경험을 쌓은 그는 자신의 경험과 노하우를 한인 스타트업 창업자에게 전수하고 있다.김 대표는 국내 벤처캐피털(VC)의 시초 격인 KTB네트워크(현 우리벤처파트너스) 미국 법인 근무를 계기로 2000년 처음 실리콘밸리와 인연을 맺었다. 2009년 에드테크기업 브라이트스톰을 창업했고, 2017년부터는 한국과 미국을 잇는 크로스보더 VC 트랜스링크인베스트먼트에서 매니징파트너로 활동했다. 지난해 9월부터 퀀텀벤처스코리아의 미국 법인 퀀텀프라임벤처스를 이끌고 있다.김 대표는 미국 진출을 원하는 스타트업에 아예 창업 초기부터 실리콘밸리에서 도전하는 게 낫다고 조언했다. 실리콘밸리 생태계에 직접 부딪치고 여러 사람을 만나야 기존의 틀을 깰 수 있다는 게 그의 주장이다. 김 대표는 “미국 메이저리그(MLB)에서 5년 이상 주전으로 뛴 한국인이 10명이 채 안 되는 것처럼 한인 스타트업이 실리콘밸리에서 성공할 확률은 단 5%밖에 안 된다”면서도 “미래의 추신수·박찬호가 될 수 있는 창업자라면 미국에서 먼저 도전하는 게 좋다”고 말했다.김 대표가 새로 조성한 펀드는 AI 애플리케이션 부문에서 잠재력이 보이는 한국 또는 현지 스타트업을 발굴하는 데 목표를 뒀다. 그는 ‘어떤 가설을

    3. 3

      '조물조물 무치다'…AI는 '믹스'로 번역 한계

      ‘조물조물 무친다’ ‘은근히 졸인다’처럼 한국어에는 동작의 방식과 강도, 상황을 함께 담은 표현이 많다. 국립국어원 표준국어대사전에 등재된 의성어와 의태어만 5000개가 넘는다. 수백 개 수준에 그치는 영어와 비교하면 한국어는 같은 행동이라도 표현이 훨씬 촘촘하게 나뉘어 있다.이런 미묘한 표현을 인공지능(AI)은 제대로 이해하지 못한다. ‘조물조물 무치다’를 번역기에 넣으면 ‘mix’, ‘은근히’는 ‘slowly’로 단순화된다. 동작의 강도와 리듬, 맥락이 사라지고 핵심 의미만 남는다.AI 모델의 텍스트 학습 방식 때문이다. 생성형 AI는 문장을 잘게 쪼갠 뒤 이를 숫자로 바꿔 처리하는 ‘임베딩’ 방식을 쓴다. 단어의 의미를 수천 개 숫자로 표현하고, 이 숫자 사이의 거리로 의미의 유사성을 판단하는 구조다. 이 과정은 ‘많이 본 데이터’를 기준으로 처리된다.챗GPT와 제미나이 등 글로벌 AI 모델은 단어 하나를 수천 개 숫자로 표현할 만큼 정교하지만 표현력은 학습 데이터로 제한된다. 영어처럼 데이터가 풍부한 언어는 미묘한 차이까지 구분하지만 한국어처럼 데이터가 적은 언어는 의미가 단순화되기 쉽다. ‘조물조물’과 ‘대충’ 같은 차이가 벡터 공간에서 제대로 구분되지 않는다. 국내 한 AI 회사 관계자는 “한국어와 한글은 세계 온라인 인구 중 쓰는 사람이 5000만 명에 불과하다”며 “영어 중국어 등과 비교하면 매우 적은 데이터를 쌓을 수밖에 없다는 구조적 문제가 있다”고 했다.구조적 문제의 해결을 장면(멀티모달)에서 찾고 있다. 예컨대 ‘조물조물 무친다’를 단어가 아니라 손의 움직임, 재

    ADVERTISEMENT

    ADVERTISEMENT