한애라 성대 로스쿨 교수 "제도가 있어야 기업이 조심할 것"
"AI 개발 투자 때 윤리 평가 필요"…"일벌백계로 싹 뽑으면 안 돼" 의견도
AI의 소수자 차별 막으려면…법학자 "차별금지법 필요"
'이루다' 같은 인공지능(AI)이 소수자·약자를 차별하는 사건을 예방하려면 차별금지법이나 혐오 표현 방지법 등 입법이 필요하다는 법학자 의견이 나왔다.

한애라 성균관대 법학전문대학원 교수는 한국인공지능법학회가 4일 오후 개최한 'AI의 일탈을 어떻게 막을 것인가' 온라인 좌담회에서 이런 의견을 내놨다.

이루다는 스타트업 스캐터랩이 지난해 12월 출시한 AI 챗봇이었다.

20세 여성의 모습이었는데, 여성·동성애자·장애인 등 소수자·약자를 차별하는 표현을 쏟아내는 등 논란에 휩싸였다가 3주 만에 서비스를 종료했다.

한 교수는 "이루다 같은 일이 생기지 않으려면 AI를 처음 디자인할 때부터 (개발사가) 윤리 문제를 인식해야 한다"며 "의사결정에 영향을 미칠 수 있는 위치의 인적 구성이 성별 등의 측면에서 다양해야 한다"고 지적했다.

이어 그는 "기업이 윤리를 의식하려면 자율 검증도 중요하지만, 결국 형사적·행정적·민사적 불이익을 줄 제도로도 조심하게 해야 한다"며 "비윤리적 AI에 행정 처분이 가능해지려면 포괄적 차별금지법이나 혐오 표현 방지법이 국회를 통과해야 한다"고 의견을 냈다.

그러면서 한 교수는 "정부나 벤처캐피탈(VC)이 AI 기업에 예산을 지원하거나 투자할 때도 인적 다양성이 어떤지, 윤리 교육은 받았는지, AI가 윤리적인지 등을 ESG(환경·사회·지배구조) 차원에서 평가하는 체계도 필요하다"고 덧붙였다.

좌담회에서 박상철 서울대 법학전문대학원 교수는 "AI에 대한 규제 책임을 논의하려면 '차별적 처우'와 '차별적 발화'를 나눠 봐야 한다"고 짚었다.

박 교수가 말한 차별적 처우는 AI가 사람의 재산적·신분적 이해관계에 크게 영향을 미치는 경우다.

채용 면접이나 대출 심사, 범죄자의 재범 가능성 예측 등을 AI가 수행할 때 차별이 발생할 수 있다.

다만 이 경우 데이터를 계량적으로 감사해 차별 여부를 예방하거나 바로잡는 것이 용이하다.

차별적 발화는 불특정 다수를 향한 차별적 언사로 AI가 사람에게 정신적 피해를 주는 경우다.

이 경우 사람에게 유형의 손해를 끼친다고 보기는 어렵지만, 객관적으로 측정하거나 사전에 감사하기도 어렵다.

박 교수는 "AI 챗봇은 기술적·산업적 잠재력이 엄청나므로 일벌백계해서 싹을 뽑으면 안 된다"며 "물론 신뢰할 만한 AI를 구현해야 하지만, 현재도 어느 정도 법적 안전장치가 있고 기업이 사회적 책임을 자율 준수할 유인도 크다"고 말했다.

그는 "정부가 양질의 구어 말뭉치를 계속 만들고, 기업들이 AI 모델의 신뢰성을 측정할 수 있는 공적인 인프라를 제공해서 사업화를 촉진해야 한다"고 촉구했다.

/연합뉴스