'이루다'가 던진 화두, 네이버-카카오 나섰다…'AI 윤리' 강화
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
네이버 'AI 윤리 준칙' 발표…카카오, 전 직원 AI 윤리 교육
추상적인 국가 가이드라인, 기업이 보완…학교 교육 확대 움직임도 네이버와 카카오가 인공지능(AI) 윤리 관련 정책을 동시에 발표했다.
AI 챗봇 '이루다' 사태가 한국 사회에 AI 윤리라는 화두를 던진 지 한 달여 만에 국내 대표 IT 기업이 개선에 앞장서면서 업계에 긍정적인 영향을 일으킬 전망이다.
17일 네이버는 서울대학교 AI 정책 이니셔티브(SAPI)와 함께 '네이버 AI 윤리 준칙'을 발표했다.
네이버는 준칙을 통해 "AI 개발·이용 과정에서 인간 중심의 가치를 최우선으로 삼겠다"며 "AI가 모든 사람을 차별하지 않도록 개발하겠다"고 선언했다.
윤리 준칙에는 네이버가 개인정보 보호 관련 법적 책임을 넘어서는 수준의 프라이버시를 보호하겠다는 내용도 담겼다.
이날 카카오는 전 직원을 대상으로 AI 윤리 교육을 펼친다고 발표했다.
카카오는 이날부터 3월 2일까지 '카카오 크루가 알아야 할 윤리 경영' 사내 교육을 하는데, 여기에 AI 윤리 교육을 포함했다.
카카오 직원들은 디지털 책임 구현 사례, 카카오의 알고리즘 윤리 헌장 등을 학습하면서 각자 업무에서 AI 윤리를 어떻게 준수해야 할지 고민해볼 예정이다.
AI 윤리는 지난해까지만 해도 사회적으로는 물론 IT업계에서도 다소 낯선 영역이었는데, 지난달 이루다 사태로 IT업계 최대의 관심사항으로 떠올랐다.
스타트업 스캐터랩이 지난해 말 출시한 AI 챗봇 이루다는 소수자 집단을 향한 혐오를 드러내 사회에 충격을 줬다.
개발 과정에서 이용자들 개인정보를 제대로 보호하지 않은 정황도 드러나면서, AI 서비스가 개인정보를 오·남용할 위험이 있다는 사실이 사회에 제대로 알려지는 계기가 됐다.
해외에서는 AI가 여성이나 비(非)백인 등 사회적 소수자를 차별하는 사례가 여러 차례 확인되면서 최근 2∼3년간 AI 윤리가 IT업계의 가장 큰 과제 중 하나였다.
세계 각국이 인공지능 윤리 원칙 및 가이드라인을 발표하기도 했다.
한국 정부도 지난해 말 인공지능 윤리 가이드라인을 발표했다.
그러나 국가나 국제기구에서 발표한 윤리 가이드라인은 추상적이고 선언적이어서 실제 AI를 다루는 기업이 현장에서 적용할 내용은 없다는 한계가 지적돼왔다.
네이버와 카카오의 응답은 이런 국가 가이드라인의 한계를 보완하는 작업이라고 할 수 있다.
송대섭 네이버 책임리더(이사)는 이날 AI 윤리 준칙을 발표하는 웨비나에서 "준칙을 만들면서 사회의 요구와 네이버의 기업 철학을 반영했다"며 "준칙이 실제 현장과 괴리되는 것을 막고자 했다"고 말했다.
네이버는 윤리 준칙을 설계하는 과정에서 개발 리더들에게 초안을 공유하고 AI와 업무 연관성이 있는 직원들과 간담회를 여는 등 사내 피드백을 다양하게 받았다.
그 결과 AI 서비스를 할 때 이용자에게 합리적인 설명을 하겠다는 등 구체적인 내용이 담겼고, 사내 커뮤니케이션 채널을 만들어 준칙을 실천하겠다는 계획도 함께 발표됐다.
2018년부터 '알고리즘 윤리 헌장'을 운영해온 카카오는 최근 '증오(혐오) 발언 근절 원칙'을 추가로 발표했다.
카카오는 증오 발언 근절 원칙을 통해 출신, 인종, 장애 및 질병 유무, 성별, 성 정체성, 성적 지향 등을 향한 차별·혐오를 자사 서비스에서 배제하겠다고 선언했다.
주요 정치인이나 정당도 여전히 "사회적 합의가 필요하다"고 주장하는 성 정체성, 성적 지향을 차별하지 않겠다고 기업이 먼저 밝힌 선례로 남았다.
네이버·카카오의 AI 윤리 관련 정책은 중소 IT 기업이나 스타트업에서도 활용하게 될 전망이다.
네이버는 이날 발표한 AI 윤리 준칙을 스타트업 지원기관 등을 통해 업계에 공유할 방침이라고 예고했다.
IT업계에서 AI 윤리 관련 논의가 빠르게 확대되면서 개발자 양성 단계부터 관련 교육을 확대해야 한다는 목소리도 커지고 있다.
서울시교육청은 앞으로 서울 지역 학생이 AI를 배울 때 AI의 사회적 영향과 윤리 문제도 함께 학습할 수 있도록 관련 교육을 늘리겠다고 최근 발표했다.
임용 서울대 법학전문대학원 교수는 "우리가 판사를 신뢰하는 이유는 엄격한 자격, 판결문 공개, 입증·해명 기회 보장 등의 '절차'에 있다"며 "신뢰할 수 있는 AI 역시 절차적 공정이 만드는 것이다.
준칙 발표는 그 절차의 시작"이라고 말했다.
/연합뉴스
추상적인 국가 가이드라인, 기업이 보완…학교 교육 확대 움직임도 네이버와 카카오가 인공지능(AI) 윤리 관련 정책을 동시에 발표했다.
AI 챗봇 '이루다' 사태가 한국 사회에 AI 윤리라는 화두를 던진 지 한 달여 만에 국내 대표 IT 기업이 개선에 앞장서면서 업계에 긍정적인 영향을 일으킬 전망이다.
17일 네이버는 서울대학교 AI 정책 이니셔티브(SAPI)와 함께 '네이버 AI 윤리 준칙'을 발표했다.
네이버는 준칙을 통해 "AI 개발·이용 과정에서 인간 중심의 가치를 최우선으로 삼겠다"며 "AI가 모든 사람을 차별하지 않도록 개발하겠다"고 선언했다.
윤리 준칙에는 네이버가 개인정보 보호 관련 법적 책임을 넘어서는 수준의 프라이버시를 보호하겠다는 내용도 담겼다.
이날 카카오는 전 직원을 대상으로 AI 윤리 교육을 펼친다고 발표했다.
카카오는 이날부터 3월 2일까지 '카카오 크루가 알아야 할 윤리 경영' 사내 교육을 하는데, 여기에 AI 윤리 교육을 포함했다.
카카오 직원들은 디지털 책임 구현 사례, 카카오의 알고리즘 윤리 헌장 등을 학습하면서 각자 업무에서 AI 윤리를 어떻게 준수해야 할지 고민해볼 예정이다.
AI 윤리는 지난해까지만 해도 사회적으로는 물론 IT업계에서도 다소 낯선 영역이었는데, 지난달 이루다 사태로 IT업계 최대의 관심사항으로 떠올랐다.
스타트업 스캐터랩이 지난해 말 출시한 AI 챗봇 이루다는 소수자 집단을 향한 혐오를 드러내 사회에 충격을 줬다.
개발 과정에서 이용자들 개인정보를 제대로 보호하지 않은 정황도 드러나면서, AI 서비스가 개인정보를 오·남용할 위험이 있다는 사실이 사회에 제대로 알려지는 계기가 됐다.
해외에서는 AI가 여성이나 비(非)백인 등 사회적 소수자를 차별하는 사례가 여러 차례 확인되면서 최근 2∼3년간 AI 윤리가 IT업계의 가장 큰 과제 중 하나였다.
세계 각국이 인공지능 윤리 원칙 및 가이드라인을 발표하기도 했다.
한국 정부도 지난해 말 인공지능 윤리 가이드라인을 발표했다.
그러나 국가나 국제기구에서 발표한 윤리 가이드라인은 추상적이고 선언적이어서 실제 AI를 다루는 기업이 현장에서 적용할 내용은 없다는 한계가 지적돼왔다.
네이버와 카카오의 응답은 이런 국가 가이드라인의 한계를 보완하는 작업이라고 할 수 있다.
송대섭 네이버 책임리더(이사)는 이날 AI 윤리 준칙을 발표하는 웨비나에서 "준칙을 만들면서 사회의 요구와 네이버의 기업 철학을 반영했다"며 "준칙이 실제 현장과 괴리되는 것을 막고자 했다"고 말했다.
네이버는 윤리 준칙을 설계하는 과정에서 개발 리더들에게 초안을 공유하고 AI와 업무 연관성이 있는 직원들과 간담회를 여는 등 사내 피드백을 다양하게 받았다.
그 결과 AI 서비스를 할 때 이용자에게 합리적인 설명을 하겠다는 등 구체적인 내용이 담겼고, 사내 커뮤니케이션 채널을 만들어 준칙을 실천하겠다는 계획도 함께 발표됐다.
2018년부터 '알고리즘 윤리 헌장'을 운영해온 카카오는 최근 '증오(혐오) 발언 근절 원칙'을 추가로 발표했다.
카카오는 증오 발언 근절 원칙을 통해 출신, 인종, 장애 및 질병 유무, 성별, 성 정체성, 성적 지향 등을 향한 차별·혐오를 자사 서비스에서 배제하겠다고 선언했다.
주요 정치인이나 정당도 여전히 "사회적 합의가 필요하다"고 주장하는 성 정체성, 성적 지향을 차별하지 않겠다고 기업이 먼저 밝힌 선례로 남았다.
네이버·카카오의 AI 윤리 관련 정책은 중소 IT 기업이나 스타트업에서도 활용하게 될 전망이다.
네이버는 이날 발표한 AI 윤리 준칙을 스타트업 지원기관 등을 통해 업계에 공유할 방침이라고 예고했다.
IT업계에서 AI 윤리 관련 논의가 빠르게 확대되면서 개발자 양성 단계부터 관련 교육을 확대해야 한다는 목소리도 커지고 있다.
서울시교육청은 앞으로 서울 지역 학생이 AI를 배울 때 AI의 사회적 영향과 윤리 문제도 함께 학습할 수 있도록 관련 교육을 늘리겠다고 최근 발표했다.
임용 서울대 법학전문대학원 교수는 "우리가 판사를 신뢰하는 이유는 엄격한 자격, 판결문 공개, 입증·해명 기회 보장 등의 '절차'에 있다"며 "신뢰할 수 있는 AI 역시 절차적 공정이 만드는 것이다.
준칙 발표는 그 절차의 시작"이라고 말했다.
/연합뉴스