취약성 드러낸 AI 방화벽 '민낯'…'안전장치' 정부규제론 힘받나
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
생태계 자율규제 한계 노출…전문가들 "정부만 투자자에 'No' 가능"
미국·EU, AI 규제 마련 속도 인공지능(AI) 기업 오픈AI의 샘 올트먼 최고경영자(CEO) 해임 드라마가 6일 만에 올트먼의 CEO 복귀로 마무리됐지만, 이번 사태로 AI 업계 지배구조 등의 취약성이 드러났다는 평가가 나온다.
특히 오픈AI 같은 기업이 AI의 안전 문제를 자율 규제로 풀 수 있다는 낙관적 시각이 위태로워지면서 각국 정부가 AI 규제를 주도해야 한다는 여론에 힘이 실릴 것으로 보인다.
오픈AI는 22일(현지시간) 올트먼의 CEO 복귀와 그를 내쫓았던 이사회 일부 재구성에 합의했다고 발표했다.
이 회사 지분 49%를 가진 마이크로소프트(MS)의 지원으로 올트먼이 돌아오고 브렛 테일러 전 세일즈포스 공동 CEO와 래리 서머스 전 미 재무부 장관이 이사진에 가세, 이번 사태는 사실상 MS의 승리로 끝났다.
미 정보기술(IT) 전문매체 와이어드에 따르면 그간 올트먼은 비영리 법인 산하에 영리사업 부문이 소속돼 있는 오픈AI의 특이한 기업 구조가 강력한 AI의 무책임한 개발을 막는 '방화벽'이라고 설명해왔다.
만약 오픈AI의 이사회가 보기에 올트먼 자신이 위험하거나 인류의 이해관계와 상반되는 행동을 할 경우 자신을 쫓아낼 수 있다는 것이었다.
올트먼은 지난 6월 블룸버그통신에 "이사회는 나를 자를 수 있다.
그 점이 중요하다고 생각한다"고 밝히기도 했다.
그러나 이번 사태로 오픈AI 이사회가 올트먼을 자를 수 없는 것으로 나타난 데다가 이사회가 MS 주도로 개편되면서 올트먼의 '방화벽' 주장은 힘을 잃게 됐다.
많은 전문가는 이번 일로 빅테크(거대 정보기술기업)가 아닌 정부가 초고속으로 성장 중인 생성형 AI를 포함한 AI 규제를 주도해야 하는 이유가 부각됐다고 AP통신에 밝혔다.
영국 옥스퍼드대 인터넷 연구소의 AI 전문가인 요한 라욱스는 "오픈AI 사건은 AI의 위험성 대처를 포함해 현재 AI 생태계가 얼마나 취약한지를 보여줬다"고 말했다.
미 조사기관 포레스터리서치의 엔자 이안노폴로 수석애널리스트는 이번 일로 "더 윤리적인 기업 지배구조를 자사 경영에 도입하려고 했던 오픈AI의 시도가 위태로워졌을 뿐 아니라, 좋은 의도라고 해도 기업 지배구조 그 자체만으로는 다른 기업의 역학과 이해관계에 의해 쉽게 잡아먹힐 수 있다는 점이 드러났다"고 설명했다.
그는 "우리가 AI로부터 혜택을 얻으려면 기업들이 설계하고 규제 당국이 엄격하게 집행하는 규칙과 '가드레일'(안전장치)이 결정적으로 중요하다"며 이번 사태의 교훈은 기업 혼자서는 AI에서 사회가 필요로 하는 수준의 안전·신뢰 수준을 내놓을 수 없다는 것이라고 평가했다.
AI가 인류 존재를 위협할 수 있다고 보는 '두머'(doomer·파멸론자) 진영의 유명 철학 연구자인 옥스퍼드대의 토비 오드는 이제 창립자들이 AI의 안전성 등에 신경 쓰는 AI 실험실들 간 경쟁이 아니라 "이제는 세계 최대 기업들 중 몇몇 사이의 경주"가 됐다면서 "이런 측면은 매우 위험하다"고 경고했다.
이처럼 이번에 오픈AI 지배구조의 약점이 드러나면서 AI 기술에 대한 공공기관의 관리·감독 강화 촉구 여론이 증폭될 것으로 와이어드는 전망했다.
벨기에 브뤼셀 소재 싱크탱크 '퓨처 소사이어티'의 AI 전문가인 니콜라 모에는 "각국 정부는 투자자들에게 '노'(No)라고 말할 수 있는 유일한 주체"라고 지적했다.
마침 세계 최초의 AI 규제법 제정을 진행해온 유럽연합(EU)은 연내에 법 제정 절차를 마무리해 2026년부터 적용하는 것을 목표로 하고 있다.
EU는 그간 미국이 빅테크 규제에 실패해온 점을 고려해 AI에 대해서는 더 강경한 규제를 추진하고 있다.
EU의 AI 규제법 협상을 이끄는 브란도 베니페이 유럽의회 의원은 "이번 사건은 이들 기업의 지배구조를 신뢰할 수 없고 예측할 수 없다는 점을 보여준다"며 "우리가 이들 기업의 비전 있는 CEO들이나 홍보대사들에 의지할 수 없고 규제가 있어야 한다는 점이 드러났다"고 강조했다.
미국도 지난달 말 조 바이든 대통령이 '안전하고 신뢰할 수 있는 AI에 대한 행정명령'에 서명하며 관련 규제 마련에 착수했다.
이 행정명령에 따라 미국 기업들은 AI 모델이 국가 안보나 경제·건강상 위험을 초래할 경우 연방정부에 이를 통지해야 한다.
/연합뉴스
미국·EU, AI 규제 마련 속도 인공지능(AI) 기업 오픈AI의 샘 올트먼 최고경영자(CEO) 해임 드라마가 6일 만에 올트먼의 CEO 복귀로 마무리됐지만, 이번 사태로 AI 업계 지배구조 등의 취약성이 드러났다는 평가가 나온다.
특히 오픈AI 같은 기업이 AI의 안전 문제를 자율 규제로 풀 수 있다는 낙관적 시각이 위태로워지면서 각국 정부가 AI 규제를 주도해야 한다는 여론에 힘이 실릴 것으로 보인다.
오픈AI는 22일(현지시간) 올트먼의 CEO 복귀와 그를 내쫓았던 이사회 일부 재구성에 합의했다고 발표했다.
이 회사 지분 49%를 가진 마이크로소프트(MS)의 지원으로 올트먼이 돌아오고 브렛 테일러 전 세일즈포스 공동 CEO와 래리 서머스 전 미 재무부 장관이 이사진에 가세, 이번 사태는 사실상 MS의 승리로 끝났다.
미 정보기술(IT) 전문매체 와이어드에 따르면 그간 올트먼은 비영리 법인 산하에 영리사업 부문이 소속돼 있는 오픈AI의 특이한 기업 구조가 강력한 AI의 무책임한 개발을 막는 '방화벽'이라고 설명해왔다.
만약 오픈AI의 이사회가 보기에 올트먼 자신이 위험하거나 인류의 이해관계와 상반되는 행동을 할 경우 자신을 쫓아낼 수 있다는 것이었다.
올트먼은 지난 6월 블룸버그통신에 "이사회는 나를 자를 수 있다.
그 점이 중요하다고 생각한다"고 밝히기도 했다.
그러나 이번 사태로 오픈AI 이사회가 올트먼을 자를 수 없는 것으로 나타난 데다가 이사회가 MS 주도로 개편되면서 올트먼의 '방화벽' 주장은 힘을 잃게 됐다.
많은 전문가는 이번 일로 빅테크(거대 정보기술기업)가 아닌 정부가 초고속으로 성장 중인 생성형 AI를 포함한 AI 규제를 주도해야 하는 이유가 부각됐다고 AP통신에 밝혔다.
영국 옥스퍼드대 인터넷 연구소의 AI 전문가인 요한 라욱스는 "오픈AI 사건은 AI의 위험성 대처를 포함해 현재 AI 생태계가 얼마나 취약한지를 보여줬다"고 말했다.
미 조사기관 포레스터리서치의 엔자 이안노폴로 수석애널리스트는 이번 일로 "더 윤리적인 기업 지배구조를 자사 경영에 도입하려고 했던 오픈AI의 시도가 위태로워졌을 뿐 아니라, 좋은 의도라고 해도 기업 지배구조 그 자체만으로는 다른 기업의 역학과 이해관계에 의해 쉽게 잡아먹힐 수 있다는 점이 드러났다"고 설명했다.
그는 "우리가 AI로부터 혜택을 얻으려면 기업들이 설계하고 규제 당국이 엄격하게 집행하는 규칙과 '가드레일'(안전장치)이 결정적으로 중요하다"며 이번 사태의 교훈은 기업 혼자서는 AI에서 사회가 필요로 하는 수준의 안전·신뢰 수준을 내놓을 수 없다는 것이라고 평가했다.
AI가 인류 존재를 위협할 수 있다고 보는 '두머'(doomer·파멸론자) 진영의 유명 철학 연구자인 옥스퍼드대의 토비 오드는 이제 창립자들이 AI의 안전성 등에 신경 쓰는 AI 실험실들 간 경쟁이 아니라 "이제는 세계 최대 기업들 중 몇몇 사이의 경주"가 됐다면서 "이런 측면은 매우 위험하다"고 경고했다.
이처럼 이번에 오픈AI 지배구조의 약점이 드러나면서 AI 기술에 대한 공공기관의 관리·감독 강화 촉구 여론이 증폭될 것으로 와이어드는 전망했다.
벨기에 브뤼셀 소재 싱크탱크 '퓨처 소사이어티'의 AI 전문가인 니콜라 모에는 "각국 정부는 투자자들에게 '노'(No)라고 말할 수 있는 유일한 주체"라고 지적했다.
마침 세계 최초의 AI 규제법 제정을 진행해온 유럽연합(EU)은 연내에 법 제정 절차를 마무리해 2026년부터 적용하는 것을 목표로 하고 있다.
EU는 그간 미국이 빅테크 규제에 실패해온 점을 고려해 AI에 대해서는 더 강경한 규제를 추진하고 있다.
EU의 AI 규제법 협상을 이끄는 브란도 베니페이 유럽의회 의원은 "이번 사건은 이들 기업의 지배구조를 신뢰할 수 없고 예측할 수 없다는 점을 보여준다"며 "우리가 이들 기업의 비전 있는 CEO들이나 홍보대사들에 의지할 수 없고 규제가 있어야 한다는 점이 드러났다"고 강조했다.
미국도 지난달 말 조 바이든 대통령이 '안전하고 신뢰할 수 있는 AI에 대한 행정명령'에 서명하며 관련 규제 마련에 착수했다.
이 행정명령에 따라 미국 기업들은 AI 모델이 국가 안보나 경제·건강상 위험을 초래할 경우 연방정부에 이를 통지해야 한다.
/연합뉴스