한국 AI 기술 수준 세계 7위 달성, 그러나 인공지능 윤리에 대해서는?
한국 AI 기술 수준 세계 7위 달성, 그러나 인공지능 윤리에 대해서는?
  • 김유진 기자
  • 승인 2021.01.05 08:54
  • 댓글 0
이 기사를 공유합니다

데이터·인프라 부문에서는 아시아 1위…5G·휴대전화·인터넷 보급률이 높아
아실로마 AI 원칙(Asilomar AI Principles), 스티븐 호킹, 일론 머스크 등 동의한 인공지능 원칙 한국이 배울 필요 있어

영국 기술 정책 연구소 옥스퍼드 인사이츠(Oxford Insights)에서 국가별 AI 기술 수준을 비교·분석한 ‘정부 AI 준비 지수 2020(Government AI Readiness Index)’에서 한국이 7위를 차지했다.

한국이 처음으로 세계 10위권에 진입했다. 데이터·인프라 부문 8위, 거버넌스 부문 9위, 기술 부문 9위로 종합 7위를 기록했다. 이는 2019년도 26위 대비 무려 19단계나 상승한 수치다. 데이터·인프라 부문에서는 아시아 1위를 차지했다. 5G·휴대전화·인터넷 보급률이 높고 디지털 격차가 적은 것이 반영됐다.

네이버·카카오 등 인터넷 플랫폼 대기업뿐 아니라 실력 있는 스타트업이 등장하며 글로벌 기업과 어깨를 나란히 한 결과다.

인공지능 기술 발전과 동시에, 정부는 올해 11월 말 ‘국가 AI 윤리 기준(안)’을 발표했다. 국가 AI윤리는 3대 기본원칙과 10대 핵심요건으로 구성됐다.

기본원칙은 ▲인간의 존엄성 ▲사회의 공공성 ▲기술의 합목적성 등이다. 이를 실현하도록 돕는 10대 핵심 요건은 ▲인권 보장 ▲프라이버시 보호 ▲다양성 존중 ▲침해금지 ▲공공성 ▲연대성 ▲데이터 관리 ▲책임성 ▲안전성 ▲투명성 등이다.

이에 업계 한 관계자는 “목적이 불분명하고, 너무 광범위하다”며 문제를 지적했다. 국가 AI 윤리는 별도의 징벌 제도가 없기 때문에 강제성이 없다.

AI (출처: FLI 웹사이트)
AI (출처: FLI 웹사이트)

여기서 주목해 볼만한 구체적인 인공지능 윤리강령이 있다. 2017년, 세계 유수한 인공지능 전문가들이 캘리포니아 휴양지 아실로마에서 ‘이로운 인공지능 회의(Beneficial AI conference)’를 개최했다. 우주물리학자 스티븐 호킹, 테슬라 최고경영자 일론 머스크, 알파고 개발 책임자 데미스 허사비스 딥마인드 최고경영자, 구글 기술이사인 레이 커즈와일 등 수 백명의 전문가 집단으로 구성되어 ‘미래 인공지능 연구의 23가지 원칙’에 서명했다.

가이드라인에 포함된 항목은 100여 명의 참석자 중 90% 이상의 동의로 이뤄졌다. 인공지능 관련 학계와 엔지니어를 포함 구글 공동창업자 래리 페이지 등의 기업인들이 참석했다.

아실로마회의에 참석한 인공지능 전문가들 (출처: FLI 제공)
아실로마회의에 참석한 인공지능 전문가들 (출처: FLI 제공)

회의 장소 이름을 빌려 ‘아실로마 AI 원칙(Asilomar AI Principles)’라고 불린다. 이 원칙은 연구 이슈(5항목), 윤리와 가치(13항목), 장기 이슈(5항목) 총 3개의 범주로 구성됐다. 이 회의는 비영리단체인 ‘생명 미래 연구소(Future of Life Institute, FLI, http://futureoflife.org/)’가 주최했다.

FLI는 “인공지능 연구 원칙을 만든 이유는 앞으로 수십 년 혹은 수백 년 동안 사람들을 돕고 힘을 줄 수 있는 놀라운 기회를 제공하기 위해”라고 밝혔다.

23가지 원칙은 이를 바탕으로 제1항 “인간에게 이로운 지능을 만들어야 한다”로 시작하여, 제23항에서 “AI 시스템은 엄격한 통제 절차를 따라 한 국가나 조직이 아니라 모든 인류의 이익을 위해서만 개발되어야 한다”고 맺는다.

 

23가지 원칙을 살펴보자.

【연구 이슈(5항목)】

1. 연구목표 : 인공지능 연구의 목표는 방향성 없는 지능이 아닌 인간에게 이로운 지능을 개발하는 것이어야 한다.

2. 연구비 지원 : 인공지능에 대한 투자는 인공지능의 유익한 이용을 보장하는 문제에 대한 지원을 수반해야 한다. 여기엔 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 분야의 어려운 질문들이 포함된다. 예컨대 이런 것들이다.

- 우리는 미래의 인공지능 시스템을 얼마나 튼튼하게 만들 수 있나? 그래서 오작동이나 해킹 없이 우리가 원하는 것을 인공지능이 수행하도록 할 수 있나?

- 우리는 인간 자원과 목적을 그대로 유지하면서 자동화를 통해 얼마나 더 번영해갈 수 있나?

- 우리는 인공지능과 보조를 맞추기 위해, 그리고 인공지능과 관련한 위험을 관리하기 위해, 법 체계를 얼마나 더 공정하고 효율적인 체계로 업데이트할 수 있나?

- 인공지능은 어떤 가치들에 맞춰 조정돼야 하며, 어떤 법적·윤리적 지위를 가져야 하나?

3. 과학과 정책의 연결 : 인공지능 연구자와 정책입안자 사이에 건설적이고 건강한 교류가 있어야 한다.

4. 연구문화 : 인공지능 연구자와 개발자 사이에 협력, 신뢰, 투명성의 문화가 조성돼야 한다.

5. 경쟁 회피 : 인공지능 시스템을 개발하는 팀들은 부실한 안전기준을 피하기 위해 능동적으로 협력해야 한다.

 

【윤리와 가치(13항목)】

6. 안전 : 인공지능 시스템은 작동 수명 기간을 통틀어 안전하고 안정적이어야 하며, 어떤 경우에 적용·구현이 가능한지 검증할 수 있어야 한다.

7. 장애 투명성 : 인공지능 시스템이 피해를 유발할 경우, 그 이유를 확인할 수 있어야 한다.

8. 사법 투명성 : 사법적 결정에서 자동시스템이 개입할 경우, 권한이 있는 감사 당국에 만족할 만한 설명을 제공해야 한다.

9. 책임성 : 첨단 인공지능 시스템 설계자 및 구축자는 인공지능의 이용, 오용 및 행동의 도덕적 영향력에서 이해 관계자이며, 그에 따르는 책임과 기회를 갖고 있다.

10. 가치 정렬 : 고도의 자동 인공지능 시스템은 작동하는 동안 그 목표와 행동이 인간의 가치와 잘 어우러지도록 설계돼야 한다.

11. 인간의 가치 : 인공지능 시스템은 인간의 존엄, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되고 운용돼야 한다.

12. 프라이버시 : 인공지능 시스템에 데이터를 분석·활용할 수 있는 권한을 부여할 경우, 사람에겐 그 데이터에 접근, 관리, 통제 할 수 있는 권리를 줘야 한다.

13. 자유와 프라이버시 : 개인 데이터에 대한 인공지능 적용이 사람들의 실제 또는 스스로 인지하는 자유를 부당하게 축소해서는 안 된다.

14. 공동의 이익 : 인공지능 기술은 가능한 한 많은 사람들에게 이로움을 줘야 한다.

15. 공동의 번영 : 인공지능이 만들어내는 경제적 번영은 널리 공유돼, 모든 인류에게 혜택이 돌아가도록 해야 한다.

16. 인간통제 : 인간은 인공지능 시스템에 의사결정을 위임할지 여부와 그 방법을 선택해, 인간이 선택한 목표를 달성하도록 해야 한다.

17. 비전복 : 고도화된 인공지능 시스템을 통제함으로써 갖게 되는 힘은 사회의 건강도를 좌우하는 사회적, 시민적 절차를 뒤집는 것이 아니라 존중하고 개선해야 한다.

18. 인공지능 군비 경쟁 : 치명적인 자동 무기에 대한 군비 경쟁은 피해야 한다.  

 

【장기 이슈(5항목)】

19. 능력 경계 : 어떤 일치된 합의가 없으므로, 우리는 미래 인공지능 능력의 상한선에 관한 강력한 가정을 피해야 한다.

20. 중요성 : 고등 인공지능은 지구 생명의 역사에 중대한 변화를 가져올 수 있으며, 그에 상응하는 관심과 자원을 계획하고 관리해야 한다.

21. 위험 : 인공지능 시스템이 야기하는 위험, 특히 파국적이거나 실재하는 위험은 예상되는 영향에 맞춰 계획하고 완화하는 노력을 해야 한다.

22. 반복적 자기개선 : 급속한 양적, 양적 증가로 이어질 수 있는 방식으로 자기개선이나 자기복제를 반복적으로 하게끔 설계된 인공지능 시스템은 엄격한 안전 및 통제 조처를 받아야 한다.

23. 공동선 : 초지능은 오로지 널리 공유되는 윤리적 이상을 위해, 그리고 하나의 국가나 조직이 아닌 모든 인류의 이익을 위해 개발돼야 한다.

 

인공지능 수준이 세계 7위를 기록하고 앞으로 더 발전하는 만큼, 윤리강령에 대해서 세계 흐름을 살펴보며 명확히 확립할 필요가 있다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.