[기고] ‘사회적 가치 지향 인공지능(AI)’ 확산을 통한 ‘K-인공지능 윤리 플랫폼’ 강화
[기고] ‘사회적 가치 지향 인공지능(AI)’ 확산을 통한 ‘K-인공지능 윤리 플랫폼’ 강화
  • 조원희 디라이트 대표변호사 외 5인
  • 승인 2021.05.12 17:56
  • 댓글 0
이 기사를 공유합니다

 
 
* 공동 기고
조원희 법무법인 디라이트 대표변호사
이혜인 법무법인 디라이트 변호사
강래이 법무법인 디라이트 연구원
 
권영준 한국인공지능협회 사무총장
이종현 한국인공지능협회 이사 겸 미래전략사업단장
황이화 한국인공지능협회 전문위원
 
 
인공지능(AI)이 발전하고 확산됨 따라 이 기술을 윤리적으로 개발하고 활용하는 방안 역시 세계 각국과 주요 국제기구의 관심 대상이 되었다. 2019년 5월 ‘인공지능 권고안’을 마련한 경제협력개발기구(OECD)를 비롯해 유럽연합 등 국제기구와 각국 정부 및 기업, 연구기관이 다양한 인공지능 윤리 원칙을 발표하였다.
 
국내 4차 산업혁명 정책을 총괄하는 과학기술정보통신부(이하 ‘과기정통부’)와 산하 연구기관 정보통신정책연구원(KISDI)은 지난해 12월23일 '인공지능 윤리기준'을 마련하였다. 이 윤리기준은 ‘사람이 중심이 되는’ 윤리적 인공지능을 실현하기 위해 정부 · 공공기관 · 기업 · 이용자 등 모든 사회 구성원들이 인공지능의 개발에서 활용에 이르기까지 전 단계에 걸쳐 함께 지켜야 할 주요 원칙과 핵심 요건 등을 제시하고 있다.
 
◆ 인간성(Humanity), 정부 ‘인공지능 윤리기준’의 궁극적인 지향점
 
인공지능 윤리기준은 ‘인간성을 위한 인공지능(AI for Humanity)’을 위해 △ 인간 존엄성 원칙 △ 사회의 공공선 원칙 △ 기술 합목적성 원칙이라는 3대 기본원칙과 △ 인권보장 △ 프라이버시 보호 △ 다양성 존중 등 이를 실천하고 이행하기 위한 10대 핵심 요건을 제시한다.
 
과기정통부는 각 원칙들 사이에 고정된 우선순위를 부과하기보다 다양한 이해관계자들의 참여 하에 사회경제 및 기술 변화와 함께 새롭게 제기되는 인공지능 윤리 이슈를 반영하여 지속적으로 수정하고 보완해 나가는 ‘인공지능 윤리 플랫폼’으로 기능할 것이라는 기대감을 밝혔다.
 
◆ 사회적 가치를 지향하는 인공지능 생태계 확산을 위한 움직임
 
인공지능 윤리기준이 인공지능 윤리 플랫폼으로서 새롭게 제기되는 이슈들을 반영하여 지속적으로 수정 및 보완되는 것과 같이, 사회적 이익이나 가치를 지향하는 인공지능에 대해 현재로서 명확하게 합의된 정의나 규범은 없다.
 
한국인공지능협회(KORAIA)와 유엔 지속가능발전해법 네트워크 한국지부( Sustainable Development Solution Network Korea, ‘SDSN Korea')가 운영하는 ‘사회적 인공지능 인증제도’에서는 사회적 이익과 가치를 지향하는 인공지능을 ‘사회적 인공지능’이라 명명하며, 이를 ‘사회적 목적을 달성하기 위해 개발되거나 활용되는 인공지능’으로 정의하고 있다.
 
사회적 인공지능 인증제도는 사회적 가치를 달성하기 위해 개발되는 인공지능 기술 · 제품 · 서비스와 관련 기업을 발굴하여 그 역할과 의미를 인정해주는 제도로, 인공지능의 전 생애주기에 걸쳐 ‘사람 중심 가치’를 우선시하고 인간사회로부터 신뢰를 확보하여 국민 모두의 행복을 지원하고자 한다. 특히 인류의 지속가능한 발전을 위해 정립된 UN의 지속가능발전목표(Sustainable Development Goals, 이하 SGDs) 달성과 ESG(Environmental, Social and Governance, 환경 · 사회 · 지배구조) 가치 확산에 기여하는 것을 목적으로 한다.
 
사회적 인공지능 인증제도의 핵심 요건 중 하나인 UN의 SGDs는 △ 빈곤 · 질병 · 교육 · 성 평등 · 난민 · 분쟁 등 인류의 보편적 문제와 △ 기후변화 · 에너지 · 환경오염 · 물 · 생물다양성 등 지구 환경문제 △ 기술 · 주거 · 노사 · 고용 · 생산 소비 · 사회구조 · 법 · 대내외 경제 등 경제 사회문제를 2030년까지 해결하고자 마련된 17가지 국제사회 공동 목표다.
 
사회적 인공지능 인증제도는 인공지능의 기술과 서비스를 인증하는 ‘사회적 인공지능(AI-Social Tech) 인증’과 기업을 인증하는 ‘사회적 인공지능 기업(AI-Social Biz) 인증’으로 구분된다. 사회적 인공지능(AI-Social Tech) 인증의 필수 요건은 인공지능의 기술적 요소 확보와 한 가지 이상의 SGDs 미션 수행이다. 여기에 투명한 데이터 서플라이 체인을 확보하거나 사회적 가치를 추구하는 거버넌스를 갖출 경우 인증 가산점을 얻을 수 있다. 사회적 인공지능 기업(AI-Social Biz) 인증의 경우, 인공지능 분야 혁신성 요건과 대상 기업에 대한 SGDs 미션 수행 요건 충족을 필수로 요구한다. 이때 대상 기업이 근로조건을 개선하는 등 근로자 지향성을 지녔거나 공정한 거버넌스를 구축했을 경우 또는 사회 협력 노력이 확인된다면 가산점이 부여된다.
 
◆ 국내 첫 ‘인공지능 윤리기준’ 확립과 ‘사회적 인공지능 인증제도’
 
이 중 사회적 인공지능(AI-Social Tech) 인증은 기업 인증 대비 인공지능 자체의 윤리성에 초점을 맞추고 있다. 이는 과기정통부의 인공지능 윤리기준에서 추구하는 3대 원칙 중 ‘사회의 공공선 원칙’과 ‘기술의 합목적성 원칙’에도 부합한다.
 
특히 인공지능 윤리기준은 인공지능 기술의 윤리성 및 투명성을 추구하는 사회적 인공지능(AI-Social Tech) 인증의 비필수 가산점 요건과 대응되고 있다. 사회적 인공지능(AI-Social Tech) 인증의 윤리성 및 투명성 요건은 △ 데이터의 생산 · 수집 · 가공 · 학습 전 처리부터 인공지능 모델링 · 서비스에 이르기까지 투명한 데이터 서플라이 체인 확보 △ 서비스 수혜자 · 근로자 등 이해관계자가 참여하는 의사결정 구조를 갖춰 데이터 서플라이 체인 상에서 사회적 가치에 반하는 원인 · 과정 · 결과에 대한 모니터링과 개선 △ 임원 및 사원의 인공지능 윤리 교육으로 구성된다.
 
다음과 같이 과기정통부의 인공지능 윤리기준의 10대 핵심 요건 중 일부는 사회적 인공지능(AI-Social Tech) 인증 요건 이행을 통해 확립될 수 있다.
 
■ 인공지능 윤리기준의 요건 2 ‘프라이버시 보호’와 요건 7 ‘데이터 관리’ : 인공지능이 학습한 데이터양이 그 품질과 활용에 막대한 영향을 주는 만큼 데이터 확보와 관리가 인공지능 기술의 경쟁력과 직결되지만, 동시에 데이터 활용에 따른 개인정보 보안 및 프라이버시 문제와 개인의 데이터 주권 이슈가 야기되었다. 이 두 핵심요건 충족을 통해 상기 윤리성 및 투명성 요건(비필수가산점 요건)에서 제시했듯이 데이터의 수집 · 활용 및 전 과정에서 데이터 편향성을 최소화하고 데이터 품질과 위험을 관리하여 데이터를 반드시 그 목적에 부합하게 사용하는 등 데이터 서플라이 체인 전체에서 투명성을 확보할 수 있다.
 
■ 인공지능 윤리기준의 요건 3 ‘다양성 존중’ : 인공지능 전 생애주기에서 사용자의 다양성과 대표성을 반영하고 편향과 차별을 최소화하여 SGDs의 목표 중 5번 목표와 10번 목표와 같이 차별을 완화할 수 있다. 또 취약계층의 인공지능 기술 및 서비스에 대한 접근성을 보장하고 이를 교육하여 국가 내 또는 국가 간의 불평등한 인공지능 활용을 개선한다.
 
■ 인공지능 윤리기준의 요건 5 ‘공공성’ : 공공성 요건은 SDGs의 목표와 맞닿아 있다. 보편적 문제(빈곤 · 질병 · 교육 · 성평등 · 난민 · 분쟁 등)와 지구 환경문제(기후변화 · 에너지 · 환경오염 · 물 · 생물다양성 등), 경제 · 사회문제(기술 · 주거 · 노사 · 고용 · 생산 소비 · 사회구조 · 법 · 대내외 경제)를 해결할 수 있도록 인공지능 기술을 사회적 공공성 증진과 인류의 공동 이익을 위해 활용한다.
 
■ 인공지능 윤리기준의 요건 6 ‘연대성’과 인공지능 윤리기준의 요건 8 ‘책임성’ : 관계 연대성을 유지하고 다양한 주체들의 공정한 참여기회를 보장하기 위하여 다양한 이해관계자가 참여하는 거버넌스를 구성한다. 이러한 의사결정 구조는 사회적 가치에 위반되는 결정에 대해 각 주체의 입장을 반영하여 모니터링을 제공할 수 있고, 모든 이해관계자의 이익을 추구하는 것을 목적으로 둔다. 또 거버넌스를 구성할 때 인공지능 개발 및 활용과정에서 피해가 발생할 경우 책임주체를 설정하여 책임 소재를 명확히 하되 의사결정 주체로서 각 이해관계자들이 그러한 피해를 최소화할 수 있도록 노력한다.
 
이처럼 사회적 인공지능 인증제도는 인공지능이 인간사회에 미칠 수 있는 부정 영향에 대해 규제하기보다 사회적 가치 창출을 위시한 인공지능의 윤리성 강화라는 긍정 영향을 적극적으로 지원해 사회 문제 방지와 생태계 발전을 동시에 유도할 것을 지향한다. 궁극적으로 인간성 확립을 지향하는 사회적 인공지능 개발과 발굴을 통해 K-인공지능의 윤리 플랫폼의 영향력 확대와 K-인공지능 자체의 경쟁력 제고가 기대된다.

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.