첨부파일(2)
인간과 인공지능(AI)의 공존을 위한 사회‧윤리적 쟁점
- 신뢰할 수 있는 인공지능을 실현하기 위한 방안 -
한국과학기술정보연구원(원장 김재수, 이하 KISTI)은 디지털 전환의 가속화로 인해 인공지능(AI)의 활용이 보다 촉진됨에 따라 발생할 수 있는 사회‧윤리적 쟁점에 대한 인식을 제고할 수 있는 『KISTI 이슈브리프*』를 발간했다.
* KISTI 이슈브리프는 국가 과학기술 정보 분야의 대표 연구기관인 KISTI가 최근의 과학기술 정보 관련 현안‧이슈를 발굴‧분석하여 시사점 및 해결 방안을 제시하고자 함(https://www.kisti.re.kr/promote/post/issuebrief).
인공지능은 거의 모든 산업에 적용되어, 복잡한 문제 해결, 생산성‧효율성 증가, 비용 절감 등 경제적 가치를 창출하지만, 사회‧윤리적으로 예상하지 못한 부작용도 초래하고 있다.
ㅇ 우리나라의 AI 챗봇 ‘이루다’가 성소수자나 장애인에 대한 혐오 발언으로 서비스를 종료하거나 딥페이크, 자율주행자동차 사고, 자율살상무기 등을 통해 AI의 위험성이 경고되고 있다.
ㅇ 2015년 이후 AI 컨퍼런스에서 ‘윤리(ethics)’ 키워드가 포함된 제목의 논문이 증가하는 등 세계 각국은 AI 윤리의 중요성을 인식하고 있다.
ㅇ 이에 따라, 다가오는 AI 시대에 대비하여 신뢰할 수 있는 AI 실현을 위해 발생 가능한 사회‧윤리적 쟁점에 대해 지속적인 논의가 필요하다.
세계 각국은 인공지능의 활용‧확산 과정에서 위험이나 부작용 등을 방지하기 위한 방안을 마련하고 있다.
ㅇ 2019년 5월, 42개 국가는 AI 시스템을 공정하며 신뢰할 수 있는 방식으로 설계하는데 동의하는 AI에 관한 OECD 원칙에 서명했다.
ㅇ EU에서는 2019년 4월 ‘신뢰할 수 있는 AI를 위한 윤리 지침’을 제시하였고, 2021년 4월 세계 최초로 ‘인공지능 법안(Artificial Intelligence Act)’을 발표했다.
ㅇ 미국에서도 2019년부터 AI를 규제하기 위한 법안을 도입하고 있으며, 구글, 마이크로소프트 등의 주요 기업을 중심으로 윤리적인 AI 실현을 위한 자율적인 AI 개발 원칙을 마련했다.
하지만 아직까지 국가 차원의 인공지능 윤리는 큰 틀에서의 기준만 마련되어, 보다 세부적인 논의를 바탕으로 사회적 합의가 이루어져야 한다.
ㅇ 고위험 AI에 대한 명확한 기준을 설정하여, 사전에 발생 가능한 문제에 대해 지속적인 논의를 통해 예방할 수 있어야 한다.
ㅇ AI 시대의 다양한 상황에서 어떻게 AI가 사람 중심으로 의사결정을 할 것인지 등에 대해 구체적인 논의가 필요하다.
ㅇ AI 윤리는 AI 자체라기보다 AI를 개발하고 운영하는 규범으로의 윤리라는 점을 인식해야 한다.
인공지능 활용 활성화를 위해 기술적 측면과 사회‧윤리적 측면을 모두 반영한 신뢰할 수 있는 인공지능 실현 방향을 마련해야 한다.
ㅇ 현재 AI와 관련된 편향성, 불투명성, 안전성 등 AI의 불완전성을 해결하기 위해 충분한 학습 데이터 구축, 설명 가능한 AI 구현, 표준화된 AI 가이드라인 수립 등 과학기술적 측면의 노력이 요구된다.
ㅇ 예방적인 차원에서 AI 윤리에 대해 논의하고 구체적인 기준 마련, 사회적 합의 등을 통해 AI의 사회‧윤리적 이슈에 잘 대처해야 한다.
ㅇ AI 윤리와 관련된 이슈를 총괄하고 조정하는 거버넌스를 구축할 필요가 있으며, 모든 사람들과의 공유를 통해 신뢰할 수 있는 AI를 위한 인식을 확산해나가야 할 것이다.
KISTI 김재수 원장은“앞으로 과학기술 전반의 이슈를 논의할 수 있는 KISTI 이슈브리프를 지속적으로 발간할 것이며, KISTI에서도 인공지능의 편향성 논란 등을 해소할 수 있도록 충분한 학습 데이터를 구축하기 위해 노력하겠다”고 밝혔으며,
KISTI 정책연구실 정도범 박사와 유화선 박사는 “인공지능의 활용 촉진을 위해 과학기술적 측면뿐만 아니라 사회‧윤리적 측면의 노력이 함께 병행되어야 할 것이다”라고 언급하였다.
본 저작물은 “공공누리 제4유형(출처표시, 상업적 이용금지, 변경금지)” 조건에 따라 누구나 이용할 수 있습니다.