UPDATED. 2024-03-29 19:50 (금)
인공지능의 ELSI, 정부가 주도할 때다
인공지능의 ELSI, 정부가 주도할 때다
  • 이중원
  • 승인 2021.02.02 09:11
  • 댓글 0
이 기사를 공유합니다

대학정론_ 이중원 논설위원 | 서울시립대·철학과

 

이중원 논설위원 / 서울시립대·철학과
이중원 논설위원 / 서울시립대·철학과

지난해 12월에 우리나라 모 중소기업이 20대 여자 대학생을 빙의한 대화형 인공지능 챗봇을 공개해 ‘인공지능 친구’(혹은 연인) 만들기 서비스를 제공하였다. 그 과정에서 (성)소수자·장애인·흑인에 대한 혐오 및 차별 발언, 성희롱 논란, 개인 정보 유출 등 윤리 문제로 사회적인 논란을 일으켜 결국 서비스가 중지됐고 소송으로까지 번졌다.

올해 1월에는 국내 최대의 포털 뉴스가 인공지능 편집 알고리즘을 채택한 이래로, 뉴스 생산자들이 포털 상위 순위에 오르기 위해 이 알고리즘을 속이는 방식으로 뉴스를 만들어와 저널리즘 본연의 가치를 손상시켰다는 언론정책에 관한 연구결과보고가 나왔다. 인공지능이 이제는 인간을 대신해 친구도 되고 언론 편집자도 되었지만, 현실적으로 많은 문제를 일으키고 있어 인간과 인공지능의 공존은 매우 험난해 보인다. 

최근 우리나라는 세계적인 추세에 맞춰, 인공지능의 연구개발과 산업화의 가속화, ‘2025년까지 AI·SW 인재 10만 명 양성’ 등 인공지능의 발전을 위해 엄청난 규모의 예산을 지원하고 규제를 완화하는 등 다양한 조치를 취하고 있다. 인공지능에 기반을 둔 4차 산업혁명으로 새로운 사회로의 전환을 빠르게 추진하려 한다.

그런데 이러한 전략 어디에도 인공지능의 발전에 수반하는 윤리적·법적·사회적 영향(Ethical Legal Social Implications, ELSI)에 대한 분석과 연구를 공식화하고, 그 결과를 공론화하여 인공지능에 기반을 둔 사회발전 정책에 적극적으로 반영하는 공적인 시도는 잘 보이지 않는다. 물론 인공지능의 ELSI에 관한 학술적인 연구를 개별적으로 지원하거나, 인공지능 관련 기업이 자체적으로 인공지능 윤리 강령을 만든다거나, 정부 차원에서 인공지능 윤리 가이드라인을 상징적으로 제정하는 등의 시도는 있었다.

하지만 이는 체계적이고 통합적인 방식이 아니라 개별적이고 분산적인 형태로, 구체적이기보다는 추상적인 내용으로, 정책에 실질적으로 반영하기보다는 상징적인 선언이나 권고로, 지속적이기보다는 일회적이거나 임시적인 것으로 진행돼왔다. 그러다 보니 실제 사용과정에서 사전에 그 폐해를 예측하여 예방·통제하는 실질적 역할을 충분히 하지 못하여, 기업의 경제활동이나 공공기관의 사회적인 공적 활동에 많은 피해와 부작용을 낳고 있다.

21세기 초엽에 미국과 유럽연합은 최첨단 기술인 나노기술의 등장과 함께 이의 연구·개발 및 산업화 그리고 상업화 과정에서 제기될 수 있는 나노기술의 ELSI를 사전에 체계적으로 분석하여 이를 정책에 반영하는 사회발전 전략을 추진하였다. 국가 차원에 나노기술이니셔티브(Naotechnology Initiative)를 두고 ELSI에 대한 예산을 별도로 편성하여, 폐해를 예측하고 사회윤리 제도를 통해 사전에 통제하는 방식으로 나노기술을 통한 책임 있고 지속가능한 사회발전을 추구해 온 것이다.

이러한 전략과 정책은 인공지능 분야에서도 여전히 유효하다. 인공지능기술의 국가주도연구개발사업에 인공지능의 ELSI 연구를 포함시키고, 인공지능의 ELSI 연구를 집중적으로 지원하는 연구재단을 설립·운영하며, 관련 연구 성과를 정책에 실질적으로 반영하는 등 이제 우리도 국가 주도의 인공지능 ELSI 사업을 바로 시작할 때다.

이중원 논설위원 / 서울시립대·철학과


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.