UPDATED. 2024-03-29 00:30 (금)
제동 걸린 챗지피티, 다른 질문을 던지다
제동 걸린 챗지피티, 다른 질문을 던지다
  • 김재호
  • 승인 2023.04.13 08:56
  • 댓글 0
이 기사를 공유합니다

인문학자가 본 인공지능의 미래

생성형 AI인 챗지피티(ChatGPT) 광풍에 제동이 걸렸다. 이탈리아가 국가 차원에서 당분간 챗지피티 사용을 금지했다. 이어서 프랑스, 독일, 아일랜드도 잇따라 규제를 검토 중인 것으로 알려졌다. 핵심은 ‘개인정보 보호’다. 사용자 연령을 확인하지 않고 무작위로 추출되는 개인 데이터의 수집·저장에 법적 근거가 없다는 논리다. 유럽연합은 ‘일반 정보 보호 규정’(GDPR)에 따라 위반 시 벌금을 물도록 하고 있다. 

챗지피티는 미국 스타트업인 오픈 AI가 개발해 지난해 11월 서비스를 시작했다. 사람이 질문하면 거의 모든 영역에 걸쳐 답변을 제공한다. 최근에는 지피티-4(GPT-4)가 출시되어 전 세계의 데이터를 기반으로 질문에 답해주고 있다. 하지만 현재 챗지피티가 어떻게 학습하는지는 공개돼 있지 않다. 이탈리아 정보 보호 당국은 챗지피티가 20일 안에 이 같은 문제를 해결하지 않으면 2천만 유로(약 286억 원)의 벌금을 물어야 한다고 지적했다. 

 

왼쪽부터 이광석 서울과기대 교수(IT정책전문대학원), 천현득 서울대 교수(과학학과)이다. 이들은 생성형 AI인 챗지피티가 표준화된 규범적 사고를 퍼뜨리며, 잘못된 정보를 전달할 수 있다고 우려했다. 

 

<교수신문>이 창간 31주년을 맞아 특집으로 마련한 ‘인문학자가 본 인공지능의 미래’에서 이광석 서울과기대 교수(IT정책전문대학원)는 “빅테크 인공지능을 위해 갈아 넣는 인간 의식과 생체 데이터의 무차별 추출주의와 데이터 인클로저(사유화) 질서”를 지적했다. 특히 이 교수는 “생성형 AI는 인간 사회의 주류 의식과 규범적 사고의 확률적 평균값을 빼닮을 수밖에 없다”라며 “인류 지식의 거대 데이터를 원료로 갈아 넣은 생성형 AI 자판기가 마구 토해내는 전산 확률적 구성물이 차고 넘칠수록, 인간 사회의 표준화된 세계관이나 규범이 과잉 대표될 확률이 높다”라고 우려했다.

천현득 서울대 교수(과학학과)는 챗지피티가 잘못된 정보를 전달하면서 팩트체크가 부족한 점을 지적했다. 천 교수는 철학자 해리 프랑크퍼트의 용어를 인용해 ‘개소리(bullshit)’ 생성기계라고 비판했다. 그는 “챗지피티는 거짓말도 참말도 할 수 없는 존재이다. 그것은 언어행위자가 아니다”라며 “문제는 챗지피티가 개소리를 하도록 허용됐다는 데 있다”라고 강조했다. 아울러, 천 교수는 챗지피티가 마약·생화학 무기 설계 등에서의 오용을 어떻게 방지할지, 편향·혐오 표현을 어떻게 걸러낼 수 있는지 반문했다. 

김재호 기자 kimyital@kyosu.net



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.