[인터뷰] 'AI, 아직 이른 기술일까 : 테크와 법, 윤리 관점에서' 포럼 참가후기, 양진영 변호사

by (사)한국여성변호사회 posted May 07, 2023
?

단축키

Prev이전 문서

Next다음 문서

ESC닫기

크게 작게 위로 아래로 댓글로 가기 인쇄

Q. 안녕하세요, 자기소개를 부탁드립니다.

 

안녕하세요? 저는 지식재산, IT 분야를 주로 다루는 양진영 변호사라고 합니다

 

 

Q. 이번에 한국디지털윤리학회 3차포럼 ‘AI, 아직 이른 기술일까 : 테크와 법, 윤리 관점에서’에 참여하셨는데요, 평소에 인공지능에 대해 관심이 있으셨나요.

 

저는 2020년 방송통신위원회의 ‘딥페이크 기술대응 법제도 개선 방안 연구’ 용역에 참여하면서, 인공지능에 본격적으로 관심을 가지게 되었습니다. ‘딥페이크(deepfake)’는 인공지능 기술을 이용하여 가짜 동영상 또는 가짜 음성파일을 만드는 기술을 뜻합니다. 위 용역을 진행하면서 인공지능 기술이 악용된 딥페이크가 명예훼손, 음란물제작 등의 사회적인 문제를 일으키는 것을 넘어 정치, 외교, 선거에까지 개입할 수 있다는 사실을 알게 되었고, 인공지능 기술의 막강한 파급력과 위험성에 대하여 경계하는 마음을 가지게 되었습니다. 이후 인공지능에 대한 관심을 꾸준히 이어나가, 지난해에는 고려대학교 법학대학원에서 국내 최초로 개설한 데이터, 인공지능법 전문과정을 수료하였고, 현재 IAAE 국제인공지능윤리협회에서 자문위원으로 활동하고 있습니다.

 

 

Q. 한국디지털윤리학회 3차포럼 ‘AI, 아직 이른 기술일까 : 테크와 법, 윤리 관점에서’은 어떠한 내용으로 구성되어 있었나요.

 

이번 3차 포럼은 ChatGPT 열풍으로 인하여 가장 주목받고 있는 인공지능, AI 분야에 대하여 다루었습니다.

 

김효은 한밭대학교 교수님이 ‘made by AI의 권리와 책임, AI 윤리 기술을 활용한 공정한 AI 평가와 교육’이라는 주제로, ㈜그리드원의 박현 부사장님이 ‘세계 각국의 AI 윤리와 거버넌스 고찰’이라는 주제로 발표해주셨으며, 저는 ‘AI 시대의 데이터 윤리와 법적과제’라는 주제로 발표하였습니다.

 

김효은 교수님께서는 현재 대학교에서 학생들에게 AI 관련 과목을 직접 가르치고 계십니다. 그래서인지 김효은 교수님의 말씀에서 교육현장에서의 생생함이 그대로 느껴졌습니다. 박현 부사장님께서는 현재 AI 관련 회사를 운영하고 계십니다. 부사장님의 말씀을 통해 실무자의 통찰력과 깊은 고민을 느낄 수 있었습니다.

 

발표 이후 ㈜팀나인테일 권선주 대표님, 한국여성변호사회 부회장님이신 허윤정 변호사님의 지정 토론이 있었습니다. 권선주 대표님께서는 AI 도입으로 인하여 업무현장에서 실제로 벌어지고 있는 문제들을 현실감 있게 언급하시며, AI 도입으로 인한 일자리감소 등의 문제에 대해 질문하셨습니다. 허윤정 변호사님께서는 유전자가위 등 생명윤리의 문제와 인공지능 윤리 문제의 비교분석을 통해 문제제기를 하여 주셨는데, 인간의 존엄성이라는 공통가치를 서로 다른 분야에서 바라볼 수 있게 짚어 주신 점이 인상깊었습니다.

 

 

Q. 변호사님께서는 ‘AI 시대의 데이터 윤리와 법적과제’에 대한 발제를 진행하셨는데요, 발표하신 내용에 관하여 간략한 소개 부탁드립니다.

 

인공지능은 ‘데이터’를 학습하여 이를 통계적으로 추론함으로써 결과를 예측하거나 결과물을 제시합니다. 저는 인공지능과 관련된 여러 문제 중 ‘데이터’에 집중하여 데이터 관련 윤리문제를 소개해드리고자 했습니다.

 

AI의 기본 윤리원칙에 대하여 간략하게 살펴본 후, AI 관련 데이터 수집 및 이용 과정, AI 데이터 처리 및 관리 과정에서 준수하여야 할 법령의 내용을 살펴보고, 입법공백이 없는지, 앞으로 어떠한 제도가 뒷받침되어야 할지에 관한 의견을 제시하였습니다. 또한 AI 이용자가 준수하여야 할 윤리적인 문제에 관하여도 짚어보았습니다.

 

 

Q. 앞으로 인공지능 문제와 관련하여 한국여성변호사회가 할 수 있는 일이 무엇이 있을까요?

 

인공지능의 ‘데이터 편향성(Data Bias)’이란 AI 모델의 학습과정 및 결과도출에 있어서 인간의 편견과 오류가 그대로 반영되는 현상을 말합니다. 데이터 편향은 성별, 나이, 장애, 지역, 인종, 종교, 국가 등 다양한 영역에서 발견됩니다. 아마존의 인공지능 채용시스템은 여성보다 남성을 더 선호하는 것으로 드러났고, 애플카드는 신용대출 시 남성의 신용을 여성보다 더 높게 평가하였으며, 인공지능 미인대회에 사용된 AI는 백인여성을 타 유색인종에 비하여 더 아름답다고 보았습니다.

 

이에 IBM, MS, 구글 등 인공지능 서비스를 개발하고 있는 IT회사에서는 데이터 편향성을 극복하기 위하여, 데이터 편향성 검증 도구를 개발하는 등 여러 노력을 기울이고 있습니다. 구체적으로 챗GPT의 경우 데이터 편향성을 감소시키기 위해 강화학습 알고리즘인 RLHF(Reinforcement Learning from Human Feedback)을 적용하고 있습니다. RLHF는 인공지능이 답변할 수 있는 응답을 인간이 순위화한 후 보상함수를 통해 응답에 피드백을 반영하는 방식으로 선호도가 모델에 반영되도록 합니다. 즉 인간의 사후적인 개입을 통해 인공지능의 응답을 교정해줍니다.

 

이처럼 성별, 나이, 약자 등에 대해서 발생할 수 있는 데이터 편향을 극복하기 위하여는 인간이 필연적으로 개입하여, 무엇이 더 바람직한 응답인지에 대한 ‘올바른 가치판단’을 해주어야 합니다. 저는 ‘한국여성변호사회’가 이러한 판단의 기준을 제시할 수 있을 것으로 기대합니다.

 

 

Q. 마지막으로 한국여성변호사회에 하고 싶은 말씀이 있으시면 부탁드립니다^^

 

한국여성변호사회와 IT여성기업인협회가 머리를 모아 시작한 한국디지털윤리학회가 벌써 세 번째 포럼을 진행하였습니다. 메타버스, 인공지능 등 최신의 핫한 IT 이슈를 여성 전문가의 입장에서 바라보고 분석하는 작업은 매우 가치가 있다고 생각합니다. 한국여성변호사회가 주축이 되어 사회에 기여할 수 있는 학회가 창립된 것을 기쁘고 감사하게 생각하며, 앞으로도 지속적으로 디지털, 온라인, IT와 관련된 여러 이슈들에 대해서 깊은 논의가 이루어지기 바랍니다.

 

 

 

■ 양진영 변호사 ■ 

 

사법연수원 42기 

법무법인 민후 

한국여성변호사회 기획이사

한국디지털윤리학회 상임이사

산업기술분쟁조정위원회 위원

IAAE 국제인공지능윤리협회 자문위원

 
 

담당 양진영 변호사 Ⓒ (사)한국여성변호사회 뉴스레터발간위원회

 
 

Articles

1 2 3 4 5 6 7 8 9 10