[가트너 특약] 윤리적인 AI 만드는 5가지 방법
[가트너 특약] 윤리적인 AI 만드는 5가지 방법
  • 프랭크 뷰이텐디크 가트너 수석 VP 애널리스트
  • 호수 355
  • 승인 2019.09.20 12:00
  • 댓글 0
이 기사를 공유합니다

AI와 윤리

인공지능(AI)은 미래 사회의 핵심 기술이다. 하지만 다른 한편에선 숱한 윤리적 문제를 야기한다. 자율주행차 사고 문제, 인간과 AI의 상호작용 문제, AI의 일자리 대체 문제는 대표적인 예다. 문제는 AI의 부작용을 모두 막는 게 사실상 불가능하다는 점이다. 그렇다면 중요한 건 뭘까. AI의 부작용을 최소화할 수 있도록 가이드라인을 마련하는 거다. 더스쿠프(The SCOOP)와 가트너가 AI의 윤리적 문제를 해소할 가이드라인을 살펴봤다.
 

AI의 윤리 문제는 많은 논쟁거리를 낳았다. 전문가들도 낙관론과 비관론 사이에서 주장이 엇갈린다.[일러스트=게티이미지뱅크]
AI의 윤리 문제는 많은 논쟁거리를 낳았다. 전문가들도 낙관론과 비관론 사이에서 주장이 엇갈린다.[일러스트=게티이미지뱅크]

한 식당에 전화가 울려 퍼진다. 전화를 받은 식당 직원은 상대방의 요청에 따라 예약을 접수한다. 식당 직원에겐 늘 있는 일이다. 어떤 이상한 낌새도 알아차리지 못한다. 하지만 전화를 건 상대는 사람이 아닌 인공지능(AI)이었다. 이는 지난해 5월 구글이 AI 음성 대화형 서비스 ‘듀플렉스’를 공개하면서 벌어진 상황이다. 

실제로 듀플렉스와 통화한 직원은 상대가 AI라는 사실을 눈치 채지 못했다. 놀라운 기술이었지만 듀플렉스가 공개된 직후 여론을 가장 뜨겁게 달군 화두는 ‘윤리’ 문제였다. AI라는 사실을 모르고 대화하는 게 윤리적으로 바람직하냐는 것이었다. AI와 주고받은 대화가 또다시 AI를 업데이트하는 데이터로 쓰인다는 점도 지적을 받았다. 

AI와 윤리 문제는 떼려야 뗄 수 없는 논쟁거리다. 자율주행차가 교통사고를 냈을 때 책임소재 문제, AI가 대체하는 일자리 문제 등 앞선 사례 외에도 윤리적으로 민감한 주제가 많다. 전문가들도 낙관론과 비관론 사이에서 명쾌한 답을 내리지 못한다. 하지만 AI 기술은 인간의 삶 속에 깊숙이 파고들고 있다. 이는 거스를 수 없는 흐름이다. 

그렇다면 중요한 건 AI에서 비롯되는 윤리적 문제들을 어떻게 최소화하느냐다. 여기서 필요한 건 AI 기술 개발자와 기업들이 지켜야 할 원칙이다. 이른바 AI 개발에 필요한 윤리 가이드라인인데, 여기엔 크게 5가지 원칙이 있다. 

■인간 중심 = 첫째는 인간 중심적이고, 사회에 유익해야 한다는 것이다. 이 말은 AI는 인간과 사회가 원하는 목표를 지원하도록 설계돼야 한다는 뜻이다. 이를 위해 가장 중요한 건 최소한의 의사 결정권이 사람에게 있어야 한다는 점이다.

고도화된 AI 기술은 스스로 의사결정을 내리고, 조치를 취한다. 하지만 올바른 결과를 얻으려면 결과에 따른 책임이 사람에게 있어야 한다. 사람이 AI가 내린 결정을 무르거나 바꿀 수 있는 최소한의 의사결정권을 가져야 한다는 얘기다.

 

아울러 AI는 인간의 능력을 향상시킬 수 있어야 한다. 이때, 인간의 능력을 향상시킨다는 건 ‘인간다운 방법’으로 더 나아진다는 뜻이다. 기계의 학습방법과 인간의 학습방법엔 차이가 있다. AI의 학습 결과가 인간적이지 않을 수도 있는 이유다. 따라서 AI 개발자는 인간답지 않은 해결책을 제시하는 단순 기계적인 능력을 경계해야 한다.

사회적으로 유익해야 한다는 것도 중요하다. 이는 어려운 문제다. 가령, 한편에선 AI가 사람들의 직업을 대체하는 걸 비판한다. 또다른 한편에선 사회적으로 유익한다고 주장한다. 사회적으로 유익한 게 모두 인간 중심적이진 않을 수 있다는 거다. 두 논제 사이에서 균형을 찾는 것도 AI 기술자가 풀어야 할 과제인 셈이다.

기술과 법제도가 충돌할 땐 어떻게 해야 할까. 이것도 생각해봐야 할 문제다. 통상 법은 기술혁신보다 뒤처지기 때문이다. 법이 마련돼 있다고 해도 시간의 흐름에 따라 변하거나, 국가별로 다를 수도 있다. 더구나 일부에선 유익한 기술이라고 여기지만 법에선 금지하는 경우도 있다. 

차량공유서비스 우버나 숙박공유서비스 에어비앤비가 대표적인 예다. 이를 바탕으로 법의 개정을 요구하는 기업들도 많다. 하지만 이건 좋은 방법이 아니다. 가장 올바른 방법은 무엇이 옳고 그른지를 판단하기 위해 끊임없는 성찰의 과정을 거치는 것이다.

■공정성 = 둘째는 공정성이다. 모든 관계에서 공정성은 중요하다. 이는 인간과 AI의 관계에서도 마찬가지다. 하지만 무엇이 공정한 건지는 생각해봐야 할 필요가 있다. 누군가는 모든 사람을 똑같이 대우하는 게 공정하다고 여기지만 또다른 누군가는 각자의 상황을 고려해서 대우하는 걸 공정하다고 생각하기 때문이다.

이는 편견을 갖는 것과는 다른 문제다. 성별이나 인종, 종교 등 차별을 초래할 수 있는 요소들과 특정 상황을 고려하는 건 서로 다르다. 무엇이 차별이고, 무엇인 공정한 대우인지 사전에 논의해야 할 필요가 있다는 얘기다.

 

공정성을 갖추기 위해 지켜야 할 원칙이 또 있다. 사용자가 원하는 본래 목적 외에 다른 목적을 숨기지 않아야 한다는 것이다. 이는 AI 기술과 관련된 기업들이 많을수록 문제가 될 소지가 크다. 각 기업들은 서로 다른 목표를 가지고 있게 마련이라서다.

이들의 목표와 사용자의 목표가 같지 않을 수 있다는 건데, 이는 AI의 조작 문제와도 결부될 수 있다. 물론 악의가 없고 투명성이 받쳐준다면 윤리적으로 조작문제가 허용될 수 있다. 하지만 중요한 건 사용자가 AI 시스템의 목적을 명확하게 알아야 한다는 것이다.

■투명성 = AI 기술에 있어 가장 중요한 것 중 하나가 투명성이다. 앞서 언급했던 구글 듀플렉스의 문제가 여기에 해당된다. 과거엔 컴퓨터의 행동이 인간의 행동과 구별되는지를 따졌다면, 이제는 다르다. 사용자가 언제 AI와 상호작용하고 있는지 알 수 있어야 한다. 

AI가 내린 결정을 설명할 수 있어야 한다는 점도 중요한 원칙이다. 쉽게 말하면 이렇다. 개발자는 AI에 A를 입력했을 때, B가 나온다는 걸 알고 있어야 한다는 거다. 이때, 해당 결과는 사람이 이해할 수 있는 범위 내에 있어야 한다.

같은 문제에서 AI가 내린 결정과 사람이 내린 결정이 동일해야 한다는 것이다. 또한, 사용자는 해당 결과가 AI를 통해 나왔다는 걸 고지 받아야 한다. 이는 AI의 신뢰성과도 직결된다.

 

■보호성 = 넷째, AI는 안전해야 한다. AI의 핵심은 데이터다. AI가 사람들의 필요에 따라 움직이고, 욕구를 충족하려면 그만큼 방대한 데이터가 필요하다. 하지만 그만큼 개인정보가 담긴 데이터는 악용될 여지가 크다. AI 기술이 데이터가 안전하게 보호되는 방식으로 구현돼야 하는 이유다.

AI 기술자는 항상 데이터가 감춰져있는지, 암호화돼 있는지, 다른 목적으로 사용되지 않는지 등을 꼼꼼히 확인해야 한다. 이를 위해서는 AI가 어떻게 사용되고 작동하는지도 알고 있어야 한다. 

AI가 데이터를 수집하는 이유와 AI 솔루션의 목표가 일치해야 한다는 점도 명심해야 한다. 개인정보는 당초 목적을 위해서만 사용돼야 한다는 얘기다. 이를 위해 개발자는 AI가 너무 많은 데이터를 수집하지 않도록 해야 한다. 필요 이상의 데이터는 불균형을 초래하고, 이는 AI에 과도한 능력을 안겨주게 될 수 있다. 또한, 로봇에 AI가 적용될 때는 로봇이 인간에게 물리적인 피해를 입히지 않도록 주의해야 한다.

■책임감 = 마지막은 AI 개발자는 책임감을 가져야 한다는 것이다. 아직 AI와 AI 솔루션에 직접 윤리적인 문제를 제기할 수는 없다. 그럼에도 AI는 실제로 학습하고, 행동하고, 결정을 내린다. 이 과정에서 원래 의도와 다른 결과가 나올 수 있다. 이때, AI 개발자는 이런 결과에 책임을 질 수 있어야 한다. 

그래서 치밀한 테스트와 모니터링 프로그램이 중요한 거다. AI를 개발하는 데만 그치지 않고, AI를 관리할 수 있는 거버넌스 프로그램이 제대로 갖춰져 있는지 확인해야 하는 이유다.

 

가이드라인을 마련하는 건 시작에 불과하다. 중요한 건 가이드라인을 각각의 구체적인 AI 개발 계획에 맞게 운용하는 것이다. 같은 가이드라인을 두고도 경우에 따라서 다양한 의견과 해석이 쏟아지게 마련이다. 가이드라인이 구체적인 계획안에 어떻게 적용되는지 논의하고, 다양한 의견을 반영하는 게 그만큼 중요하다.

앞서 다룬 가이드라인이 의도치 않은 모든 결과를 막을 수 있는 건 아니다. 하지만 가이드라인이 없는 것보단 더 많은 변수를 잡아낼 수 있는 건 분명하다. 아울러 추후 문제가 발견됐을 때도 더 잘 대응할 수 있을 것이다. 
프랭크 뷰이텐디크 가트너 수석 VP 애널리스트 | 더스쿠프

 

 


관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • 서울특별시 영등포구 경인로 775 에이스하이테크시티 1동 12층 1202호
  • 대표전화 : 02-2285-6101
  • 팩스 : 02-2285-6102
  • 법인명 : 주식회사 더스쿠프
  • 제호 : 더스쿠프
  • 장기간행물·등록번호 : 서울 아 02110 / 서울 다 10587
  • 등록일 : 2012-05-09 / 2012-05-08
  • 발행일 : 2012-07-06
  • 발행인·대표이사 : 이남석
  • 편집인 : 양재찬
  • 편집장 : 이윤찬
  • 청소년보호책임자 : 김병중
  • Copyright © 2019 더스쿠프. All rights reserved. mail to webmaster@thescoop.co.kr ND소프트