아마존, 사망한 가족 목소리 재현하는 ‘알렉사’ 신기술 두고 시끌
상태바
아마존, 사망한 가족 목소리 재현하는 ‘알렉사’ 신기술 두고 시끌
  • 김상일 기자
  • 승인 2022.06.24 13:10
  • 댓글 0
이 기사를 공유합니다

아마존, 알렉사를 통해 사망한 가족 목소리 재현 기술 공개
음성 딥페이크(voice deepfake) 기술 등장으로 우려 제기
윤리적 문제-사망자의 개인정보 권한 측면에서 문제 지적
아마존이 자사 음성비서 알렉사(Alexa)에서 사망한 가족의 목소리를 흉내 내는 기술을 선보였다.
아마존이 MARS 컨퍼런스에서 음성비서 알렉사(Alexa)에서 사망한 가족의 목소리를 흉내 내는 기술을 공개했다. (출처: 아마존 MARS 트위터)

[애틀러스리뷰=김상일 기자] 아마존이 자사 음성비서 알렉사(Alexa)에서 사망한 가족의 목소리를 흉내 내는 기술을 선보였다. 아마존이 연례 개발자 행사 MARS 컨퍼런스에서 한 아이가 알렉사에 돌아가신 할머니의 목소리로 이야기를 읽어달라고 요청하는 영상을 공개한 것이다.

아마존 알렉사 AI의 로히트 프라사드(Rohit Prasad) 수석 과학자는 해당 영상을 공개하면서 책을 읽는 목소리가 알렉사가 아닌 아이 할머니의 목소리임을 언급했다. AI 시스템에 ‘인간 속성(human attribute)’을 추가하는 것은 많은 사람이 사랑하는 사람을 잃은 이 시기에 더욱 중요하다고 강조했다. AI가 가족 사망의 슬픔을 없애지는 못하지만, 기억을 더 오래 유지하도록 남길 수 있다는 것이다. 아마존은 해당 기술의 구체적인 상용화 시점을 공개하지는 않았지만, 특정인의 목소리가 녹음된 1분 분량의 오디오에서 해당 사람의 목소리를 모방하는 방법을 학습할 수 있다고 말했다.


AI 음성 비서 시장 성장에 음성합성 기술도 발전

음성합성 기술은 이미 오래전부터 인공지능 기술의 주요 적용 분야 중 하나로 지목되어 왔다. 최근 음성합성 기술을 이용해 독자적인 목소리를 갖춘 가상 인간의 활약도 활발해졌다. 그리고 이제는 가상의 인간을 위한 음성합성이 아닌, 유명인 등 실제 사람의 목소리를 합성하는, 이른바 ‘음성 딥페이크(voice deepfake)’ 기술도 등장해 논란이 되고 있다.

구글, 아마존, 애플을 필두로 이용자와 상호작용이 가능한 음성인식 개인비서 시장이 개화되면서 보다 자연스러운 인간의 목소리를 내는 기술의 발전 속도가 더욱 빨라졌다. 또한, 메타버스 시대를 맞아 가상의 캐릭터들이 등장하고 이들의 서비스 내 역할이 커지면서 음성 합성 시장은 더욱 성장할 것으로 보고 있다.

특히 유명인이나 가족과 같은 지인의 목소리를 합성하는 것은 여러 응용 분야가 등장하면서 활용이 더 늘어날 전망이다. 수년 전만 해도 음성합성을 위한 상당 분량의 음성 데이터가 필요했으나, 이제 아마존이 발표한 1분 분량 음성 데이터에서 알 수 있듯이 음성합성을 위한 기술적 발전도 상당히 이뤄졌다.

 

(P-TTS
KT의 P-TTS 기술 이미지. (출처: KT AICC 홈페이지 갈무리)

 

유명인의 목소리를 조합해 여러 목적의 마케팅에 활용하는 사례는 쉽게 볼 수 있으며, 음성비서에서 자녀를 위해 부모의 목소리를 활용하는 사례도 이미 등장했다. 국내에서도 지난 2019년 KT가 개인화 음성합성(P-TTS, Personalized Text-to-Speech) 기술을 이용해 부모의 목소리로 동화책을 읽어주는 서비스를 선보인 바 있다.

이어 최근 일본 완구업체 타카라 토미(Takara Tomy)가 인공지능 기술을 이용해 부모의 목소리를 합성해 자녀들에게 동화를 읽어주는 어린이용 스마트 스피커 ‘코에모(Coemo)’를 런칭하기도 했다.

 

목소리에 대한 데이터-권리를 둘러싼 논쟁 이어져

그러나 이번에 아마존이 발표한 신기술은 몇 가치 측면에서 상당한 논란을 발생시키고 있어 상용화가 쉽지 않을 수 있다.

앞서 많은 전문가와 매체들은 아마존의 기술이 윤리적 문제와 사망자의 개인정보 권한에 대한 문제점을 지적했다. 사망한 사람의 목소리를 재현했다는 것 자체가 윤리적인 문제가 되고 있으며, 사망자의 목소리에 대한 데이터와 권리를 아마존과 같은 기업이 보유할 수 있는가 하는 문제가 제기되는 것이다.

이뿐만 아니라 사이버 범죄에 악용될 가능성이 있다는 점도 문제로 떠올랐다. 해커 등이 고인 등 다른 사람의 목소리를 똑같이 복제해 사기나 계정 도용 등의 문제를 일으킬 소지가 크기 때문이다.

 

사이버 범죄에 악용될 가능성이 있다는 점도 문제로 떠올랐다.
음성합성 기술은 윤리 및 개인정보보호 문제 외에도 사이버 범죄에 악용될 가능성도 있다. (출처: 픽사베이)

 

물론, 아마존이 이런 지적을 사전에 인지하지 못했을 가능성은 거의 없다. 상용화 일정 등 기술의 구체적인 활용 방안에 대해 밝히지 않은 것도 이런 부정적인 시각을 알고 있었던 것이 반영된 것으로 보인다.

그러나, 아마존이 해당 기술 자체를 공개했다는 점은 먼저 음성합성 기술이 이제 기술적으로 상당한 수준에 이르렀음을 알리는 것과 동시에, 상업적인 가치가 상당할 수 있음을 시사하는 것이라 할 수 있다.

다만, 상용화 이전에 이와 관련된 사회적인 토론을 끌어내 가능한 활용 범위와 지적되는 여러 문제에 대한 대비 방안 등을 충분히 마련하려는 것일 수 있다. 아마존이 아니어도 이미 여러 대기업과 스타트업들에 의해 관련 기술이 개발되고 있기에 먼저 문제를 노출하고 사회적 합의를 해 투명한 정책하에 적절한 활용방안을 추진하려는 것으로 볼 수 있는 것이다.



당신만 안 본 뉴스
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.