아마존이 죽은사람 목소리도 살린다고! 

조회수 2022. 6. 30. 07:30
번역beta Translated by kaka i
번역중 Now in translation
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 다양한 분야의 재밌고 유익한 콘텐츠를 카카오 플랫폼 곳곳에서 발견하고, 공감하고, 공유해보세요.



AI의 욕심은 어디까지일까. 아마존의 AI 비서 알렉사가 '목소리 복제 구현' 기술을 내놨다. 23일 라스베이거스에서 열린 리마스 콘퍼런스에서 선보인 고인 목소리 재현 기능이다.


✔️ 무슨 일인데? 아마존이 개발한 AI 기술은 '1분 미만의 음성 샘플만 있으면 해당 목소리를 그대로 복제'하는 것이다. 즉, 죽은 사람의 목소리도 살릴 수 있는 것인데, '알렉사, 할머니 목소리로 오즈의 마법사 읽어줘'라고 하면 정말 생전의 우리 할머니 목소리로 동화책을 읽어준다. AI가 상실의 고통을 없애줄 순 없지만, 그들에 대한 기억만은 지속할 수 있게 한다는 목적이다.


✔️ 벌써부터 문제가! 아마존은 시연 영상을 공개했지만 언제 출시할지는 밝히지 않았다. 그만큼 굉장히 조심스러운 이슈일 수 있다는 것. 우선 윤리적인 문제다. 죽은 사람 목소리를 (이미 죽었으니 불가능한) 허락없이 되살려 생전 하지도 않은 말을 한다는 것부터가 문제라는 것이다. 나아가 사기 등의 범죄에 악용될 수 있는데 '엄마 나 납치됐어, 살려줘'라는 범죄에 음성 복제 샘플이 사용된다면... 생각조차 끔찍하다.


✔️ 딥페이크 문제와 동일? 논란의 한가운데 있던 딥페이크가 '드디어' 터진 사건이 있다. 우크라이나 대통령 젤린스키가 항복을 선언하는 영상이 떠다녔는데 알고보니 딥페이크였던 것. AI로 정교하게 조작된 영상으로 우크라이나 내 혼란을 가중시키기 위해 친러시아 해커가 제작해 올린 것이라는 추측이다. *딥페이크 영상은 그나마 시각적으로 어색한 부분을 찾아낼 수 있겠지만, 음성이라면 그냥 속아넘어가기 십상이다.


* 딥페이크: 딥러닝+페이크의 합성어로 AI 기술로 제작된 가짜 동영상이다. 2017년 커뮤니티 레딧에 올라온 합성 포르노 영상을 딥페이크 시초로 본다. 'Deepfakes'라는 아이디를 쓴 자가 합성 영상을 만들었기 때문.


✔️ 아마존뿐만이 아니다! MS는 '죽은 사람의 개인정보를 학습해 생전 말투를 재현하는 AI 챗봇 특허'를 작년 1월 획득했다. MS는 해당 기술을 실제로 만들 계획이 없다고 못박았지만 특허까지 받았다는 것은 언젠가 출시하겠다는 의미겠다. 그러나 MS는 21일 클라우드 AI 서비스의 윤리 AI 가이드라인강화했다. 신규 사용자는 MS 애저의 얼굴인식 기능 일부에 접근할 수 없고 올해 안에 기존 사용자도 삭제되는 기능을 쓸 수 없다는 내용이다.


매주 월요일마다 글로벌 IT 뉴스레터 받아보기



이 콘텐츠에 대해 어떻게 생각하시나요?