Notice
Recent Posts
Recent Comments
Link
«   2024/05   »
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31
Archives
Today
Total
관리 메뉴

Alchemist

"인공지능(AI) 음성 복제 기술 오용 우려" 본문

Article

"인공지능(AI) 음성 복제 기술 오용 우려"

Alchemist__ 2019. 5. 30. 00:06

 

http://www.irobotnews.com/news/articleView.html?idxno=17309

 

"인공지능(AI) 음성 복제 기술 오용 우려" - 로봇신문사

중국 IT업체인 바이두는 최근 특정인의 목소리를 담은 3.7초 길이의 오디오 파일만 있으면 바로 목소리를 복제할 수 있는 인공지능 기술을 개발했...

www.irobotnews.com

 

중국 IT업체인 바이두는 최근 특정인의 목소리를 담은 3.7초 길이의 오디오 파일만 있으면 바로 목소리를 복제할 수 있는 인공지능 기술 '딥 보이스(Deep Voice)'를 개발했다고 밝혔다. 

‘딥 보이스(Deep Voice)’를 활용하면 사람의 목소리를 쉽게 복제하는 게 가능하다. 1년전만 해도 특정인의 목소리를 복제하는데 30분 정도의 오디오 파일이 필요했지만 이제는 3.7초면 충분하다고 한다.

---------------------------------------------------------------------

기사를 읽고 현재 우리가 음성 인식으로 보안이나 잠금을 활용하는 사례가 있긴 한가? 라는 생각을 했다.

하지만 음성 복제 기술이 발전하면서 유명 정치인이나 유명 인사의 목소리를 모방한 가짜 인터뷰강연등이 확산될 수 있다고 한다.

또한 인간의 뇌는 가짜 이미지보다 가짜 음성에 더욱 취약하다고 한다.

즉 합성된 이미지보다 '딥 보이스'로 복제된 음성이 진짜인지 아닌지 구별하기가 힘들다는 것이다.

 

음성 복제 서비스는 캐나다의 AI 스타트업 '라이어버드'도 이미 작년에 개발했다고 알고 있다.

'라이어버드'의 좋은 선례로는 목소리를 잃은 사람의 목소리를 복원해주는 역할을 수행했고.

또한 목소리에 감정 요소까지 담을 수 있기에 가상의 인물이 예능 프로그램을 진행하고 사람들을 웃기는 등의 일도 머지 않았다고 전문가들은 예상한다.

하지만 라이어버드는  “큰 기술 혁신에는 큰 책임감이 따른다”며 인공지능 음성 복제 기술의 오용 가능성을 우려했다.

이 첨단 기술을 이용해 가짜의 사실을 '진실'로 만들려는 시도가 활발해질 것이라고 지적했다.

 

인공지능의 발달로 얻은 이점들이 많지만, 영화에서나 볼 것 같은 문제점들이 점점 현실에서 일어날까 우려된다.

우리의 뇌는 가짜 음성에 현혹되기 쉽다고 하는 점에서, 사람의 목소리를 똑같이 복제할 수 있다는 점에서

과연 이 문제를 어떻게 대처할 수 있을 것인지에 대한 방향성이 떠오르지 않는다..