레오 S.F.Lin, Duane Aslett, Geberew Tulu Mekonnen 및 Mladen Zecevic,

elderly cell phone
출처: Pexels의 ANTONI SHKRABA 제작

인공지능(AI)의 급속한 발전은 이익과 위험을 동시에 가져왔습니다.

한 가지 우려되는 추세는 음성 복제의 오용입니다.몇 초 만에 사기꾼은 음성을 복제하여 사람들이 친구나 가족이 긴급하게 돈이 필요하다고 생각하도록 속일 수 있습니다.

다음을 포함한 뉴스 매체CNN, 이러한 유형의 사기는 수백만 명의 사람들에게 영향을 미칠 가능성이 있음을 경고합니다.

기술로 인해 범죄자들이 개인 공간에 침입하기가 더 쉬워지기 때문에 기술 사용에 주의를 기울이는 것이 그 어느 때보다 중요합니다.

음성 복제란 무엇입니까?

AI의 등장으로 이미지, 텍스트, 음성 생성 및 기계 학습의 가능성이 높아졌습니다.

AI는 많은 이점을 제공하는 동시에 사기꾼에게 돈을 위해 개인을 착취할 수 있는 새로운 방법도 제공합니다.

"라는 말을 들어본 적이 있을 것입니다.딥페이크," AI를 사용하여 가짜 이미지, 비디오, 오디오까지 생성하는 경우가 많습니다.유명인아니면 정치인.

딥페이크 기술의 일종인 음성 복제는 사람의 목소리를 캡처하여 디지털 복제본을 만듭니다., 간단한 오디오 샘플의 악센트 및 호흡.

음성 패턴이 캡처되면 AI 음성 생성기가 텍스트 입력을 대상 사람의 음성과 유사한 매우 사실적인 음성으로 변환할 수 있습니다.

기술이 발전함에 따라 음성 복제는 단 몇 번의 조작만으로 가능해졌습니다.3초짜리 오디오 샘플.

"안녕하세요, 거기 누구 없나요?" 같은 간단한 문구를 사용하면서음성 복제 사기로 이어질 수 있으므로 대화가 길어지면 사기꾼이 더 많은 음성 세부 정보를 포착하는 데 도움이 됩니다.따라서 발신자의 신원이 확실해질 때까지 통화를 간략하게 유지하는 것이 가장 좋습니다.

음성 복제는 엔터테인먼트 및 산업 분야에서 귀중한 응용 분야를 가지고 있습니다.â아티스트의 원격 음성 작업 가능(심지어사후에) 언어 장애가 있는 사람들을 돕습니다.

그러나 이는 심각한 개인정보 보호 문제를 야기하며,, 안전장치의 필요성을 강조합니다.

범죄자들이 이를 어떻게 악용하고 있는지

사이버 범죄자는 음성 복제 기술을 이용하여 유명인, 권위자 또는 일반인을 사칭하여 사기 행위를 합니다.

그들은 긴박감을 조성하고 피해자의 신뢰를 얻고 기프트 카드, 전신 송금 또는 암호화폐를 통해 돈을 요구합니다.

과정시작하다YouTube 및 TikTok과 같은 소스에서 오디오 샘플을 수집합니다.

다음으로, 이 기술은 오디오를 분석하여 새로운 녹음을 생성합니다.

음성이 복제되면 사기성 통신에 사용될 수 있으며, 신뢰할 수 있는 것처럼 보이도록 발신자 ID를 스푸핑하는 경우가 많습니다.

많은 음성 복제 사기 사건이 헤드라인을 장식했습니다.

예를 들어, 범죄자들은 ​​다음의 목소리를 복제했습니다.회사 이사아랍에미리트에서 5,100만 달러 규모의 강도 사건을 조직했습니다.에이

뭄바이의 사업가두바이 주재 인도 대사관에서 걸려온 가짜 전화와 관련된 음성 복제 사기 피해를 입었습니다.최근 호주에서는 사기꾼들이 다음의 음성 복제를 사용했습니다.

퀸즈랜드 총리 스티븐 마일스사람들을 속여 비트코인에 투자하도록 시도합니다.청소년과 어린이도 대상이 됩니다.

에서납치 사기미국에서는 십대의 목소리가 복제되었고 그녀의 부모가 요구를 따르도록 조작되었습니다.

AI가 누군가의 목소리를 복제하는 데는 몇 초밖에 걸리지 않습니다.

얼마나 널리 퍼져 있나요?

최근의연구영국 성인의 28%가 작년에 음성 복제 사기를 당했으며 46%는 이러한 유형의 사기가 존재한다는 사실을 알지 못했습니다.스캠이는 상당한 지식 격차를 강조하여 수백만 명이 사기 위험에 처하게 됩니다.

2022년에는 거의 240,000명의 호주인이 음성 복제 사기의 피해자가 되었다고 보고했으며 이로 인해

$A568백만.사람과 조직이 이를 방지할 수 있는 방법

음성 복제로 인한 위험에는 다음이 필요합니다.

다학제적 대응.사람과 조직은 음성 복제 기술의 오용을 방지하기 위해 여러 가지 조치를 구현할 수 있습니다.

첫 번째,

대중 인식 캠페인 및 교육사람과 조직을 보호하고 이러한 유형의 사기를 완화하는 데 도움이 될 수 있습니다.공공-민간 협력을 통해 음성 복제에 대한 명확한 정보와 동의 옵션을 제공할 수 있습니다.

둘째, 사람과 조직은 활용 방법을 모색해야 합니다.

생체 인식을 통한 생체 인식 보안, 가짜가 아닌 실제 음성을 인식하고 검증할 수 있는 신기술입니다.그리고 음성 인식을 사용하는 조직은 다단계 인증 채택을 고려해야 합니다.

셋째, 음성복제에 대한 수사역량을 강화하는 것도 중요한 방안이다..

마지막으로,정확하고 업데이트된 규정국가에서는 관련 위험을 관리하는 데 필요합니다.

호주 법 집행 기관은 AI의 잠재적 이점을 인식하고 있습니다.

그러나 이 기술의 "어두운 측면"에 대한 우려로 인해 "범죄적 사용"에 대한 연구가 필요해졌습니다.피해자 타겟팅을 위한 인공지능."

또한 법집행기관이 이 문제를 해결하기 위해 사용할 수 있는 개입 전략에 대한 요구도 있습니다.

그러한 노력은 전반적인 것과 연결되어야 한다.사이버 범죄 퇴치를 위한 국가 계획, 사전 예방적, 대응적, 회복적 전략에 중점을 둡니다.

해당 국가 계획은 서비스 제공자에 대한 관리 의무를 규정하고 있으며 이는 호주 정부의 새로운 법안에 반영되어 있습니다.법률 제정공공과 중소기업을 보호하기 위해.

이 법안은 사기를 예방, 탐지, 보고 및 차단하기 위한 새로운 의무를 규정하는 것을 목표로 합니다.

이는 통신업체, 은행, 디지털 플랫폼 제공업체 등 규제 대상 조직에 적용됩니다.목표는 예방, 탐지, 보고, 방해를 통해 고객을 보호하는 것입니다.속임수를 포함한 사이버 사기.

위험 감소

사이버 범죄로 인해 호주 경제에 막대한 손실이 발생하는 것으로 추정됩니다.420억 달러(호주 달러), 대중의 인식과 강력한 보호 장치가 필수적입니다.

호주와 같은 국가에서는 증가하는 위험을 인식하고 있습니다.음성 복제 및 기타 사기에 대한 조치의 효율성은 적응성, 비용, 타당성 및 규정 준수에 따라 달라집니다.

정부, 시민, 법 집행 기관 등 모든 이해관계자는 경계를 늦추지 않고 대중의 인식을 높여 피해 위험을 줄여야 합니다.

이 기사는 다음에서 재출판되었습니다.대화크리에이티브 커먼즈 라이센스에 따라.읽기원본 기사.The Conversation

소환:음성 복제의 위험성과 이에 대처하는 방법(2024년 10월 10일)2024년 10월 10일에 확인함https://techxplore.com/news/2024-10-dangers-voice-cloning-combat.html에서

이 문서는 저작권의 보호를 받습니다.사적인 학습이나 조사를 목적으로 하는 공정한 거래를 제외하고는 어떠한 행위도 허용되지 않습니다.서면 허가 없이 일부를 복제할 수 있습니다.콘텐츠는 정보 제공 목적으로만 제공됩니다.