如果我們當中的某些人因騙局而停止接電話,那是可以理解的,因為使越來越難以弄清楚線路的另一端是否有一個真實的人。
DeepFake檢測正在蓬勃發展,但AI-A-Assiscrist欺詐也是如此,並且正在努力尋找一種密封的抗深層捕撈解決方案。防禦性AI和可以提供幫助 - 儘管有些人認為是時候讓機器人聽起來更像是機器人。
“管理電話已經變得越來越具有挑戰性”:Hiya
位於西雅圖的語音安全服務提供商Hiya已經發布了Hiya AI手機,AI呼叫助手移動應用程序。一個版本顯示,應用程序屏幕電話,保護用戶免受騙局的侵害,並在通話過程中記錄筆記。
該公司表示,其數據顯示,美國人平均每月花費40分鐘,篩選13個不需要的垃圾郵件電話。它還發現,在2024年,三分之一的美國人至少收到了一個,有34%的目標損失平均損失7,200美元。
Hiya AI手機實際上像數字秘書一樣工作:它接聽未知的電話,要求呼叫者陳述其姓名和目的,並評估是否將其連接到您。它的智能呼叫篩選可以檢測到,不斷分析呼叫音頻,並在確定潛在騙局時發送警報。它會轉錄電話並記筆記。
Hiya首席執行官兼創始人Alex Algard說:“ Hiya AI手機代表了人們如何與手機互動的開創性發展。” “多年來,手機應用程序一直停滯不前,自從推出智能手機以來,幾乎沒有創新。 Hiya AI手機的推出通過引入第一個呼叫助手專用構建來導航當今具有挑戰性的呼叫景觀 - 由,垃圾郵件,深層騙局和其他中斷。”
去年,Hiya收購了一家專門從事的公司Loccus.ai。此次收購使重新品牌能夠重塑為HIYA AI語音檢測,並將DeepFake語音軟件集成到其AI應用程序中。
Hiya AI手機免費為Android和iPhone用戶下載。
從LG Uplus的eviCe DeepFake檢測到已集成到AI代理
LG Uplus和是召集Audio Deepfake威脅的公司之一。梅爾商業報紙報告LG Uplus最近宣布開發“語音反欺騙(假語音歧視)”工具,該工具會產生獨特的語音紋理。它將在今年上半年內集成到名為Exio的AI呼叫代理中。
LG對安全性的貢獻是該工具在“不單獨將語音信息傳輸到服務器的設備環境中運行”。它聲稱是“世界上第一個通過設備技術開發和商業化語音反企業技術的人”。
檢測功能意味著即使特定人說話超越,或速度,口音和音調不同,系統仍然有效。
LG Uplus的語音技術負責人帕克·韋(Park Ji-woong)說:“我們的人工智能即使在實時電話中也可以檢測到偽造的聲音。”
pindrop脈衝livess檢測解決了綜合語音問題
同時,Pindrop說了標記的鑰匙涉及一種分層方法,其中包括可耐度檢測。
一個博客文章該公司說,原始類型的合成語音技術(例如生成對抗網絡(GAN)和自動編碼器)可以很容易地被認為是不自然的,但是基於神經網絡的更高級模型帶來了更大的挑戰。
Wavenet,Google開發的一種技術深態,“使用神經網絡通過預測波形來產生高質量的語音。”文本到語音(TTS)綜合“將書面文本轉換為語音,同時調整速度,音高和音調等元素以使聲音聽起來很自然。”
反對深冰冒險的未來範圍意味著“採用先進的並培養一種自適應和分層的安全方法,該方法隨著威脅格局而發展。”
音頻深擊檢測工具,多因素(MFA)對於基於語音的系統,例如行為分析或基於設備的身份驗證,以及基於雲的AI系統,可以大規模實時數據分析,都可以幫助避免防禦。
想解決深果嗎?將AI變成偏執的Android
,說一些,都很好,但是如果我們要求AI聽起來像機器人,該怎麼辦禁止行星?
IEEE Spectrum有一個文章在“確定誰或什麼是在與我們交談的簡單方法”。作品認為“ AIS和機器人應該聽起來有機器人。”
“你不能只標記,”作者巴拉特·拉格哈萬(Barath Raghavan)和布魯斯·施尼(Bruce Schneier)說。 “它將以多種不同的形式出現。因此,我們需要一種方法來識別AI的作用,無論其方式如何。它需要長時間或簡短的音頻片段,甚至只有一秒鐘。它需要在任何語言和任何文化背景下工作。同時,我們不應該限制基礎系統的複雜性或語言複雜性。”
他們的答案?一個環調製器- 一種採用兩個音頻信號並將它們處理成一個輸出信號以產生振盪聲音的設備。在數字音頻工作站之前,聲音設計師如何使聲音聽起來很機器人。想想達勒克斯來自Classic Doctor Who(使用30 Hz環調製)。
他們說,必須將環調製器應用於合成聲音,他們說:“計算上很簡單,可以實時應用,不會影響聲音的清晰度,並且 - 最重要的是,由於普遍“機器人的聲音”,因為它描繪機器人的歷史用途。”
“提供語音綜合或任何形式都應添加一個標準頻率(例如30-80 Hz)和最小振幅(例如20%)的環形調節器。就是這樣。人們會很快趕上。”
文章主題
||||||||||