在人工智能時代,新學年帶來了新的挑戰,學生越來越多地轉向 ChatGPT 和其他人工智能工具來完成作業、撰寫論文和電子郵件以及執行其他以前僅限於人類代理的任務。與此同時,為這些產品提供支持的大型語言模型 (LLM) 和其他算法引擎依賴於大量的訓練數據,引發了關於面部識別和其他生物識別系統如何影響兒童隱私的問題。巴西正在發生一個值得注意的案例,人權活動人士希望政府禁止公司從網絡上抓取生物識別數據。
聯合國兒童基金會:人工智能給孩子們帶來了一些好的結果,也帶來了許多壞的結果
在最近的解釋中文章,聯合國兒童基金會詢問如何在目前被人工智能及其承諾所困擾的世界中賦予兒童權力並保護兒童。它指出研究表明已成為有史以來增長最快的數字服務,在短短兩個月內就擁有了 1 億用戶。 (相比之下,TikTok 用了 9 個月才達到同樣的數字。)兒童使用該工具的次數多於成人,12 歲至 18 歲兒童中,有 58% 的人表示使用過該工具,而 18 歲以上兒童中,這一比例為 30%。
文章稱:“面對人工智能緊急監管的壓力越來越大,以及世界各地的學校禁止聊天機器人,各國政府正在詢問如何在政策和實踐中應對這一動態格局。” “鑑於步伐,迫切需要進行研究、分析和遠見,以開始了解生成人工智能對兒童的影響。 ”
聯合國兒童基金會採取平衡的觀點,注意到了如果在某些應用中負責任且合乎道德地使用,可能會讓孩子受益。其中包括使用生成式人工智能來洞察醫療數據以支持醫療保健的進步,以及使用算法來優化整個教育領域的兒童學習系統。然而,許多創意工作者和藝術家將生氣有人建議人工智能可能有助於提供“以新方式支持兒童玩耍和創造力的工具,例如生成故事、藝術品、音樂或軟件(無需或較低的編碼技能)”。
人工智能風險包括對民主的威脅、剝削兒童、可能的觸電死亡
雖然該技術帶來了諸多好處,但聯合國兒童基金會還指出,“存在明顯的風險,即該技術可能被不良行為者使用,或無意中造成傷害或全社會的破壞,而以兒童的福祉和未來前景為代價。”本節是一個更長的潛在危害目錄。
“有說服力的虛假信息以及有害和非法內容”可能會扭曲民主進程,增加“在線影響者的運作”,導致更多、兒童性虐待內容、性勒索和勒索;並且通常會削弱信任,直到沒有任何東西被認為是可靠的並且真理的哲學概念消失。與聊天機器人互動可以重新培養孩子區分生物和無生命物體的能力。這篇文章稱:“人工智能係統已經為大部分數字體驗提供了動力,主要是為了商業或政府利益服務。” “用於影響用戶行為的微目標可能會限制和/或嚴重影響孩子的世界觀、在線體驗和知識水平。”工作的未來將受到質疑。會增加。
聯合國兒童基金會表示:“亞馬遜 Alexa 建議孩子將一枚硬幣插入電源插座。”
在巴西,數字監管機構人權觀察呼籲停止抓取和使用兒童照片來訓練人工智能算法。該組織在 2024 年 3 月向聯合國兒童權利委員會提交的更新報告中表示,在未經用戶同意的情況下,為了訓練人工智能係統而從網絡上抓取的數據是“嚴重侵犯人權”,可能會導致和騷擾。它呼籲巴西政府“通過對兒童數據隱私採取額外的、全面的保護措施來加強數據保護法,並“通過和執行法律來保護兒童的在線權利,包括他們的數據隱私。 ”
合成數據日益成為訓練算法感興趣的領域
如果我們要讓孩子們遠離潛在風險,仍然存在一個問題:目前正在使用反映兒童存在的數據。
一篇新論文,題為“兒童人臉識別大規模:合成數據生成和性能基準”,解決了“通過使用生成對抗網絡(GAN)和麵部年齡進展(FAP)模型來合成真實數據集,對大規模兒童面部數據庫的需求。 ”換句話說,作者建議通過對成人受試者進行採樣並使用 InterFaceGAN 來消除他們的年齡,從而創建一個兒童合成面部數據庫——這是一種“受控、無偏見地生成兒童面部圖像”的新穎管道。
他們生成的“HDA-SynChildFaces”數據庫“由 1,652 個受試者和 188,328 張圖像組成,每個受試者都存在於不同的年齡,並且具有許多不同的受試者內差異。”數據顯示,當與不同年齡的成人和兒童的結果進行評估和比較時,“兒童在所有測試系統上的表現始終比成人差,而且表現的下降與年齡成正比。”此外,該研究“發現了一些,亞裔和黑人受試者以及女性的表現比白人、拉丁裔西班牙裔受試者和男性差。 ”
隨著利率上升,假臉數據庫可能會使用更多資金
合成數據引起了人工智能、生物識別和數字身份領域研究人員的興趣。德國達姆施塔特大學 Da/sec 生物識別和安全研究小組的一篇論文同樣探討瞭如何實現大規模使用合成面部生物識別技術。還有新的CB Insights 表示,“我們已經沒有足夠的高質量數據來訓練法學碩士了。這種稀缺性正在推動對合成數據(人工生成的數據集,如文本和圖像)的需求,以補充模型訓練。”一份總結調查結果的通訊稱,合成數據研究的資金並不均衡,但國際需求正在創造機會,特別是在數據敏感行業。
文章主題
||||||









