教授弗雷澤桑普森,前英國生物識別和監視器專員
你不必說什麼。犯罪娛樂的無窮吸引力意味著英語世界非常熟悉在被捕時不發表任何言論的權利。在英格蘭和威爾士,這個詞來自 100 多年前就開始使用的“Caution”,但它的美國近親米蘭達(Miranda)(來自亞利桑那州訴米蘭達案1966 年)可能更為人所知。從「你有權保持沉默」開始,米蘭達成為美國執法部門的一個動詞(如「你米蘭達化了我的客戶官員嗎?」)。未能正確提醒嫌疑人他們的權利可能會導致證據被排除或案件被駁回。
人工智慧 (AI) 產生了許多關於它將如何融入我們的世界的法律問題 - 並且反之亦然– 其中之一是機器人是否擁有權利。正如美國最高法院在近 25 年前指出的那樣,保持沉默的權利已經成為我們文化的一部分,並為人工智慧在執法中基於權利的論點提供了見解。
律師們知道這是反對自證其罪的權利,而要發生自證其罪,你需要滿足兩件事:犯罪(這個詞的來源)和定罪的風險(警告的來源)。對機器人來說,目前兩者都沒有。它不能作為證人作證──針對自己或任何其他人──也不能成為刑事定罪的對象。 「奪取第五」(在策略上保持沉默)賦予公民幾項針對國家的重要公民權利,英國也存在類似的規定。如果沒有權利,機器人就無法佔領第五號,因為它說話時不會有任何危險。看起來就是這樣:問並回答。沒有權利。沒有風險。沒有進一步的問題。
但應該有嗎?考慮三種情況。首先,法院希望機器人在起訴人類時持有資料。 如果人類的權利(公平審判等)處於危險之中,那麼可以說人工智慧不應該保持沉默,事實上人工智慧有一個責任貢獻任何相關數據。但如果談論機器的權利是不合適的,那麼它們也不應該承擔義務。權利和義務是相互的,而且這些標籤並不真正適合人工智慧世界。另一種看待這種情況的方式是,公民權利人類的試驗擴展到人工智慧持有的數據,在這種情況下,不應允許其保持沉默。這符合道德和可解釋的人工智慧規範,而無需承擔技術中的「職責」。
然後考慮第二種情況。電腦犯了毀滅性的錯誤,並且獨自擁有了解所發生事件所需的所有資訊。計算機出現災難性錯誤的例子很多。隨著人工智慧決策的激增,可以合理地預期更多。因此,公共利益可能要求將「坦誠設計」納入用於治安等關鍵職能的所有人工智慧中,但這與設計、銷售和營運人工智慧的人的責任如何相關?讓人工智慧在出現錯誤後受到詢問時保持沉默,進入保護模式以免受任何指責,這可能非常符合人類設計師的利益。在創建機器人時,程式設計師可能會反映出 Seamus Healey 的告誡:“無論你說什麼,都不要說”,儘管故意脫口而出虛假資訊留下虛假證據痕跡可能是更有效的編碼策略。畢竟,如果機器人不能提供證據,那麼它就不屬於偽證罪,那麼誰會說謊呢?
透明度很重要,但不可避免地會有公共利益依賴人工智慧不提供資訊的情況:國家安全是顯而易見的。同時設計人工智慧以實現透明度和公共利益豁免將具有挑戰性。
可能需要承認錯誤來為無辜者開脫,但 Netflix 標記者會在這裡發現另一部警匪劇:一個倒霉的傀儡被說服為所有事情承擔責任。 Patsy-AI 是否可以被編程為「坦白」只是為了轉移注意力(在循環中或以其他方式)?
最後的場景,一個悔罪的犯罪頭目向剛剛安裝在盧塞恩彼得教堂的「人工智慧耶穌」坦白了一切(現在有一個情節的想法)。調查人員如何獲得這些寶貴的資訊?這種溝通的唯一神聖性是契約性的,而不是精神性的,波士頓學院錄音帶的長期傳奇展示了它的結局:美國/英國執法部門在追查嚴重犯罪的認罪時,可能會得到法院的祝福— —如果不是教會的祝福的話例如恐怖主義,無論資料共享的細節如何。我們應該期待在機器人方面採取同樣的方法。
無論它們是否擁有任何權利,經過適當編程的機器人都會了解法律並且不需要律師。他們會知道所說的任何話都可能被用來對付別人。對於執法和沈默權來說,一個更好的人工智慧問題可能是,警察是否應該使用人工智慧助理來確保嫌疑人在正確的時間、以任何必要的語言、可審計和準確地得到適當的警告。 「嘿米蘭達,讀一下他們的權利」。
關於作者
桑普森 (Fraser Sampson),前英國生物辨識與監視攝影機專員,現任英國倫敦大學治理與國家安全教授中心(恐怖主義、復原力、情報和組織犯罪研究卓越中心)和非執行董事。
文章主題
||||||