C-3PO可能比我們意識到的更接近現實,但這是一件好事嗎?
經過多年的科幻電影,通過Jarvis,C-3PO和T-1000等角色展示了人工智能,AI的概念終於敲門了。
但是,對於我們在電影中遇到的每個可愛的人為聰明的機器人,還有一個更可惡的機器人,通常打算佔領世界,甚至破壞它。這個想法通過技術和科學領域的人們的思想引起了焦慮,更不用說公眾了。
但是,可以人工智慧有沒有在現實世界中失控?它當然有許多頂尖的技術和科學頭腦擔心。埃隆·馬斯克(Elon Musk)也許是技術界最著名的是,他支持許多旨在尋找避免AI威脅的組織。當然,重要的是要提到馬斯克不是反對人工智能的想法,而是出於謹慎和謹慎地開發它的想法。對於斯蒂芬·霍金(Stephen Hawking)來說,這個想法甚至令人擔憂。
那麼,這些人擔心什麼?好吧,他們不擔心Siri決定要接管世界。相反,問題是AI有一天可以是如此先進,以至於它決定自己想要自己的力量。不僅如此,而且另一種恐懼是人為智能的系統誤解了他們以某種方式造成的損害比好處更大的任務,或者最終會傷害很多人。從中考慮Ultron復仇者聯盟2承擔他的使命以錯誤的方式帶來和平。
但是,當討論AI時,通常以一種非常模糊和通用的方式談論它。雖然AI有一天可能會對人們造成損害,但這當然也可能會對特定行業或特定情況造成損害。
“想像一下,您的任務是不惜一切代價減少舊金山的交通擁堵,即您沒有考慮其他任何限制。您將如何做?技術時報。 “但是,如果所有橋樑從凌晨5點關閉,阻止所有這些汽車進入城市?這樣的措施顯然違反了常識,並顛覆了改善交通的目的,這是為了幫助人們圍繞的目的 - 但這與'減少交通擁堵的目標是一致的。''
這生命研究所的未來整個組織都是致力於探索如何以不會威脅人類的方式最好地發展人工智能的。
指導交通不當不僅會導致人們遲到,還可能導致事故。儘管如此,與AI相關的恐懼相比,與人工智能導致交通相比,與武器這樣的恐懼相比,這些問題蒼白。實際上,埃隆·馬斯克(Elon Musk)和斯蒂芬·霍金(Stephen Hawking)都是眾多專家之一,呼籲禁止任何人工智能的武器或武器控制系統,這些武器或武器控制系統將能夠在沒有任何方向的情況下攻擊目標。
專家說,儘管AI控制的武器可能能夠在戰區中為士兵和平民提供幫助,但問題是他們的發展可能導致另一場全球武器競賽,這不僅可能是極端災難性的,而且可能非常昂貴。
“很有可能在下個世紀的人類歷史進程會受到巨大影響如何AI是開發的,“持續的Aguirre。”將其留給偶然是非常不明智的,這實際上是我們要做的,如果我們不發展對相關問題的理解,這些問題將使我們能夠發展出強大的AI,並且以一種有益的方式(一種有益的方式)。 ”
儘管對人工智能的發展的關注似乎或多或少在該領域的專家中或多或少是普遍的,但有些人比其他專家的關注程度要小一些。有人認為,威脅人們的人工智能的程度將停止從事工作或被人們對抗他人的工作,而不是奪取自己的生命並履行任務來獲得權力的機器。
佐治亞大學人工智能學院副主任弗雷德里克·邁耶(Frederick Maier)在一封電子郵件中與我說:“我的不可控制的超級人工智會聽起來對我來說是不合理的。”技術時報。“ AI構成的真正威脅是,人類將以有害或不公正的方式(戰爭,壓迫或邊緣化)使用它。”
暴力並不是人工智能構成的唯一威脅。 AI可能還會威脅到一個人。例如,AI可以通過多種方式侵犯一個人的隱私。 Facebook的面部識別系統只是一個例子。該系統能夠在照片中識別一個人,並告知Facebook的標籤建議。但是,該系統也隨之學習,甚至現在能夠識別一個人通過其他特徵,例如它們的立場或穿著的衣服。如果將這種技術實施到安全系統之類的東西中,則可能是一個隱私雷區。實際上,幾乎毫不奇怪,NSA似乎已經在發展某種認可系統。
假設人工智能是對人類的某種威脅,重要的是要考慮到要在發生的發展速度面臨任何真正的威脅之前要多長時間。根據Aguirre的說法,專家認為,我們距離任何迫在眉睫的威脅的超級智能AI幾十年。但是,這並不意味著在此之前應忽略它。這個想法是,它是需要監視和處理的東西,因為它是開發的,而不是為時已晚。
Aguirre說:“這些是全球氣候變化將在我們孩子的一生中展開的時間尺度,因此將大量資源投入其中是有意義的。” “此外,我們不知道非常有能力的AI幾十年之遙 - 它可能會更快地展開的可能性很小,因此我們對此完全沒有準備。”
由於大多數專家都同意與人工智能的發展相關的風險水平,因此要提出的真正問題是收益是否超過了風險。 AI有可能在短期內對人類產生重大幫助,但從長遠來看,甚至更多。
“我們已經可以通過計算機和移動設備來訪問許多AI。圖像分類,問答,自然語言處理 - 所有這些都已經完成,並且在許多方面都非常令人印象深刻。今天的數字助手與明天的數字助手之間的差異是,後者不會令人沮喪,” Maier繼續說道。 ” “此外,AIS將用於當今需要人類的工作。自動駕駛是一個現實的例子,但我想機器在不斷擴大的任務中會變得越來越好。 ”
在人工智能的威脅方面,專家可能不同意緊迫程度,但是,大多數人確實同意AI是值得追求的。我們只需要謹慎地追求它即可。人工智能的潛力很大,但其破壞性的潛力也很大。只有時間才能說明智能人工智能的實際情況,但是與此同時,重要的是我們採取正確的預防措施很重要。