根據卡內基·梅倫大學(Carnegie Mellon Mellon University)的一份觀點,由計算機科學家的努力了解人工智能對人類和社會的影響,並建立道德AI的努力正在大大增加,並破壞了廣泛持有的遺產印象,即AI專家更關心算法和機器人,而不是根據Carnegie Mellon Mellon University由Carnegie Mellon University撰寫的意見。彭博。
Procaccia指出了兩個新的跨學科會議的發起公平,問責制和透明度會議以及關於AI,道德和社會(AIES)的會議,為此提交了400多個研究論文,以供同行評審。他指出,這些論文通常僅在幾個月或數年的工作之後才生產。根據社論,他們為設計道德AI系統的實用建議涉及解決兩個相關的挑戰。數學系統中“公平”的含義,以及如何應用此抽象概念來修改算法或其結果。
在2018年國際機器學習會議上,在2,473份意見書中選擇了五篇論文中的兩篇論文中的兩篇論文。其中之一是道德和政治哲學家約翰·羅爾斯(John Rawls),他推廣了“正義為公平”的理論。
Procaccia寫道:“這代表了更大的趨勢。哲學長期以來一直在智力的調查中發揮了關鍵作用,並且該學科重新逐漸流行在AI研究人員中,努力解決道德問題。” “Philosophy and ethics have also become indispensable components of AI education. Computer scientists are now teaching courses on ethics and AI at leading academic research centers like Carnegie Mellon, Cornell and Stanford that complement those offered by philosophers. The curriculum of Carnegie Mellon's new bachelor's degree in AI, which I helped design, includes a mandatory course in ethics.”
Procaccia指出,這些事態發展“為道德AI奠定了基礎”,但如果公司技術巨頭想保留現狀,那麼只有大規模的法規才能阻止他們脫離這種努力。他說,這不太可能,因為宣傳問題,認真的員工以及Microsoft,IBM的學者和著名的道德AI創新者的領導,Google將繼續鼓勵道德AI研究。儘管他警告說,壓制性政權可以利用AI來提高其權威,並且可以開發出不具有人類作為限制因素的最大利益的超級智能係統,但他說,AI社區渴望應對這些挑戰。