ตัวอักษร บริษัท แม่ของ Google ได้ร่างนโยบายใหม่(AI) ทำตามสัญญาว่าจะไม่ใช้เทคโนโลยีในรูปแบบ“ ที่น่าจะก่อให้เกิดอันตรายโดยรวม” ซึ่งรวมถึงการใช้อาวุธ AI รวมถึงการปรับใช้เพื่อวัตถุประสงค์ในการเฝ้าระวัง
คำมั่นสัญญาที่จะหลีกเลี่ยงแอพพลิเคชั่นที่ชั่วร้ายดังกล่าวเกิดขึ้นในปี 2561 เมื่อหลายพันคนพนักงานประท้วงต่อต้านการตัดสินใจของ บริษัท ที่จะอนุญาตให้เพนตากอนใช้อัลกอริทึมในการวิเคราะห์ภาพเสียงพึมพำทางทหาร ในการตอบสนองตัวอักษรปฏิเสธที่จะต่ออายุสัญญากับกองทัพสหรัฐและประกาศสายสีแดงสี่เส้นทันทีว่ามันสาบานว่าจะไม่ข้ามในการใช้ AI
เผยแพร่ชุดของหลักการGoogle รวมส่วนที่มีชื่อว่า“ แอปพลิเคชัน AI ที่เราจะไม่ติดตาม” ซึ่งระบุไว้ว่า“ เทคโนโลยีที่ก่อให้เกิดหรือมีแนวโน้มที่จะก่อให้เกิดอันตรายโดยรวม” เช่นเดียวกับ“ อาวุธหรือเทคโนโลยีอื่น ๆ ที่มีวัตถุประสงค์หลักหรือการดำเนินการ บาดเจ็บต่อผู้คน” การเฝ้าระวังและ“ เทคโนโลยีที่มีจุดประสงค์ฝ่าฝืนหลักการที่ได้รับการยอมรับอย่างกว้างขวางของกฎหมายระหว่างประเทศและสิทธิมนุษยชน” ก็ถูกกล่าวถึงในบัญชีดำ AI
อย่างไรก็ตาม,อัปเดตหลักการเมื่อต้นสัปดาห์ที่ผ่านมา Google ได้ยกเลิกส่วนทั้งหมดนี้จากแนวทางซึ่งหมายความว่าไม่มีการรับรองใด ๆ อีกต่อไปว่า บริษัท จะไม่ใช้ AI เพื่อจุดประสงค์ในการก่อให้เกิดอันตราย แต่ยักษ์ใหญ่ด้านเทคโนโลยีในขณะนี้มีความมุ่งมั่นที่คลุมเครือในการ“ พัฒนาและปรับใช้รูปแบบและแอพพลิเคชั่นซึ่งผลประโยชน์โดยรวมที่น่าจะมีมากกว่าความเสี่ยงที่คาดการณ์ได้อย่างมาก”
ที่อยู่การเปลี่ยนแปลงนโยบายในไฟล์โพสต์บล็อกรองประธานอาวุโสของ Google James Manyika และ Google Deepmind ผู้ร่วมก่อตั้ง Demis Hassabis เขียนว่า“ ตั้งแต่เราตีพิมพ์หลักการ AI ของเราเป็นครั้งแรกในปี 2561 เทคโนโลยีได้พัฒนาอย่างรวดเร็ว” จากหัวข้อการวิจัยขอบไปจนถึงองค์ประกอบที่แพร่หลายในชีวิตประจำวัน
การอ้างถึง“ การแข่งขันระดับโลกที่เกิดขึ้นสำหรับความเป็นผู้นำของ AI ภายในภูมิทัศน์ทางการเมืองที่ซับซ้อนมากขึ้น” ทั้งคู่กล่าวว่า“ ระบอบประชาธิปไตยควรเป็นผู้นำในการพัฒนา AI ชี้นำโดยค่านิยมหลักเช่นเสรีภาพความเสมอภาคและความเคารพต่อสิทธิมนุษยชน” ในบรรดาแอพพลิเคชั่นที่พวกเขามองเห็นสำหรับ AI คือแอปพลิเคชันที่หนุนความมั่นคงแห่งชาติ - การ backpedaling ในการรับประกันก่อนหน้านี้ไม่ได้ใช้ AI เป็นอาวุธ
เมื่อคำนึงถึงเรื่องนี้ Google กล่าวว่าตอนนี้พยายามที่จะใช้เทคโนโลยีเพื่อ“ ช่วยจัดการกับความท้าทายที่ยิ่งใหญ่ที่สุดของมนุษยชาติ” และส่งเสริมวิธีการ“ ควบคุม AI ในเชิงบวก” โดยไม่ระบุว่าสิ่งนี้ทำอะไรและที่สำคัญ
โดยไม่ต้องทำงบเฉพาะเกี่ยวกับกิจกรรมประเภทใดที่ บริษัท จะไม่เข้ามามีส่วนร่วมดังนั้นทั้งคู่บอกว่าการใช้ AI ของ Google จะ“ สอดคล้องกับหลักการที่ได้รับการยอมรับอย่างกว้างขวางของกฎหมายระหว่างประเทศและสิทธิมนุษยชน” และพวกเขาจะ” ทำงานร่วมกันเพื่อสร้าง AI ที่ปกป้องผู้คนส่งเสริมการเติบโตของโลกและสนับสนุนความมั่นคงของชาติ”