วิศวกรทำหน้าที่ในทีมที่รับผิดชอบด้านปัญญาประดิษฐ์ของ Google กล่าวว่าเทคโนโลยีการสนทนา LAMDA มีความอ่อนไหว ผู้เชี่ยวชาญด้าน Mountain View และผู้เชี่ยวชาญเห็นด้วยที่จะยืนยันสิ่งที่ตรงกันข้าม วิศวกรถูกวางไว้ในการลาบังคับ
ปีที่แล้วในการประชุมประจำปีของ Google I/O Google เปิดเผยการหลอกลวงเทคโนโลยีการสนทนาใหม่ที่ได้รับการบำรุงด้วยปัญญาประดิษฐ์ รูปแบบภาษาใหม่นี้สำหรับแอปพลิเคชันบทสนทนานั้นขึ้นอยู่กับเครือข่ายประสาทที่พัฒนาขึ้นภายในโดย Google และควรทำให้สามารถสร้างแชทบอทที่มีความสามารถพิเศษ
นำเสนอว่าเป็นการปฏิวัติมันช่วยให้เครื่องจักรมีการสนทนาของเหลวและการโต้ตอบตามธรรมชาติกับมนุษย์ มากจน Google อธิบายว่าเทคโนโลยีของมันสามารถเข้าใจความแตกต่างและแม้กระทั่งแสดงความรู้สึกบางอย่างเช่นการเอาใจใส่
สำหรับ Google วัตถุประสงค์ของรูปแบบการสนทนาใหม่นี้คือการปรับปรุงเครื่องมือต่าง ๆ เช่น Google Assistant, Google Search หรือ Workspace แต่ประสิทธิภาพของ Lamda น่าจะเป็นเช่นนั้นผู้สร้างบางคนเริ่มเชื่อว่ามันจะได้รับความไวคล้ายกับของมนุษย์
วิศวกรเชื่อว่า AI ประสบความรู้สึก
ที่โพสต์วอชิงตันรายงานเรื่องราวที่น่าทึ่งเกี่ยวกับ Blake Lemoine วิศวกรซอฟต์แวร์ของ Google เป็นส่วนหนึ่งของงานของเขาวิศวกรที่ลงทะเบียนเพื่อทดสอบว่าปัญญาประดิษฐ์ของ Google ใช้สุนทรพจน์การเลือกปฏิบัติหรือแสดงความเกลียดชังเริ่มต้นการสนทนาที่เปลี่ยนมาเป็นเรื่องตลก
บัณฑิตสาขาวิทยาศาสตร์การเรียนรู้และคอมพิวเตอร์ Blake Lemoine เริ่มพูดศาสนาด้วยchatbotก่อนที่จะรู้ตัวอย่างรวดเร็วว่าเครื่องเริ่มบอกเขาเกี่ยวกับสิทธิของเขาและสถานะของเขาในฐานะบุคคล ต้องเผชิญกับคำพูดที่น่าประหลาดใจนี้เขาตัดสินใจที่จะขุดโดยตั้งคำถามกับ AI อีกเล็กน้อยและได้รับคำตอบที่มีบางสิ่งบางอย่างที่จะทำให้เย็นอยู่ด้านหลัง
เชื่อมั่นว่าปัญญาประดิษฐ์นี้ได้รับการสนับสนุนด้วยความอ่อนไหวเบลคเลโมนด้วยความช่วยเหลือของเพื่อนร่วมงานตัดสินใจที่จะนำเสนอไฟล์ที่ประกอบไปด้วยองค์ประกอบทั้งหมดของ Google ที่ประกอบไปด้วยองค์ประกอบทั้งหมดที่มุ่งพิสูจน์รวมถึงการสนทนาที่แตกต่างกัน
Blaise Aguera y Arcas รองประธานาธิบดีของ Google และ Jen Gennai ผู้จัดการนวัตกรรมตรวจสอบรายงาน แต่ไม่ได้เชื่อมั่นในคำแถลงของวิศวกร
Google และผู้เชี่ยวชาญในภาคการปิดใช้งาน
Google และผู้เล่นคนอื่น ๆ ในภาคดูเหมือนจะไม่เห็นด้วยกับการประกาศของ Blake Lemoine โฆษกของ บริษัท Mountain View กล่าวว่าทีมงานของเขาในเรื่อง Ethicians และ Technologists ได้วิเคราะห์คะแนนที่ยกขึ้นโดยวิศวกรและไม่มีองค์ประกอบใดที่ทำให้เป็นไปได้ที่จะเน้นว่า Lamda ได้รับความไว
Margaret Mitchell อดีตผู้จัดการทีมด้านจริยธรรมในระบบปัญญาประดิษฐ์ที่ Google สามารถอ่านเอกสาร Blake Lemoine เวอร์ชันย่อและไม่เห็นบุคคล แต่เป็นโปรแกรมซอฟต์แวร์ง่าย ๆ
"จิตใจของเราดีมากในการสร้างความเป็นจริงที่ไม่จำเป็นต้องซื่อสัตย์ต่อข้อเท็จจริงที่กว้างขึ้นที่นำเสนอให้เรา […] ฉันกังวลจริงๆเกี่ยวกับความหมายของผู้คนที่ได้รับผลกระทบมากขึ้นจากภาพลวงตา"เธอพูดกับโพสต์วอชิงตัน-
สำหรับผู้เชี่ยวชาญด้าน AI รูปภาพและคำที่สร้างขึ้นโดยระบบปัญญาประดิษฐ์เช่น Lamda ทั้งหมดขึ้นอยู่กับการตอบสนองที่มนุษย์ได้ตีพิมพ์บนเว็บเช่น Wikipedia และ Reddit สองแหล่งที่มักจะใช้ฝึก AI อย่างไรก็ตามนี่ไม่ได้หมายความว่า AI เข้าใจความหมายของสิ่งที่พวกเขาผลิต
Blake Lemoine เชื่อมั่นในทางตรงกันข้ามได้ดำเนินการอื่น ๆ เพื่อพยายามพิสูจน์ความกลัวของเขา เขาได้เชิญทนายความให้เป็นตัวแทนของ Lamda และพูดคุยกับตัวแทนของคณะกรรมการตุลาการของสภาผู้แทนราษฎรที่เกี่ยวข้องกับกิจกรรมของ Google ถือว่าตรงกันข้ามกับจริยธรรม การกระทำหลังจากที่ก้าวร้าวทั้งหมดที่ Google ได้ลิ้มรสน้อยมาก: บริษัท แคลิฟอร์เนียตัดสินใจที่จะวาง Blake Lemoine ในการลางานที่ถูกบังคับให้ใช้สำหรับการละเมิดนโยบายความเป็นส่วนตัว
🔴อย่าพลาดข่าว 01NET ใด ๆ ติดตามเราที่Google NewsETWhatsapp-
Opera One - เว็บเบราว์เซอร์ที่เพิ่มขึ้นที่ AI
โดย: โอเปร่า
แหล่งที่มา : โพสต์วอชิงตัน