เมื่อต้องเผชิญกับทางเลือกที่ยากลำบาก เราอาจขอคำแนะนำจากปัญญาประดิษฐ์ของ Google ในไม่ช้า ซึ่งกำลังทำงานเกี่ยวกับเครื่องมือ AI เวอร์ชันโค้ชชีวิต แต่เมื่อต้องเผชิญกับความเสี่ยงด้านจริยธรรมและกฎหมาย ระบบนี้จึงไม่ควรเข้าถึงได้โดยบุคคลทั่วไปอย่างรวดเร็ว
คุณควรยอมรับข้อเสนองานนี้ ทิ้งทุกอย่างแล้วเริ่มเปลี่ยนอาชีพ ทิ้งคู่ของคุณไปเริ่มต้นชีวิตใหม่ที่อื่นหรือไม่? เมื่อต้องเผชิญกับทางเลือกที่ยากลำบาก ในไม่ช้าเราอาจมีภาพสะท้อนใหม่: ขอคำแนะนำจากปัญญาประดิษฐ์(AI). นี่คือสิ่งที่เรากำลังมุ่งสู่ดีพมายด์, สาขา AI ของ Alphabet บริษัทแม่ของGoogleทำงานมาหลายเดือนแล้วในเวอร์ชั่น”โค้ชชีวิต» ของเครื่องมือปัญญาประดิษฐ์ อย่างหลังอาจตอบคำถามที่เป็นส่วนตัวและเป็นส่วนตัวเกี่ยวกับชีวิตของผู้ใช้ได้ เช่นเดียวกับนักจิตวิทยาหรือเพื่อนสนิท
ตามที่นิวยอร์กไทม์สนักวิจัยประมาณร้อยคนจากบริษัท Scale AI ภายใต้สัญญากับ DeepMind จะได้ทดสอบโครงการนี้ ท่ามกลางงานอื่นๆ อีก 20 งาน เพื่อนร่วมงานของเรายกตัวอย่างผู้ใช้อินเทอร์เน็ตที่ต้องประกาศกับเพื่อนที่ดีที่สุดคนหนึ่งของเขาว่าเขาจะไม่สามารถเข้าร่วมงานแต่งงานของเขาได้ เพราะเขาไม่สามารถจ่ายค่าตั๋วเครื่องบินเพื่อไปยังสถานที่จัดงานได้ จากนั้น AI จะแนะนำวิธีการต่างๆ ในการนำเสนอข่าวร้ายนี้เพื่อให้เป็นที่ยอมรับได้ดีขึ้น
ความเสี่ยงด้านจริยธรรมและกฎหมาย
เวอร์ชันโค้ชชีวิตนี้จะรวมถึง นอกเหนือจากความสามารถในการตอบคำถามส่วนตัวแล้ว ยังมีฟังก์ชันอื่นๆ ตั้งแต่การสร้างงบประมาณไปจนถึงโปรแกรมการฝึกกีฬา
ความเป็นไปได้เหล่านี้ทำให้นักวิจัยบางคนกังวล ซึ่งชี้ให้เห็นถึงการสูญเสียความเป็นอิสระในการคิดของผู้ใช้ที่อาจเกิดขึ้น นอกเหนือจากอันตรายจากการตอบสนองบางอย่างจากผู้ใช้chatbots มีแนวโน้มที่จะเกิดอาการประสาทหลอน- เครื่องมือเหล่านี้สามารถให้คำตอบที่น่าเชื่อถือได้จริง ๆ ในขณะที่ยังเป็นเท็จโดยสิ้นเชิงหรือเป็นอันตรายด้วยซ้ำ
เมื่อหลายเดือนก่อน องค์กรพัฒนาเอกชนในอเมริกาซึ่งสนับสนุนผู้ที่ตกเป็นเหยื่อของปัญหาการกินผิดปกติ ต้องถอนหุ่นยนต์สนทนาที่เรียกว่า Tessa ออก ระบบให้คำแนะนำเรื่องการรับประทานอาหารที่ไม่เหมาะสม แม้จะเป็นอันตรายต่อสุขภาพของผู้ที่ถูกตั้งคำถามก็ตาม ภายใน Google ผู้เชี่ยวชาญยังได้เตือนเมื่อเดือนธันวาคมปีที่แล้วว่าเครื่องมือประเภทนี้มีความเสี่ยงมากมายต่อความเป็นอยู่ที่ดีของผู้ใช้ ผู้ใช้อินเทอร์เน็ตอาจมีการลงทุนทางอารมณ์กับแชทบอทมากเกินไป รายงานจากเพื่อนร่วมงานของเรานิวยอร์กไทม์ส-
เราจะมั่นใจได้อย่างไรถึงการรักษาความลับและคุณภาพของคำแนะนำ?
ฟังก์ชันใหม่ที่กำลังพัฒนาซึ่งห่างไกลจากความประหลาดใจในแง่ของการแข่งขันสำหรับ AI จะต้องเอาชนะความท้าทายหลายประการ: ประการแรก จะแน่ใจได้อย่างไรว่าองค์ประกอบส่วนบุคคลทั้งหมดที่คุณให้เพื่อขอคำแนะนำ จะไม่จบลงใน จัตุรัสสาธารณะหรือในการสนทนาอื่น?กวีซึ่งเป็นเครื่องมือ AI เจนเนอเรชั่นของ Google แนะนำให้ผู้ใช้อย่าให้ข้อมูลส่วนบุคคล
แล้วเราจะแน่ใจได้อย่างไรว่าคำแนะนำจาก AI นั้นเป็นคำแนะนำที่ดี? Christian Guttmann ผู้เชี่ยวชาญด้าน AI ของ Pegasystems อ้างโดยผู้พิทักษ์ขอแนะนำเช่นการจัดตั้ง “แนวทางที่มีความรับผิดชอบในการสร้างความสัมพันธ์เหล่านี้ระหว่างมนุษย์และระบบ AI”วัตถุประสงค์คือการ“ตรวจสอบให้แน่ใจว่าคำแนะนำที่ให้กับบุคคลนั้นปลอดภัย เหมาะสม และสอดคล้องกับสิ่งที่ผู้เชี่ยวชาญจะแนะนำ» เขารายงานต่อเพื่อนร่วมงานของเรา
จากเครื่องมือทั่วไปไปจนถึงเครื่องมือเฉพาะบุคคล
ความท้าทายที่สำคัญอีกประการหนึ่ง: ในทางเทคนิคแล้ว การตั้งค่าระบบดังกล่าวจะมีความซับซ้อนเป็นพิเศษ โดยเน้นย้ำไว้โชค- จนถึงตอนนี้ Bard ก็เหมือนกับ ChatGPT ที่สามารถให้คำตอบทั่วไปในรูปแบบของวิกิพีเดียในหัวข้อต่างๆ จำนวนมากได้ แต่การสร้างปฏิสัมพันธ์ที่ไม่ซ้ำใครและเป็นส่วนตัวคงเป็นเรื่องยากเป็นพิเศษ เพื่อให้สามารถให้”คำแนะนำชีวิต" เครื่องมือเหล่านี้ควรปรับให้เข้ากับสถานการณ์ของแต่ละคน นอกเหนือจากความสามารถในการให้คำตอบที่เกี่ยวข้องและมีจริยธรรมแล้ว
ด้วยเหตุผลทั้งหมดนี้ Google จะไม่ใช้เครื่องมือประเภทนี้อีกต่อไป อาจจำกัดอยู่เพียงคุณสมบัติบางอย่าง เช่น การสร้างงบประมาณ แทนที่จะเสนอเครื่องมือการฝึกสอนชีวิตที่ทะเยอทะยานมากกว่า ตามที่นิวยอร์กไทม์สในขณะนี้ Google ยังไม่ได้ตัดสินใจเกี่ยวกับกลยุทธ์การเปิดตัว หากเครื่องมือนี้ออกสู่ตลาดจริง ๆ จะถือเป็นการเปลี่ยนแปลงแนวทางสำหรับยักษ์ใหญ่ด้านดิจิทัล บริษัท Mountain View แนะนำจริงๆ ว่าผู้ใช้ Bard ไม่ร้องขอ”คำแนะนำทางการแพทย์ กฎหมาย การเงิน หรือวิชาชีพอื่นๆ-
ถามคำถามโดยนิวยอร์กไทม์สในส่วนของ DeepMind ยืนยันกระบวนการประเมินในปัจจุบันสำหรับโครงการนี้ โดยประกาศว่าเป็น "ขั้นตอนสำคัญในการพัฒนาเทคโนโลยีที่ปลอดภัยและมีประโยชน์-
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : เลอนิวยอร์กไทม์ส