ในเดือนธันวาคม พ.ศ. 2561 คณะกรรมาธิการยุโรปได้เผยแพร่ร่างรายงานฉบับแรกเกี่ยวกับจริยธรรมและปัญญาประดิษฐ์ ซึ่งคาดว่าจะฉบับสุดท้ายในเดือนมีนาคม แนวทางแรกได้รับการวิพากษ์วิจารณ์แล้ว
เมื่อวันที่ 18 ธันวาคม 2018 คณะกรรมาธิการยุโรปเปิดเผยรายงานเบื้องต้นเกี่ยวกับจริยธรรมและปัญญาประดิษฐ์ (AI) กลุ่มผู้เชี่ยวชาญระดับสูงด้านปัญญาประดิษฐ์ (Gehnia) ได้ก่อตั้ง "แนวทางจริยธรรมของ AI» โดยคาดว่าจะมีเวอร์ชันสุดท้ายที่วางแผนไว้สำหรับเดือนมีนาคม ในเดือนพฤษภาคม Genhia จะให้การสนับสนุนนโยบายและการลงทุนครั้งที่สอง
-เพิ่มประโยชน์ของ AI ให้สูงสุดพร้อมทั้งลดความเสี่ยง» นี่คือหัวใจสำคัญของข้อเสนอแนะของยุโรป ล'"ดาวขั้วโลก» ของเกห์เนีย: การพัฒนา “AI ที่น่าเชื่อถือ »- โดยผู้เชี่ยวชาญชาวยุโรป 52 คน เสนอวิธีประเมิน AI ตามเกณฑ์ 2 ประการ คือ รับประกันว่า “วัตถุประสงค์ทางจริยธรรม" กล่าวคือ การเคารพสิทธิขั้นพื้นฐาน กฎระเบียบที่ใช้บังคับ แต่ยังรวมถึงค่านิยมและหลักการพื้นฐานด้วย และในขณะเดียวกันก็เป็นเช่นนั้น”แข็งแกร่งทางเทคนิค"หรืออีกนัยหนึ่งว่ามันเป็นเครื่องยืนยันถึง"ความเชี่ยวชาญด้านเทคโนโลยี- บทที่สามและบทสุดท้ายของเรื่องนี้ร่างวาด "รายการประเมินที่เป็นรูปธรรมโดยสังเขปสำหรับ AI ที่น่าเชื่อถือ”
ตั้งแต่โทรศัพท์ไปจนถึงรถยนต์ไปจนถึงตู้เย็น AI ได้เข้ามารุกรานชีวิตของเรา ดูเหมือนว่ายุโรป (ในท้ายที่สุด) จะคำนึงถึงผลกระทบทางสังคมและศีลธรรมของโลกดิจิทัลใหม่ นอกจากนี้เป็นแห่งแรกของโลก เราจะไม่มีความสุขได้อย่างไร?
ผู้บุกเบิกสหภาพยุโรปกำลังหมกมุ่นอยู่ในความฝันหรือไม่?
อย่างไรก็ตาม Jean-Gabriel Ganascia ประธานคณะกรรมการจริยธรรม CNRS เชื่อว่าเป็น “ไม่เพียงพอ- เขาเน้นย้ำถึงอคติหลายประการในรายงานนี้ นักวิจัยและนักปรัชญาคอมพิวเตอร์ชี้ให้เห็นถึงความบาปดั้งเดิมเป็นอันดับแรก: คำจำกัดความของ AI ที่เป็นพื้นฐานของเอกสาร แม่นยำยิ่งขึ้น ความคลุมเครือที่เกิดขึ้นจากการกำหนดของยุโรป "AI ที่มีมนุษย์เป็นศูนย์กลาง-

-เธอสามารถต่อต้านอะไรใครได้บ้าง?“เขาถามตัวเอง“จะมี AI ที่ไม่ใช่มนุษย์หรือไม่? ในการให้บริการอย่างอื่น?เดสโรบอตส์- - สำหรับเขานิมิตนี้”เพ้อฝัน" ทิศตะวันออก "น่าเสียดาย- เนื่องจากมีความเกี่ยวข้องกับนิยายวิทยาศาสตร์มากกว่าวิทยาศาสตร์ คำจำกัดความนี้ขยายความกลัวที่ AI กระตุ้น ตามที่ผู้วิจัยกล่าวไว้ สิ่งนี้ทำให้เราไม่สามารถพูดถึง “อันตรายที่แท้จริง» – ประการแรกและสำคัญที่สุดคือ การใช้ข้อมูลส่วนบุคคลจำนวนมหาศาลและการบุกรุกความเป็นส่วนตัว
อคติประการที่สองที่กระตุ้นให้เกิดจินตนาการและเป็นอันตรายต่อการอภิปรายทางการเมือง: AI จะต้องไม่เป็น “ความชั่วร้าย» แต่ต้องระบุ “ข้อได้เปรียบ- อยู่ในบริการของมนุษย์และความเป็นอิสระของพวกเขา หลักการเหล่านี้ซึ่งส่วนใหญ่จำลองมาจากหลักการที่ควบคุมจริยธรรมทางชีวภาพในยุโรป มีจุดมุ่งหมายเพื่อปกป้องเราจาก “ความเกลียดชังที่จะมาจากเครื่องจักร ไม่ใช่มนุษย์- อย่างไรก็ตาม เครื่องจักรเป็นเพียงภาพสะท้อนของมนุษย์ที่ตั้งโปรแกรมไว้เท่านั้น
ท้ายที่สุด รายงานทั้งหมดให้ความรู้สึกถึงอนาคตอันใกล้นี้ ไม่ใช่สิ่งที่ปรากฏชัดแจ้ง อย่างไรก็ตาม AI ได้เข้ามาท่วมท้นชีวิตประจำวันของเราไปแล้ว และการเติบโตก็เพิ่มขึ้นแบบทวีคูณ
แนวทางที่เขียนว่า "รีบ"
เอคริท «มี ความเร่งรีบ» ตามที่นักวิจัยระบุ รายงานของ Genhia กล่าวถึงประเด็นทางสังคมที่สำคัญ แทนที่จะสร้างการสะท้อนเชิงปรัชญาเกี่ยวกับ AI การเริ่มต้นที่ผิดพลาดนี้ตามที่เขากล่าว กลับบ่อนทำลายการอภิปรายทางการเมือง ที่แย่กว่านั้น: มันสร้างความกังวลเกี่ยวกับการนำไปประยุกต์ใช้ในทางปฏิบัติ โดยเฉพาะอย่างยิ่งในระดับนิติบัญญัติ -มันไร้สาระที่จะคิดว่าหุ่นยนต์มีความรับผิดชอบ» ประณามประธานคณะกรรมการจริยธรรม CNRS โดยพาดพิงถึงโครงการความรับผิดชอบทางกฎหมายด้านวิทยาการหุ่นยนต์ และเขาก็ไปไกลกว่านั้น:“หากเราระงับการใช้อาวุธอัตโนมัติ นั่นหมายถึงการหลีกเลี่ยงการสอบสวน- อย่างไรก็ตาม เป็นผู้สร้างอัลกอริทึมในที่ทำงานที่ต้องถูกตำหนิ
คำเตือนที่สะท้อนถึงผู้เชี่ยวชาญ 150 คนที่ลงนามในจดหมายเปิดผนึกที่จ่าหน้าถึงคณะกรรมาธิการยุโรป ซึ่งเผยแพร่ในเดือนเมษายน 2018 [PDF- การอภิปรายครั้งนี้เป็นการปลดปล่อยความหลงใหล โดยเฉพาะเรื่องรอบตัวไม่ว่าจะสั่งห้ามหุ่นยนต์นักฆ่าหรือไม่-
แต่ “ความมหัศจรรย์" ของGDPRพิสูจน์ว่าความคิดริเริ่มของยุโรปสามารถประสบความสำเร็จหรือแม้กระทั่งใช้เป็นแบบอย่างในระดับโลก สิ่งนี้ตอกย้ำความเชื่อมั่นของ Jean-Gabriel Ganascia: “อยู่ในระดับยุโรปที่ต้องเล่นแบบนี้" โดยมีเงื่อนไขว่าเราจะต้องรับมือกับความท้าทายในปัจจุบันของ AI ต่อไป หวังว่าเวอร์ชั่นสุดท้ายจะไม่ทำให้เขาหิว (ยัง)
🔴 เพื่อไม่ให้พลาดข่าวสารจาก 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-