ซีอีโอของ Google และตัวอักษรเตือนว่าสังคมจำเป็นต้องย้ายอย่างรวดเร็วเพื่อปรับให้เข้ากับการขยายตัวของปัญญาประดิษฐ์ (AI) อย่างรวดเร็ว
“ สิ่งนี้จะส่งผลกระทบต่อทุกผลิตภัณฑ์ในทุก บริษัท ” Sundar Pichai กล่าวเมื่อวันที่ 16 เมษายนในการให้สัมภาษณ์กับ "60 นาที. "เมื่อเดือนที่แล้ว Google เปิดตัว Chatbot, Bard - คู่แข่งของ Chatgpt ซึ่งเป็น Chatbot ที่รู้จักกันอย่างแพร่หลายไบต์-
โปรแกรมเช่น Chatgpt และ Bard สามารถสร้างข้อความที่มีความมั่นใจในการตอบคำถามของผู้ใช้และพวกเขากำลังหาตั้งหลักในบางงานเช่นการเข้ารหัสกล่าวเออร์เนสต์เดวิสนักวิทยาศาสตร์คอมพิวเตอร์ที่มหาวิทยาลัยนิวยอร์ก อย่างไรก็ตามพวกเขามักจะฟุ่มเฟือยข้อเท็จจริงพื้นฐานและ "ภาพหลอน" ซึ่งหมายความว่าพวกเขาทำข้อมูล ในตัวอย่างล่าสุด chatgptคิดค้นเรื่องอื้อฉาวการล่วงละเมิดทางเพศและได้รับการขนานนามว่าเป็นศาสตราจารย์ด้านกฎหมายที่แท้จริงในฐานะผู้กระทำความผิดพร้อมการอ้างอิงของบทความหนังสือพิมพ์ที่ไม่มีอยู่เกี่ยวกับคดีนี้
พลังของโปรแกรมเหล่านี้ - เมื่อรวมกับความไม่สมบูรณ์ของพวกเขามีผู้เชี่ยวชาญที่กังวลเกี่ยวกับการเปิดตัว AI อย่างรวดเร็ว ในขณะที่สถานการณ์ "Terminator" Skynet นั้นอยู่ไกล แต่โปรแกรม AI มีความสามารถในการขยายอคติของมนุษย์ทำให้การมองเห็นข้อมูลที่แท้จริงจากเท็จและรบกวนการจ้างงานผู้เชี่ยวชาญบอกกับ Live Science
ที่เกี่ยวข้อง:DeepMind AI ได้ค้นพบโครงสร้างของโปรตีนเกือบทุกชนิดที่รู้จักกันในวิทยาศาสตร์
ประโยชน์หรืออคติ?
ในระหว่างการสนทนา "60 นาที" ผู้สัมภาษณ์ Scott Pelley เรียกความสามารถของ Bard Chatbot "ไม่มั่นคง" และพูดว่า "กวีดูเหมือนจะคิด"
อย่างไรก็ตามรูปแบบภาษาขนาดใหญ่เช่นกวีไม่ได้เป็นความรู้สึกSara Goudarziผู้ร่วมงานบรรณาธิการของเทคโนโลยีก่อกวนสำหรับกระดานข่าวของนักวิทยาศาสตร์ปรมาณู “ ฉันคิดว่ามันต้องชัดเจนจริงๆ” Goudarzi กล่าว
AI chatbots เหล่านี้ผลิตการเขียนที่ทำให้เกิดเสียงของมนุษย์โดยทำการอนุมานทางสถิติเกี่ยวกับคำที่น่าจะเกิดขึ้นต่อไปในประโยคหลังจากได้รับการฝึกฝนเกี่ยวกับข้อความที่มีอยู่ก่อนหน้าจำนวนมาก วิธีนี้หมายความว่าในขณะที่ AI อาจฟังดูมั่นใจในสิ่งที่พูด แต่ก็ไม่เข้าใจจริงๆดาเมียนวิลเลียมส์ผู้ช่วยศาสตราจารย์ในคณะวิทยาศาสตร์ข้อมูลที่มหาวิทยาลัยนอร์ ธ แคโรไลน่าซึ่งศึกษาเทคโนโลยีและสังคม
AI chatbots เหล่านี้คือ "ไม่พยายามให้คำตอบที่ถูกต้องแก่คุณพวกเขาพยายามที่จะให้คำตอบที่คุณชอบ" วิลเลียมส์บอกกับวิทยาศาสตร์สด เขายกตัวอย่างของแผง AI เมื่อเร็ว ๆ นี้ที่เขาเข้าร่วม: วิทยากรเบื้องต้นขอให้ CHATGPT สร้างชีวภาพสำหรับShannon Vallorนักจริยธรรม AI ของมหาวิทยาลัยเอดินเบิร์กในสหราชอาณาจักรโปรแกรมพยายามที่จะให้วัลเลอร์มีพื้นฐานการศึกษาที่มีชื่อเสียงมากกว่าที่เธอมีจริง ๆ เพราะมันไม่น่าเป็นไปได้ที่สถิติใครบางคนที่มีความสูงในสนามไปวิทยาลัยชุมชนและมหาวิทยาลัยของรัฐ
เป็นเรื่องง่ายสำหรับ AI ที่จะไม่เพียงแค่คัดลอก แต่ขยายอคติของมนุษย์ที่มีอยู่ในข้อมูลการฝึกอบรม ตัวอย่างเช่นในปี 2561 อเมซอนได้ทิ้งเครื่องมือการเรียงลำดับ AI Résuméที่แสดงอคติต่อผู้หญิงอย่างต่อเนื่อง AI จัดอันดับประวัติย่อด้วยชื่อที่ทำให้เสียงผู้หญิงมีคุณสมบัติน้อยกว่าผู้ที่มีชื่อที่ฟังดูเป็นชายวิลเลียมส์กล่าว
“ นั่นเป็นเพราะข้อมูลที่ได้รับการฝึกฝนคือการเรียงลำดับประวัติของมนุษย์” วิลเลียมส์กล่าว
โปรแกรม AI เช่น CHATGPT ได้รับการตั้งโปรแกรมให้พยายามหลีกเลี่ยงการแบ่งแยกเชื้อชาติเพศหญิงหรือการตอบสนองที่ไม่พึงประสงค์ แต่ความจริงก็คือไม่มีสิ่งเช่น "วัตถุประสงค์" AI วิลเลียมส์กล่าว AI จะรวมถึงคุณค่าของมนุษย์และอคติของมนุษย์เสมอเพราะมนุษย์สร้างขึ้น
“ ไม่ทางใดก็ทางหนึ่งมันจะมีมุมมองบางอย่างที่ได้รับการสร้างขึ้นมาอย่างไร” วิลเลียมส์กล่าว "คำถามคือเราต้องการปล่อยให้สิ่งนั้นเกิดขึ้นโดยไม่ตั้งใจเหมือนที่เราทำ ... หรือเราต้องการที่จะจงใจเกี่ยวกับเรื่องนี้หรือไม่?"
การสร้าง AI Safeguards
Pichai เตือนว่า AI สามารถเพิ่มขนาดของการบิดเบือนข้อมูล วิดีโอที่สร้างขึ้นโดย AIเฟลค์“ มีความเชื่อมั่นมากขึ้นและยากที่จะแยกแยะจากความเป็นจริงต้องการที่จะเคลื่อนไหว "โมนาลิซ่า"หรือนำ Marie Curie กลับมามีชีวิตอีกครั้ง- Deepfake Tech สามารถทำงานที่น่าเชื่อถือได้แล้ว
Pichai กล่าวว่าสังคมจำเป็นต้องพัฒนากฎระเบียบและสนธิสัญญาปากกาเพื่อให้แน่ใจว่า AI ถูกใช้อย่างรับผิดชอบ
"ไม่ใช่สำหรับ บริษัท ที่จะตัดสินใจ" พิชัยบอก "60 นาที" "นี่คือเหตุผลที่ฉันคิดว่าการพัฒนาสิ่งนี้จำเป็นต้องรวมถึงไม่ใช่แค่วิศวกร แต่นักวิทยาศาสตร์สังคมนักจริยธรรมนักปรัชญาและอื่น ๆ "
จนถึงตอนนี้กฎระเบียบเกี่ยวกับ AI ส่วนใหญ่ตกอยู่ภายใต้กฎหมายที่ออกแบบมาเพื่อครอบคลุมเทคโนโลยีที่เก่ากว่าวิลเลียมส์กล่าว แต่มีความพยายามในโครงสร้างกฎระเบียบที่ครอบคลุมมากขึ้น ในปี 2022 สำนักงานนโยบายวิทยาศาสตร์และเทคโนโลยีทำเนียบขาว (OSTP) ตีพิมพ์ "AI Bill of Rights"พิมพ์เขียวหมายถึงการส่งเสริมการพัฒนา AI ที่มีจริยธรรมเป็นศูนย์กลางของมนุษย์เอกสารครอบคลุมประเด็นเรื่องความยุติธรรมและอันตรายที่อาจเกิดขึ้นวิลเลียมส์กล่าว แต่มันทำให้เกิดปัญหาบางอย่างเช่นการพัฒนาและการติดตั้ง AI โดยการบังคับใช้กฎหมายและการทหาร
วิลเลียมส์กล่าวว่าผู้ได้รับการเสนอชื่อการเมืองและหน่วยงานรัฐบาลกลางกำลังถูกดึงมาจากคนที่มีความรู้สึกถึงค่าใช้จ่ายและผลประโยชน์ของ AI Alvaro Bedoya ผู้บัญชาการปัจจุบันของ Federal Trade Commission เป็นผู้อำนวยการก่อตั้งศูนย์กฎหมายจอร์จทาวน์เพื่อความเป็นส่วนตัวและเทคโนโลยีและมีความเชี่ยวชาญด้านเทคโนโลยีและจริยธรรมวิลเลียมส์กล่าวในขณะที่ Alondra Nelson อดีตผู้อำนวยการชั่วคราวของ OSTP แต่มีหนทางอีกไกลในการสร้างความรู้ทางเทคโนโลยีในหมู่นักการเมืองและผู้กำหนดนโยบายวิลเลียมส์กล่าว
“ เรายังคงอยู่ในพื้นที่ของการปล่อยให้ บริษัท ขนาดใหญ่หลายแห่งควบคุมการพัฒนาและการกระจายของสิ่งที่อาจเป็นเทคโนโลยีที่ทรงพลังมาก แต่เทคโนโลยีที่ทึบแสงและถูกฝังอยู่ในชีวิตประจำวันของเราในรูปแบบที่เราไม่สามารถควบคุมได้” เขากล่าว