แชทบอตของนีโอนาซี การแบ่งแยกเชื้อชาติ ใบสั่งยาที่ไม่ดี... แมชชีนเลิร์นนิงเกิดขัดข้องบ่อยกว่าที่เราคิด และอาจจะมากขึ้นเรื่อยๆ
แมชชีนเลิร์นนิงมีอนาคตที่สดใส และผ่านไปไม่ถึงหนึ่งสัปดาห์หากไม่มีผู้เชี่ยวชาญมาร้องเพลงให้เราฟังเกี่ยวกับประโยชน์ของเทคโนโลยีนี้ต่อมนุษยชาติ อย่างไรก็ตาม นี่ยังห่างไกลจากความสมบูรณ์แบบ ความล้มเหลวที่โดดเด่นหลายประการทำให้เกิดเป็นข่าวในช่วงไม่กี่ปีที่ผ่านมา และปัญหาที่เกิดขึ้นก็พิสูจน์ได้ว่าแก้ไขได้ยาก นี่คือกวีนิพนธ์เกี่ยวกับความล้มเหลวครั้งใหญ่ที่สุดในด้านปัญญาประดิษฐ์
Microsoft สร้างแชทบอทนีโอนาซี
เมื่อวันที่ 23 มีนาคม 2559 Microsoft ได้เปิดตัวแชทบอทชื่อ Tay มีบุคลิกเหมือนเด็กอายุ 19 ปี และออกแบบมาเพื่อความสนุกสนาน ผู้ใช้อินเทอร์เน็ตสามารถพูดคุยกับเธอได้อย่างอิสระเกี่ยวกับทุกสิ่ง แนวคิดนี้คือการแสดงให้ความบันเทิงเห็นว่าแชทบอทอัจฉริยะจะมีหน้าตาเป็นอย่างไร แต่ความสนุกกลับพลิกผันอย่างรวดเร็วในฝันร้าย-
ภายในเวลาไม่กี่ชั่วโมง Tay ก็รับเอาทัศนคติของผู้ชายนีโอนาซี แฟนของฮิตเลอร์และโดนัลด์ ทรัมป์มาใช้ เพื่ออะไร? เนื่องจากข้อมูลการเรียนรู้ของอัลกอริทึมมาจากการสนทนาที่เทย์มีกับผู้ใช้อินเทอร์เน็ต บางคนได้กลิ่นข้อบกพร่องและอาบน้ำให้หุ่นยนต์ด้วยคำพูดแสดงความเกลียดชัง หลังจากผ่านไปสิบหกชั่วโมง บรรณาธิการเยาะเย้ย ถูกบังคับให้ตัดการเชื่อมต่อของเทย์ที่หายตัวไปตลอดกาล
https://twitter.com/tomwarren/status/712953856053919749
Google สร้างแท็กเหยียดเชื้อชาติ
นับตั้งแต่เริ่มต้น การจดจำรูปภาพถือเป็นสาขาหนึ่งของความเป็นเลิศของการเรียนรู้ของเครื่อง แอปพลิเคชันด้านหนึ่งคือการจัดหมวดหมู่รูปภาพอัตโนมัติ ซึ่งช่วยให้การจัดการไลบรารีรูปภาพง่ายขึ้น
แต่ในปี 2015 แอปพลิเคชัน Photos ของ Google ได้เข้ามามีบทบาท โดยการผสมคู่สามีภรรยาแอฟริกันอเมริกันเข้ากับ... กอริลลา ยักษ์ใหญ่ด้านไอทีขอโทษทันทีและสัญญาว่าจะแก้ไข ผู้จัดพิมพ์สามารถปรับปรุงอัลกอริธึมการจดจำได้ตั้งแต่นั้นมาหรือไม่? ไม่จริงดังที่เปิดเผยในภายหลังแบบมีสาย-
เพื่อแก้ไขปัญหานี้ เขาเพียงแค่ลบหมวดหมู่ "กอริลลา" รวมถึงหมวดหมู่อื่นๆ เช่น "ชิมแปนซี" หรือ "ลิง" ออก ตั้งแต่นั้นมา ความเสี่ยงก็หมดไปอย่างแน่นอน แต่จากมุมมองทางวิทยาศาสตร์ เราไม่สามารถพูดได้ว่าสิ่งนี้น่าพอใจ แต่สิ่งนี้แสดงให้เห็นอย่างชัดเจนถึงความไม่สมบูรณ์ของเทคโนโลยีนี้
IBM Watson ล่มด้วยโรคมะเร็ง
ใครจำวัตสันไม่ได้ หนุ่มซิลิคอนผู้ร่าเริงคนนี้ ซึ่งในปี 2011บดขยี้มนุษย์ในเกมโชว์อันตราย- และมันก็ยังห่างไกลจากจุดจบ จากข้อมูลของนักสื่อสารของ IBM เราจะได้เห็นว่าเรากำลังจะได้เห็นอะไรบ้าง คอมพิวเตอร์จะปฏิวัติการแพทย์ในไม่ช้า ด้วยความสามารถในการนำเข้าการศึกษาและการวิเคราะห์จำนวนมาก เครื่องจักรจึงสามารถกำหนดการวินิจฉัยและการรักษาในลักษณะที่เชื่อถือได้มากขึ้น
แต่ในปี 2018 มันเป็นการตื่นตัวที่หยาบคาย เอกสารภายใน IBM เปิดเผยโดยสถิติข่าวแสดงให้เห็นว่า ดร.วัตสันมักจะแนะนำการรักษามะเร็งที่ไม่ดี ซึ่งอาจเป็นอันตรายต่อผู้ป่วยได้
ตามที่วารสารวอลล์สตรีทสิ่งมหัศจรรย์ใหม่ของโลกนี้ท้ายที่สุดแล้วก็ไม่ได้ช่วยอะไรมากนักในด้านการแพทย์ หลังจากที่ทุ่มเงินหลายพันล้านดอลลาร์ในโครงการที่มีผลลัพธ์ที่น่าสงสัย แต่มันอาจจะไม่ใช่แค่เรื่องของเวลาเท่านั้น ไม่ว่าในกรณีใด วิศวกรของ IBM ก็ยังคงเชื่อมั่นในสิ่งนี้
![](http://webbedxp.com/th/tech/misha/app/uploads/2019/03/IBM-Watson.jpg)
โทษจำคุกที่มีอคติสูง
อัลกอริธึมปัญญาประดิษฐ์กำลังแทรกซึมไปทุกที่ รวมถึงในศาลด้วย ในสหรัฐอเมริกา ผู้พิพากษาบางคนอาศัยซอฟต์แวร์ Compas เพื่อประเมินความเสี่ยงของการกระทำผิดซ้ำของผู้กระทำผิดหรืออาชญากร ซึ่งอาจส่งผลโดยตรงต่อโทษจำคุกที่พวกเขากำหนด
ซอฟต์แวร์นี้อิงตามข้อมูลทางสังคมวัฒนธรรม: บุคลิกภาพ สถานการณ์ทางอาชีพและทางสังคม การใช้ยาเสพติด สถานที่อยู่อาศัย ฯลฯ แต่เป็นการสอบสวน.โปรพับลิก้าแสดงให้เห็นว่าซอฟต์แวร์นี้มีแนวโน้มที่จะประเมินความเสี่ยงสำหรับคนผิวสีสูงเกินไป โดยไม่ขึ้นอยู่กับปัจจัยทางสังคมวัฒนธรรมอื่นๆ
เพื่ออะไร? เนื่องจากซอฟต์แวร์นี้ได้รับการ "ป้อน" ในลักษณะที่ไม่แตกต่างด้วยข้อมูลทางสังคมวัฒนธรรมที่มีอยู่ และเพียงจำลองแนวโน้มในอดีตในการคาดการณ์ กระบวนการนี้ไม่ยุติธรรม เลือกปฏิบัติ และขาดความโปร่งใสโดยสิ้นเชิง
การแฮ็กภาพกำลังทวีคูณ
เป็นเวลาหลายปีแล้วที่นักวิจัยพยายามค้นหาว่าอัลกอริธึมนั้นหลอกได้ง่ายหรือไม่ หรือสามารถหลอกอย่างเป็นระบบได้หรือไม่ คำตอบคือใช่
ใน2014นักวิจัยค้นพบว่าการปรับเปลี่ยนที่ไม่สามารถมองเห็นได้ด้วยตาเปล่าอาจทำให้ปัญญาประดิษฐ์เสียหาย และทำให้สุนัขสับสนกับนกกระจอกเทศ
ใน2559นักวิจัยอีกกลุ่มหนึ่งได้ขยายขอบเขตออกไปอีกเล็กน้อย มันแสดงให้เห็นว่าสำหรับโครงข่ายประสาทเทียมระดับลึกแต่ละเครือข่าย มีความเป็นไปได้ที่จะพบการรบกวนเสมือนที่มองไม่เห็นซึ่งสามารถทำลายการคาดการณ์ได้อย่างมีโอกาสสูง
ใน2017นักวิจัยจากมหาวิทยาลัยมิชิแกนจึงจินตนาการถึงการโจมตีที่เกิดขึ้นในโลกแห่งความเป็นจริง สิ่งที่คุณต้องมีคือสติกเกอร์ขาวดำสองสามชิ้นแล้วติดไว้ในลักษณะใดลักษณะหนึ่งบนป้าย "หยุด" และโอมเพี้ยง รถไร้คนขับคิดว่ามันเป็นป้ายจำกัดความเร็วต่ำกว่า 45 กม./ชม. ด้านล่างเป็นวิดีโอสาธิตซึ่งระบุการวิเคราะห์อัลกอริทึมที่ด้านล่างของรูปภาพ ทางด้านซ้ายจะมีเครื่องหมาย Stop ให้เห็นเฉพาะวินาทีสุดท้ายเท่านั้น
ถามโดยโลก, Omar Fawzi หนึ่งในนักวิจัยยังคงต้องการความมั่นใจ การโจมตีล่าสุดเหล่านี้ได้รับการทดสอบบนโครงข่ายประสาทเทียมทางวิชาการเท่านั้น โดยทราบข้อกำหนดทั้งหมดแล้ว นี่ไม่ใช่กรณีของโครงข่ายประสาทเทียมเชิงพาณิชย์ อย่างไรก็ตาม เรายังทราบด้วยว่าการรักษาความปลอดภัยผ่านความสับสนนั้นไม่เคยเป็นวิธีแก้ปัญหาที่ดีเลย
การปิดข้อบกพร่องเหล่านี้ไม่ใช่เรื่องง่าย“เรารู้วิธีสร้างโครงข่ายประสาทเทียมที่แข็งแกร่งมาก แต่เราไม่รู้ว่าทำไมมันถึงใช้งานได้ และขีดจำกัดคืออะไร”, อธิบายนักวิทยาศาสตร์. แน่นอนว่าการแฮ็กปัญญาประดิษฐ์จะมีความสำคัญมากขึ้น
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-