จำเป็นการตรวจสอบความพยายามของสำนักงานปราบปรามยาเสพติด (DEA) และสำนักงานสืบสวนกลางแห่งสหรัฐอเมริกา (FBI) ในการบูรณาการ AI เช่น การจดจำใบหน้าด้วยไบโอเมตริกซ์ และเทคโนโลยีเกิดใหม่อื่นๆ ช่วยเพิ่มความเป็นส่วนตัวและข้อกังวลที่จำเป็นต้องมีการตรวจสอบความคิดริเริ่มของทั้งสองหน่วยงานอย่างรอบคอบ
รายงานการตรวจสอบความยาว 34 หน้า ซึ่งได้รับคำสั่งจากพระราชบัญญัติการป้องกันประเทศปี 2023 ที่ดำเนินการโดยผู้ตรวจราชการ (IG) ของกระทรวงยุติธรรม (DOJ) พบว่าการบูรณาการ AI ของ FBI และ DEA นั้นเต็มไปด้วยประเด็นขัดแย้งทางจริยธรรม ความไม่เพียงพอด้านกฎระเบียบและผลกระทบที่อาจเกิดขึ้นต่อเสรีภาพส่วนบุคคล
IG กล่าวว่าการบูรณาการ AI เข้ากับการดำเนินงานของ DEA และ FBI ถือเป็นคำมั่นสัญญาว่าจะเพิ่มขีดความสามารถด้านข่าวกรอง แต่ยังนำความเสี่ยงที่ไม่เคยเกิดขึ้นมาก่อนมาสู่ความเป็นส่วนตัวและสิทธิพลเมืองด้วย
โครงการริเริ่ม AI ของทั้งสองหน่วยงาน ตามที่อธิบายไว้ในการตรวจสอบของ IG แสดงให้เห็นถึงความตึงเครียดระหว่างความก้าวหน้าทางเทคโนโลยีและการปกป้องเสรีภาพส่วนบุคคล ในขณะที่ FBI และ DEA จัดการกับความท้าทายเหล่านี้ พวกเขาจะต้องจัดลำดับความสำคัญของความโปร่งใส ความรับผิดชอบ และการกำกับดูแลที่มีจริยธรรม เพื่อให้แน่ใจว่า AI จะเป็นประโยชน์ต่อสาธารณะโดยไม่กระทบต่อสิทธิขั้นพื้นฐาน
ในขณะที่ DEA และ FBI ได้เริ่มผสานรวม AI และการระบุตัวตนแบบไบโอเมตริกเข้ากับกระบวนการรวบรวมและวิเคราะห์ข่าวกรอง รายงาน IG เน้นย้ำว่าทั้งสองหน่วยงานอยู่ในช่วงเริ่มต้นของการบูรณาการนี้ และเผชิญกับความท้าทายด้านการบริหาร เทคนิค และนโยบาย ปัญหาเหล่านี้ไม่เพียงแต่ทำให้การบูรณาการ AI ช้าลงเท่านั้น แต่ยังทำให้ความกังวลรุนแรงขึ้นเกี่ยวกับการรับรองการใช้ AI อย่างมีจริยธรรม โดยเฉพาะอย่างยิ่งเกี่ยวกับความเป็นส่วนตัวและเสรีภาพของพลเมือง
หนึ่งในความท้าทายที่สำคัญที่สุดคือการขาดความโปร่งใสที่เกี่ยวข้องกับผลิตภัณฑ์ AI ที่มีจำหน่ายในท้องตลาด รายงาน IG ระบุว่าผู้ขายมักจะฝังความสามารถ AI ไว้ในซอฟต์แวร์ของตน ทำให้เกิดสถานการณ์กล่องดำที่ผู้ใช้ รวมถึง FBI ขาดการมองเห็นว่าอัลกอริทึมทำงานหรือตัดสินใจอย่างไร การไม่มีรายการวัสดุซอฟต์แวร์ (SBOM) ซึ่งเป็นรายการส่วนประกอบซอฟต์แวร์ที่ครอบคลุม ทำให้เกิดปัญหา ทำให้เกิดข้อกังวลด้านความเป็นส่วนตัวอย่างมาก เนื่องจากข้อมูลที่ละเอียดอ่อนอาจถูกประมวลผลโดยอัลกอริธึมที่ไม่ชัดเจน ซึ่งอาจนำไปสู่การใช้ในทางที่ผิดหรือการเฝ้าระวังโดยไม่ได้รับอนุญาต
“บุคลากร FBI … ระบุว่าผลิตภัณฑ์ AI ที่มีจำหน่ายในท้องตลาดส่วนใหญ่ไม่มีความโปร่งใสเพียงพอในส่วนประกอบซอฟต์แวร์ของตน” IG กล่าว โดยตั้งข้อสังเกตว่า “ไม่มีทางที่ FBI จะทราบได้อย่างแน่นอนว่าความสามารถ AI ดังกล่าวอยู่ในผลิตภัณฑ์หรือไม่ เว้นแต่ว่า FBI ได้รับ SBOM”
IG กล่าวว่า “SBOM ยังคงไม่ปกติ” และ “เครื่องมือ AI ที่ฝังอยู่ที่ไม่เปิดเผยอาจส่งผลให้บุคลากร FBI ใช้ความสามารถด้าน AI โดยไม่รู้ตัว และไม่มีเครื่องมือดังกล่าวอยู่ภายใต้การกำกับดูแล AI ของ FBI นอกจากนี้ เจ้าหน้าที่ FBI ยังแสดงความกังวลเกี่ยวกับความจริงที่ว่าผู้ขายไม่จำเป็นต้องได้รับการทดสอบผลิตภัณฑ์ของตนโดยอิสระ เพื่อตรวจสอบความถูกต้องของแบบจำลองข้อมูลที่ใช้ในความสามารถ AI ที่ฝังอยู่”
AI Ethics Council (AIEC) ของ FBI ซึ่งก่อตั้งขึ้นเพื่อให้แน่ใจว่าสอดคล้องกับหลักจริยธรรมและกฎหมายของรัฐบาลกลาง เผชิญกับงานในมือจำนวนมากในการตรวจสอบและอนุมัติกรณีการใช้งาน AI งานค้างนี้ซึ่งใช้เวลารอการตรวจสอบโดยเฉลี่ย 170 วันในปี 2024 เน้นย้ำถึงความไร้ประสิทธิภาพเชิงระบบที่อาจทำให้การป้องกันการละเมิดความเป็นส่วนตัวล่าช้า นอกจากนี้ แม้ว่ากรอบการทำงานทางจริยธรรมของ AIEC จะสอดคล้องกับแนวปฏิบัติของสำนักงานผู้อำนวยการข่าวกรองแห่งชาติ (ODNI) แต่ภาพรวมนโยบายที่เปลี่ยนแปลงไปทำให้เกิดความไม่แน่นอน ส่งผลให้การตัดสินใจที่สำคัญล่าช้า และทำให้เสี่ยงต่อการไม่ปฏิบัติตามกฎระเบียบใหม่ๆ
การใช้งาน AI ในบริบทของความมั่นคงแห่งชาติยังก่อให้เกิดปัญหาสิทธิพลเมืองที่ร้ายแรง โดยเฉพาะอย่างยิ่งเกี่ยวกับโอกาสที่จะเกิดอคติทางเชื้อชาติหรือชาติพันธุ์ เครื่องมือเช่นซึ่งมักถูกตรวจสอบอย่างละเอียดถึงแนวโน้มที่จะระบุบุคคลจากชุมชนชายขอบอย่างไม่ถูกต้อง และยกตัวอย่างความเสี่ยงเหล่านี้ FBI และ DEA ต้องดำเนินการตามอำนาจสองประการด้านความมั่นคงของชาติและการบังคับใช้กฎหมาย ซึ่งหมายความว่าแอปพลิเคชัน AI มักจะทำงานในบริบทที่มีความเสี่ยงสูงต่อเสรีภาพส่วนบุคคล
แม้ว่า FBI ได้เริ่มขั้นตอนในการจัดทำเอกสารกรณีการใช้งาน AI และพัฒนานโยบายการกำกับดูแลที่ครอบคลุม แต่การบูรณาการข้อพิจารณาทางจริยธรรมเข้ากับขั้นตอนการปฏิบัติงานที่ไม่สมบูรณ์ก็ก่อให้เกิดความเสี่ยง หากไม่มีกลไกการกำกับดูแลที่แข็งแกร่งและความโปร่งใส ระบบ AI สามารถอำนวยความสะดวกในการเฝ้าระวังที่ไม่สมควร ทำลายความไว้วางใจของสาธารณะ และละเมิดการคุ้มครองตามรัฐธรรมนูญต่อการค้นหาและการยึดที่ไม่สมเหตุสมผล
การใช้ AI ของ DEA ทำให้ภาพซับซ้อนยิ่งขึ้น ด้วยเครื่องมือ AI เพียงตัวเดียวที่มาจากภายนอก DEA อาศัยองค์ประกอบอื่นๆ ของชุมชนข่าวกรองสหรัฐฯ เป็นอย่างมาก โดยจำกัดการควบคุมการออกแบบและการนำไปใช้งานของเครื่องมือ การพึ่งพาดังกล่าวไม่เพียงแต่จำกัดความรับผิดชอบเท่านั้น แต่ยังทำให้การปฏิบัติงานของ DEA เผชิญกับความเสี่ยงที่มีอยู่ในระบบ AI ของบุคคลที่สามด้วย ซึ่งรวมถึงอคติที่อาจกำหนดเป้าหมายกลุ่มใดกลุ่มหนึ่งอย่างไม่ยุติธรรม
หน่วยงานทั้งสองอ้างถึงความท้าทายในการสรรหาและการรักษาไว้ว่าเป็นอุปสรรคสำคัญในการนำ AI มาใช้อย่างมีความรับผิดชอบ IG กล่าวว่าการไม่สามารถดึงดูดผู้มีความสามารถด้านเทคนิค โดยเฉพาะบุคคลที่พร้อมรับมือกับผลกระทบด้านจริยธรรมและกฎหมายของ AI ทำให้เกิดช่องว่างในขีดความสามารถของหน่วยงานในการลดความเสี่ยง นอกจากนี้ “บุคคลจำนวนมากที่มีทักษะทางเทคนิคที่เหมาะสมไม่สามารถผ่านการสอบสวนเบื้องหลังได้” IG รายงาน
ข้อจำกัดด้านงบประมาณยังขัดขวางการได้มาและการทดสอบเครื่องมือ AI โดยอิสระ เพิ่มการพึ่งพาระบบที่มีจำหน่ายในท้องตลาดโดยไม่มีอคติหรือข้อจำกัดที่ไม่ทราบแน่ชัด
IG กล่าวว่าเจ้าหน้าที่ FBI ชี้ให้เห็นว่า “การทดสอบและปรับใช้ระบบใหม่อาจเป็นเรื่องที่ท้าทายโดยไม่ต้องใช้งบประมาณด้านการวิจัยและพัฒนา เนื่องจากเป็นการยากที่จะพิสูจน์ให้เห็นถึงการใช้เงินทุนที่จำกัดเพื่อทดสอบเทคโนโลยีที่ยังไม่ผ่านการพิสูจน์ เมื่อปฏิบัติการสนับสนุนภารกิจมีความสำคัญอย่างยิ่ง ซึ่งตรงกันข้ามกับหน่วยข่าวกรองอื่นๆ ซึ่งตามที่เจ้าหน้าที่ FBI ระบุ มีงบประมาณด้านการวิจัยและพัฒนาที่อนุญาตให้พวกเขาทดสอบและปรับใช้เทคโนโลยีใหม่ได้ เจ้าหน้าที่ FBI ได้ยื่นข้อเสนอไปยัง ODNI เมื่อไม่มีเงินทุนภายใน แต่ไม่มีการรับประกันแหล่งที่มาของเงินทุนเหล่านั้น”
การปรับปรุงโครงสร้างพื้นฐานด้านไอทีให้ทันสมัยถือเป็นอุปสรรคสำคัญอีกประการหนึ่ง ระบบเดิมขัดขวางการรวม AI และสถาปัตยกรรมข้อมูลที่ไม่เพียงพอทำให้ปัญหาที่เกี่ยวข้องกับคุณภาพและความปลอดภัยของข้อมูลรุนแรงขึ้น ระบบข้อมูลที่มีการจัดการไม่ดีอาจเปิดเผยข้อมูลส่วนบุคคลที่ละเอียดอ่อนโดยไม่ได้ตั้งใจต่อการละเมิดหรือการใช้ในทางที่ผิด ซึ่งเป็นอันตรายต่อความเป็นส่วนตัวและสิทธิพลเมืองเพิ่มเติม
“เนื่องจากทรัพยากรที่จำกัดและขาดการวางแผนเชิงกลยุทธ์ หน่วยงานรัฐบาลกลางจึงมักจะดิ้นรนเพื่อให้แน่ใจว่าสถาปัตยกรรมข้อมูลยังคงทันสมัยและใช้ระบบข้อมูลที่ล้าสมัยแทน แม้ว่าระบบเหล่านั้นเองจะต้องการทรัพยากรที่สำคัญในการดูแลรักษาก็ตาม” รายงานของ IG กล่าว “ระบบดังกล่าวอาจทำให้การเปลี่ยนมาใช้ AI หงุดหงิดได้ เนื่องจากอาจเป็นเรื่องยากที่จะบูรณาการเข้ากับเทคโนโลยีใหม่ๆ ขาดคุณสมบัติที่จำเป็นสำหรับงานวิทยาศาสตร์ข้อมูลสมัยใหม่ ความยากลำบากในการจัดการกับชุดข้อมูลขนาดใหญ่และซับซ้อนในปัจจุบัน และมักจะต้องใช้เวลาและความพยายามจากผู้ใช้มากขึ้น เจ้าหน้าที่ FBI ยังตั้งข้อสังเกตอีกว่าการเคลื่อนย้ายข้อมูลและเครื่องมือ AI ข้ามระดับการจำแนกประเภทนั้นซับซ้อนและต้องการเงินทุนเพิ่มเติมเพื่อจัดการ”
“นอกจากนี้” IG กล่าว “การเก็บข้อมูลที่มีคุณภาพเป็นพื้นฐานในการช่วยให้องค์กรสามารถใช้ข้อมูลในการตัดสินใจโดยการนำกระบวนการไปใช้เพื่อให้แน่ใจว่าข้อมูลที่เข้ามามีความถูกต้อง สม่ำเสมอ และเกี่ยวข้อง
IG เน้นย้ำถึงการดำเนินการหลายประการที่ FBI และ DEA สามารถทำได้เพื่อแก้ไขข้อกังวลที่เกิดขึ้นจากการตรวจสอบ ประการหนึ่ง ทั้งสองหน่วยงานควรประเมินว่า AI สามารถบูรณาการอย่างมีจริยธรรมและมีประสิทธิภาพได้อย่างไร เพื่อปรับปรุงการรวบรวมข้อมูลในขณะที่ปกป้องสิทธิส่วนบุคคล นอกจากนี้ การเสริมสร้างความเข้มแข็งให้กับ AIEC และกลไกที่คล้ายกันด้วยทรัพยากรที่เพียงพอเพื่อรองรับการนำ AI มาใช้ที่เพิ่มขึ้น ถือเป็นสิ่งสำคัญสำหรับการรักษามาตรฐานทางจริยธรรม
การบังคับใช้ SBOM และการทดสอบอิสระสำหรับเครื่องมือ AI ทั้งหมดจะช่วยให้ FBI และ DEA และหน่วยงานอื่นๆ สามารถตรวจสอบความปลอดภัยและความถูกต้องตามกฎหมายของแอปพลิเคชันของตนได้ นอกจากนี้ IG ยังแนะนำให้ดำเนินการประเมินตามปกติเพื่อประเมินผลกระทบที่อาจเกิดขึ้นของเครื่องมือ AI ที่มีต่อเสรีภาพของพลเมือง โดยเฉพาะอย่างยิ่งในบริบทของการสอดแนม
หัวข้อบทความ
---------