นักวิจัยได้ศึกษาสิ่งที่พวกเขาเรียกว่า “ประชานิยมดิจิทัล” ในฝรั่งเศส อิตาลี และเยอรมนี พวกเขามีความกังวลเกี่ยวกับการใช้เครื่องมือ AI เจนเนอเรชั่น ซึ่งจะเพิ่มผลกระทบของสุนทรพจน์ที่บิดเบือนข้อมูล ประการหลัง เครื่องมือทางกฎหมายหรือทางเทคนิคในปัจจุบันจะไม่ประสบความสำเร็จในการหยุดการเผยแพร่เนื้อหาแสดงความเกลียดชังหรือทำให้เข้าใจผิดที่สร้างหรือเผยแพร่จำนวนมากโดย AI
นักการเมืองที่พูดประโยคที่ไม่เคยพูด ฉากที่ไม่เคยเกิดขึ้น และใช้ในการพิสูจน์ทฤษฎีสมคบคิด...ในการหาเสียงเลือกตั้งครั้งต่อไป ภาพเท็จ และวิดีโอที่สร้างโดย AIจะทวีคูณบนโซเชียลเน็ตเวิร์ก หากไม่ทำอะไรเลย เราจะแยกแยะระหว่างความจริงและความเท็จได้อย่างไร? สำหรับ CEPS ซึ่งเป็นศูนย์นโยบายยุโรป ซึ่งเผยแพร่ผลการศึกษาเมื่อวันอังคารที่ 10 ตุลาคม 2023 เครื่องมือปัญญาประดิษฐ์ (AI) ทั่วไปจะสั่นคลอนการเลือกตั้งครั้งต่อไปในยุโรปอย่างมีนัยสำคัญ และการอภิปรายในระบอบประชาธิปไตยจะมีการเปลี่ยนแปลงอย่างมีนัยสำคัญ กลุ่มนักคิดที่มีฐานอยู่ในฝรั่งเศส เยอรมนี และอิตาลีส่งเสียงเตือนอย่างแน่นอน-หากเราคิดถึงการเลือกตั้งในยุโรปในปีหน้า กฎเกณฑ์ที่มีอยู่เกี่ยวกับการกลั่นกรองเนื้อหา ตามที่กำหนดไว้ในกฎระเบียบด้านบริการดิจิทัล (DSA) ล้าสมัยไปแล้วในยุคของ generative AI», เขียนผู้เขียนงานวิจัย.
ในหมู่พวกเขา: Victor Warhem นักเศรษฐศาสตร์ชาวฝรั่งเศสและตัวแทนของคลังสมองในฝรั่งเศส ซึ่งทุกอย่างเริ่มต้นจากการสังเกตในเยอรมนีเกี่ยวกับแนวทางปฏิบัติบางอย่างของ AFD เขาอธิบายให้ฟัง01สุทธิ- ในช่วงหลายเดือนที่ผ่านมา ฝ่ายขวาจัดของเยอรมนีได้ใช้ภาพที่แข็งแกร่งมากซึ่งสร้างขึ้นโดยกลางการเดินทางของผู้ย้ายถิ่นที่ดูเหมือนกำลังข่มขู่ โดยมีข้อความทางการเมืองแนบมาด้วย นักวิจัยทั้งสี่คงจะถามตัวเองว่า “ผลกระทบของเครื่องมือปัญญาประดิษฐ์ใหม่ต่อวาทกรรมทางการเมืองออนไลน์- สิ่งเหล่านี้จะไม่แบ่งขั้วการถกเถียงที่มีขั้วสูงอยู่แล้วอีกต่อไปหรือไม่?
จาก “ฟองกรอง” สู่ AI
ด้วย “กรองฟองอากาศ» ของเครือข่ายโซเชียล เขียนโดยนักวิจัย บุคคลที่ต้องเผชิญกับ “รความเป็นจริงที่ถูกกรองแตกต่างจากความเป็นจริงทั่วไปของเรา- คนหลังก็จะไม่เชื่ออีกต่อไป-ไปยังข้อมูลที่ออกมาจากตัวกรองอื่นๆ», หมายเหตุการศึกษา. แต่ด้วย AI เราจึงสามารถเปลี่ยนแปลงขนาดได้อย่างแท้จริง ขอบคุณแชท GPT,MidJourney, Dall-E, Bard และอื่นๆ อีกมากมาย ตอนนี้การสร้างเนื้อหาเป็นเรื่องง่าย รวดเร็ว และราคาถูก "ข้อมูลที่ผิดส่วนบุคคล- “การปลอมแปลงเชิงลึก” ที่สร้างโดย AI แม้จะบิดเบือนความเข้าใจของเราเกี่ยวกับ “ความจริง” และความเป็นจริงที่แบ่งปันกันอย่างเป็นกลาง- ดังนั้น ผู้สมัครในการเลือกตั้งสามารถใช้ภาพลักษณ์ของคู่แข่งของเขาและทำให้เขาพูดหรือทำอะไรก็ได้ ซึ่ง Ron DeSantis ผู้สมัครจากพรรครีพับลิกันในการเลือกตั้งในอเมริกาได้ทำกับฝ่ายตรงข้ามของเขา Donald Trump
อ่านเพิ่มเติม:ฝ่ายตรงข้ามของทรัมป์ในพรรครีพับลิกันใช้ AI เพื่อจำลองเสียงของอดีตประธานาธิบดี
แล้วยังไง”รักษาการอภิปรายอย่างมีเหตุผล» ในบริบทดังกล่าว? ให้ถามผู้วิจัยตามหลังนี้ “ประชานิยม" (คำที่พวกเขาจำได้ว่าเป็น "เป็นที่ถกเถียง» และ «กิ้งก่า“การกำหนดข้อเท็จจริงของฝ่ายตรงข้าม”“ประชาชน” สู่ “ชนชั้นสูงทุจริต”") ซึ่งก่อนหน้านี้อาศัยเครือข่ายโซเชียลสำหรับแคมเปญของตน กำลังนำปัญญาประดิษฐ์ (AI) มาใช้ ระบบเหล่านี้จะขยายกำลังการโจมตี ทำให้พวกเขามีพลังในการเพิ่มจำนวน โดยเน้นย้ำที่ Victor Warhem
ระบบนิเวศดิจิทัลควบคู่กับ AI “เพิ่มโอกาสความสำเร็จของขบวนการประชานิยม”
-AI ทำให้การเมือง “ง่ายขึ้น ถูกลง และอันตรายมากขึ้น”"" เขียนแล้วเมื่อหลายเดือนก่อนเพื่อนร่วมงานของเราจากบลูมเบิร์ก- หรือ, "อันตรายของการรณรงค์บิดเบือนข้อมูลที่ขยายโดยปัญญาประดิษฐ์นั้นมีอยู่จริงมาก"เนื่องจากระบบนิเวศดิจิทัลควบคู่กับ AI"เพิ่มโอกาสความสำเร็จของขบวนการทางการเมืองประชานิยมในที่สุด» เตือน Camille Réau หนึ่งในผู้เขียนร่วมที่อ้างถึงในการศึกษานี้ มากพอที่จะก่อให้เกิดอันตรายต่อระบอบประชาธิปไตยอย่างแท้จริง
การศึกษาซึ่งมุ่งเน้นไปที่ฝรั่งเศสในงานปาร์ตี้ของ RN, LFI และ Reconquête! ของ Eric Zemmour แสดงให้เห็นว่าการใช้ AI ของพวกเขายังคงมีเพียงเล็กน้อยในขณะนี้ โดยเฉพาะอย่างยิ่งเนื่องจากยังไม่มีการรณรงค์ที่แท้จริงในยุคของ AI Victor Warhem อธิบาย ตัวอย่างเช่น ปาร์ตี้ Reconquest ใช้แบบจำลองของ ChatGPT (ChatZ) ซึ่งเป็นนักกิจกรรมเสมือนจริงจาก Eric Zemmour ที่ตอบคำถามของคุณทั้งหมดและพยายามโน้มน้าวให้คุณโหวตให้กับแชมป์เปี้ยนของเขา
ในส่วนของพรรค Marine Le Pen ใช้บอทบนโซเชียลเน็ตเวิร์ก ซึ่งทำให้สามารถจำลองความอื้อฉาวบางอย่างบนโซเชียลเน็ตเวิร์ก เช่น บน X ซึ่งเดิมคือ Twitter -ด้วยการสร้างทวีตและโต้ตอบกับผู้ใช้รายอื่นโดยอัตโนมัติ บอทจะระบุหัวข้อที่กำลังมาแรง ผู้มีอิทธิพล และทำหน้าที่เป็นโทรโข่งเพื่อถ่ายทอดข้อความหรือหัวข้อที่มักเป็นที่ถกเถียงกัน» พวกเขาเขียน
การหมิ่นประมาทและการกลั่นกรองไม่มีผลกับเนื้อหาข่าวปลอมที่ AI สร้างขึ้น
ปัญหาคือว่าในปัจจุบันไม่มีอาวุธทางกฎหมายที่มีประสิทธิภาพจริงๆ ที่จะตอบโต้คำพูดแสดงความเกลียดชังหรือเป็นเท็จและตั้งใจจะบิดเบือนเรา-หากพรุ่งนี้ วลาดิมีร์ ปูติน ตัดสินใจที่จะโจมตีข้อมูลบิดเบือนครั้งใหญ่ในบริบทของการเลือกตั้งในยุโรป หรือในบริบทของการเลือกตั้งของอเมริกา กองทัพบอทของเขาจะสร้างวิดีโอปลอมและเสียงเท็จอย่างต่อเนื่อง อย่างไรก็ตาม เราไม่มีเครื่องมือที่จะป้องกันไม่ให้เนื้อหานี้เข้าสู่ฟีดของทุกคน มันจะเกิดขึ้นกับเราอย่างรวดเร็ว และเราไม่สามารถทำอะไรกับมันได้» ตื่นตระหนกวิคเตอร์ วอร์เฮม. มาตรการหลายอย่างที่วางแผนโดย DSA จะไม่ถูกนำมาใช้ทั้งหมดก่อนการเลือกตั้งยุโรปปี 2024
เพื่อต่อสู้กับ “ประชานิยมดิจิทัลบนแพลตฟอร์ม” ผู้เขียนการศึกษาแนะนำให้ใช้แนวทาง “ex-ante” กล่าวคือ ต้นน้ำ ก่อนที่เนื้อหาที่สร้างโดย AI จะไม่มีการออกอากาศ มาตรการปัจจุบัน เช่น การตรวจจับและลบเนื้อหาที่ได้รับการยอมรับว่าเป็นปัญหาโดยอัตโนมัติจะไม่เพียงพออีกต่อไปเชื่อผู้เขียน- เช่นเดียวกับ “การกลั่นกรองเนื้อหาด้วยตนเองและการสร้างหน่วยงานกำกับดูแลใหม่ »- เพราะเมื่อเนื้อหาถูกเผยแพร่แล้วความเสียหายก็จะเกิดขึ้น ข่าวปลอมได้ถูกเผยแพร่ออกไปแล้ว และจะลบออกอย่างดีที่สุดก็ต่อเมื่อมีการเผยแพร่ในวงกว้างเท่านั้น
การกล่าวถึงภาคบังคับ, การส่งเนื้อหาช้า, กองทัพของพลเมือง, ความยินยอม...
ผู้เขียนได้เสนอมาตรการต่าง ๆ เพื่อแก้ไขปัญหานี้ การติดป้ายกำกับหรือการติดป้ายกำกับ "ที่สร้างโดย AI" บังคับซึ่งมองเห็นได้ชัดเจนสำหรับเนื้อหาที่สร้างโดย AI จะทำให้สามารถแยกแยะคำพูดจริงจากวิดีโอจริงปลอมจาก Deepfake ได้อย่างรวดเร็ว แต่วิธีการทางเทคนิคนี้จะต้องยังคงมีอยู่ - ซึ่งยังไม่เป็นเช่นนั้น มาตรการนี้ถูกเพิ่มเข้าไปในรายการหลักปฏิบัติที่ดีของยุโรปเมื่อเดือนมิถุนายนปีที่แล้ว ซึ่งเป็นกฎเกณฑ์ที่ไม่มีผลผูกพัน ผู้บริหารชาวยุโรปจึงถามผู้ลงนามทั้งหมดเพื่อรายงานเนื้อหาที่สร้างโดย AI ทั้งหมดที่พบในแพลตฟอร์มของตนอย่างชัดเจนและทันที
อ่านเพิ่มเติม:เร็วๆ นี้จะมีการกล่าวถึง “เนื้อหาที่สร้างโดย AI” บนโซเชียลเน็ตเวิร์กใช่ไหม
ผู้วิจัยยังเสนอว่า “การส่งเนื้อหาช้า» ซึ่งจะจำกัดความแพร่หลายของโพสต์ เช่น โดยจำกัดจำนวนไลค์และแชร์ -เราก็บังคับได้เช่นกันแพลตฟอร์มเพื่อแนะนำเนื้อหาในฟีดของผู้ใช้ที่อยู่นอกขอบเขตอุดมการณ์โดยสิ้นเชิง» – ซึ่งเท่ากับทำให้เกิดการเปลี่ยนแปลงในอัลกอริทึม อย่างน้อยก็ในระหว่างการเลือกตั้ง “ซึ่งจะขัดแย้งกับผลประโยชน์ของแพลตฟอร์มซึ่งมีความสนใจต่อผู้ใช้ในการดูเนื้อหาโดยสิ้นเชิงที่สอดคล้องกับอุดมการณ์และแรงบันดาลใจของพวกเขา” เพื่อให้พวกเขาอยู่บนแพลตฟอร์มได้นานขึ้น
สำหรับวิกเตอร์ วอร์ฮอร์ ฝรั่งเศสเสนอมาตรการเพิ่มเติมในนั้นเรียกเก็บเงินเพื่อรักษาความปลอดภัยเทคโนโลยีดิจิทัล- และบทความที่ส่งวันอังคารที่ 10 ตุลาคมโดยรัฐบาล, จัดเตรียมให้ "กองทัพพลเมืองประเภทหนึ่งที่ได้รับการคัดเลือก อ้างโดยทีมงานของรัฐเพื่อ "ตั้งค่าสถานะ" เนื้อหาซึ่งจะถูกจัดการโดยผู้ตรวจสอบเนื้อหาบนแพลตฟอร์ม» อธิบายนักเศรษฐศาสตร์ ระบบนี้สามารถจำลองโดยผู้ดูแลเนื้อหาอาสาสมัครของวิกิพีเดีย กมาตรการอื่นที่เสนอจะลงโทษการเผยแพร่ Deepfakes ที่เกี่ยวข้องกับผู้ที่ไม่ยินยอมในการเผยแพร่นี้ ผู้เชี่ยวชาญกล่าวเสริม วัตถุประสงค์คือการจำกัดการใช้ Deepfakes เพื่อวัตถุประสงค์ที่เป็นอันตราย เขากล่าวต่อ
สำหรับผู้เขียน การเลือกตั้งปี 2024 จะมีผลต่อการทดสอบการชน เราเสี่ยงที่จะตระหนักว่าเครื่องมือในปัจจุบันไม่สามารถต่อสู้กับข้อมูลที่บิดเบือนได้อย่างมีประสิทธิภาพ หรือแม้แต่เนื้อหาบิดเบือนที่สร้างโดย AI หรือเผยแพร่อย่างหนาแน่นด้วย AI ดังนั้นเราจึงควรลงมือเดี๋ยวนี้” พวกเขาโต้เถียงเพราะในบริบทแบบนี้เขาถามว่ายังทำได้หรือเปล่า”มี "สังคม" ของยุโรป - และด้วยเหตุนี้จึงเป็นการถกเถียงร่วมกันทั่วทั้งสังคมซึ่งมีความสำคัญต่อการอยู่รอดของระบอบประชาธิปไตยในระยะยาว-
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : การศึกษาของ CEP “ประชานิยมยุโรปพึ่งพา AI มากขึ้น”