ในกการศึกษาใหม่ตีพิมพ์ในการทบทวนข้อมูลที่ผิดของโรงเรียน Harvard Kennedyนักวิจัยจากมหาวิทยาลัย Borås, มหาวิทยาลัย Lund และมหาวิทยาลัยเกษตรศาสตร์แห่งสวีเดน ค้นพบเอกสารทั้งหมด 139 ชิ้นที่สงสัยว่ามีการใช้ ChatGPT หรือแอปพลิเคชันแบบจำลองภาษาขนาดใหญ่ที่คล้ายกันในลักษณะหลอกลวง ในจำนวนนี้ มี 19 รายการอยู่ในวารสารที่มีการจัดทำดัชนี 89 รายการอยู่ในวารสารที่ไม่จัดทำดัชนี 19 รายการเป็นเอกสารของนักศึกษาที่พบในฐานข้อมูลของมหาวิทยาลัย และ 12 รายการเป็นเอกสารการทำงาน (ส่วนใหญ่อยู่ในฐานข้อมูลก่อนพิมพ์) เอกสารด้านสุขภาพและสิ่งแวดล้อมคิดเป็นประมาณ 34% ของกลุ่มตัวอย่าง ในจำนวนนี้ 66% มีอยู่ในวารสารที่ไม่จัดทำดัชนี
คำว่าฝนของเอกสารฉบับเต็มที่น่าสงสัยที่สร้างโดย GPT ที่เกี่ยวข้องกับสิ่งแวดล้อมและสุขภาพ เครดิตภาพ: ไฮเดอร์และคณะ., ดอย: 10.37016/mr-2020-156.
การใช้ ChatGPT เพื่อสร้างข้อความสำหรับรายงานทางวิชาการทำให้เกิดข้อกังวลเกี่ยวกับความสมบูรณ์ของการวิจัย
การอภิปรายเกี่ยวกับปรากฏการณ์นี้ยังคงดำเนินต่อไปในบทบรรณาธิการ บทวิจารณ์ ความคิดเห็น และบนโซเชียลมีเดีย
ขณะนี้มีรายการเอกสารหลายรายการที่ต้องสงสัยว่ามีการใช้ GPT ในทางที่ผิด และมีการเพิ่มเอกสารใหม่อย่างต่อเนื่อง
แม้ว่าการใช้ GPT อย่างถูกต้องตามกฎหมายสำหรับการวิจัยและการเขียนเชิงวิชาการยังคงมีอยู่ แต่การใช้ GPT ที่ไม่ได้ประกาศไว้ นอกเหนือจากการพิสูจน์อักษร อาจมีผลกระทบในวงกว้างทั้งต่อวิทยาศาสตร์และสังคม แต่โดยเฉพาะอย่างยิ่งสำหรับความสัมพันธ์ของทั้งสอง
“ข้อกังวลหลักประการหนึ่งเกี่ยวกับการวิจัยที่สร้างโดย AI คือความเสี่ยงที่เพิ่มขึ้นของการแฮ็กหลักฐาน ซึ่งการวิจัยปลอมสามารถนำมาใช้เพื่อการจัดการเชิงกลยุทธ์ได้” Björn Ekström นักวิจัยจาก University of Borås กล่าว
“สิ่งนี้สามารถมีผลกระทบที่จับต้องได้ เนื่องจากผลลัพธ์ที่ไม่ถูกต้องสามารถซึมเข้าสู่สังคมได้มากขึ้น และอาจไปสู่ขอบเขตที่มากขึ้นเรื่อยๆ”
ในการศึกษา Dr. Ekström และเพื่อนร่วมงานได้ค้นหาและคัดลอก Google Scholar เพื่อหาเอกสารที่มีวลีเฉพาะที่ทราบว่าเป็นคำตอบทั่วไปจาก ChatGPT และแอปพลิเคชันที่คล้ายกันซึ่งมีรูปแบบพื้นฐานเดียวกัน: 'ณ การอัปเดตความรู้ครั้งล่าสุดของฉัน' และ/หรือ 'ฉัน ไม่สามารถเข้าถึงข้อมูลแบบเรียลไทม์ได้'
สิ่งนี้อำนวยความสะดวกในการระบุเอกสารที่อาจใช้ generative AI เพื่อสร้างข้อความ ส่งผลให้มีเอกสารที่ดึงมา 227 รายการ
จากรายงานเหล่านี้ มีงานวิจัย 88 ชิ้นที่เขียนโดยใช้ GPT ที่ถูกต้องตามกฎหมายและ/หรือประกาศ และเอกสาร 139 ชิ้นเขียนด้วยการใช้ที่ไม่ได้ประกาศ และ/หรือเป็นการฉ้อโกง
เอกสารที่น่าสงสัยส่วนใหญ่ (57%) เกี่ยวข้องกับหัวข้อที่เกี่ยวข้องกับนโยบาย (เช่น สิ่งแวดล้อม สุขภาพ คอมพิวเตอร์) ซึ่งมีแนวโน้มที่จะมีอิทธิพลต่อการปฏิบัติงาน
ส่วนใหญ่มีจำหน่ายหลายชุดในโดเมนที่แตกต่างกัน (เช่น โซเชียลมีเดีย เอกสารสำคัญ และที่เก็บข้อมูล)
“หากเราไม่สามารถเชื่อได้ว่างานวิจัยที่เราอ่านนั้นเป็นของแท้ เราก็เสี่ยงต่อการตัดสินใจโดยอาศัยข้อมูลที่ไม่ถูกต้อง” ศาสตราจารย์ Jutta Haider แห่งมหาวิทยาลัย Borås กล่าว
“แต่ถึงแม้จะเป็นปัญหาเกี่ยวกับการประพฤติมิชอบทางวิทยาศาสตร์ แต่ก็เป็นปัญหาเกี่ยวกับความรู้ด้านสื่อและสารสนเทศด้วย”
“Google Scholar ไม่ใช่ฐานข้อมูลทางวิชาการ” เธอตั้งข้อสังเกต
“เสิร์ชเอ็นจิ้นใช้งานง่ายและรวดเร็ว แต่ยังขาดขั้นตอนการประกันคุณภาพ”
“นั่นเป็นปัญหาอยู่แล้วกับผลการค้นหาของ Google ตามปกติ แต่จะยิ่งเป็นปัญหามากขึ้นไปอีกเมื่อเป็นเรื่องของการทำให้วิทยาศาสตร์เข้าถึงได้”
“ความสามารถของผู้คนในการตัดสินใจเลือกวารสารและผู้จัดพิมพ์รายใด โดยส่วนใหญ่แล้ว การตีพิมพ์งานวิจัยที่ได้รับการตรวจสอบคุณภาพนั้นมีความสำคัญต่อการค้นหาและตัดสินว่าสิ่งใดถือเป็นงานวิจัยที่เชื่อถือได้ และมีความสำคัญอย่างยิ่งต่อการตัดสินใจและการสร้างความคิดเห็น”
-
คุยกับไฮเดอร์และคณะ- 2024 เอกสารทางวิทยาศาสตร์ที่ประดิษฐ์โดย GPT บน Google Scholar: คุณลักษณะหลัก การเผยแพร่ และความหมายโดยนัยสำหรับการยึดถือการบิดเบือนหลักฐานการทบทวนข้อมูลที่ผิดของโรงเรียน Harvard Kennedy5 (5); ดอย: 10.37016/mr-2020-156