Deepfake คืออะไร มีผลต่ออินเตอร์เน็ตอย่างไร


Deepfake คืออะไร มีผลต่ออินเตอร์เน็ตอย่างไร

ซอฟต์แวร์ Special Effects ที่ทำเงินให้กับฮอลลีวูดมหาศาล ตอนนี้ใคร ๆ ก็สามารถทำวิดีโอเลียนแบบหน้าตาสุดแนบเนียนจนหลายคนแยกไม่ออกได้     

 

คำจำกัดความของ Deepfake

ภาพลักษณ์และน้ำเสียงที่เหมือนกับบุคคลต้นฉบับ เป็นผลผลิตมาจากซอฟต์แวร์ Deepfake ที่สามารถเลียนแบบเสียงและวิดีโอของบุคคลได้ ในยุคที่เทคโนโลยีตัดต่อ Special Effects ระดับภาพยนต์ฮอลลีวูด เป็นสิ่งที่คนธรรมดาไม่อาจเอื้อมถึงได้ ทว่าซอฟต์แวร์ Deepfake เปิดโอกาสให้ทุกคนสามารถสร้างสื่อเลียนแบบได้ที่บ้าน

โดยส่วนใหญ่ บทบาทของ Deepfake จะพบเห็นกันผ่านสื่อลามกที่เปลี่ยนหน้าตาของดารากับนักแสดงหนังผู้ใหญ่ ซึ่งเป็นฝีมือของมือสมัครเล่นที่หาอะไรทำฆ่าเวลา หรือสลับหน้ากับนักการเมืองให้พูดเรื่องขบขัน อย่างไรก็ตาม Deepfake ก็สามารถเป็นภัยคุมคามระดับชาติและทำลายชีวิตคนมาแล้ว

พิษภัยของ Deepfake 

การใช้ Deepfake ในทางที่ไม่ดีสร้างความกังวลใจให้หลายคน โดยเฉพาะในแวดวงการเมือง นายมาร์โค รูบิโอ สมาชิกวุฒิสภาพรรครีพับลิกันแห่งฟลอริด้า เปรียบเทียบความอันตรายของ Deepfake กับระเบิดนิวเคลียร์ โดยให้สัมภาษณ์ว่า “ถ้าเป็นสมัยสิบปีก่อน การจะข่มขู่สหรัฐฯ ให้กลัวได้ ต้องใช้กำลังทหารที่เหนือกว่าและระเบิดนิวเคลียร์มาประมือ ทว่าในปัจจุบันการแฮกเข้าระบบธนาคารโลก ฐานข้อมูลภายใน และที่สำคัญที่สุดคือการสร้างสื่อปลอม สามารถตัดสินผลการเลือกตั้ง และอาจมีผลกระทบต่อความมั่นคงแห่งชาติได้ ”

ด้วยความแนบเนียนของการทำสื่อเลียนแบบได้เหมือนบุคคลต้นฉบับ เกิดคำถามมากมายตามมา นายทิม ฮวัง เจ้าหน้าที่กำกับดูแลโครงการ AI Initiative ที่ MIT Media Lab กล่าวกับ CSO ว่า “มันไม่อันตรายเท่าระเบิดนิวเคลียร์หรอก แน่นอนล่ะ ที่เราเห็นคลิปล้อเลียนบนอินเตอร์เน็ตอาจทำให้หลายคนกังวลใจ และเกิดคำถามขึ้นมากมาย แต่ผมก็ไม่คิดว่ามันจะมีอิทธิพลอย่างที่ผู้คนเล่าลือกัน”

ผู้ใช้ทั่วไปสามารถดาวน์โหลด FakeApp และสร้าง Deepfake ของตนเองได้ในทันที แต่ต้องอาศัยความเข้าใจในเทคโนโลยีเล็กน้อย สามารถอ่านบทความตัวอย่างได้ที่นี่

นายทิม ฮวัง กล่าวเพิ่มเติมอีกว่า “มีอีกหลากหลายวิธีการที่จะบิดเบือนข้อเท็จจริง ข่าวสาร หรือคำพูด ซึ่งไม่จำเป็นต้องใช้ Deepfake ก็สามารถเปลี่ยนกระแสความคิดของผู้คนได้”

ยกตัวอย่างเช่น วิดีโอทำร้ายร่างกายพร้อมกับคำบรรยายเท็จ อาจอ้างว่าชาวแรงงานต่างด้าวทำร้ายชาวไทย ก็สามารถบิดเบือนข้อเท็จจริงได้โดยไม่ต้องใช้ ML (Machine Learning) อัลกอริทึมด้วยซ้ำ

 

 

หลักการทำงานของ Deepfake 

มนุษย์จะเชื่อในสิ่งที่ตนเองอยากให้เป็นไปตามใจ และไม่แยแสต่อสิ่งอื่นที่ขัดต่อความรู้สึกตนเอง แม้สิ่งนั้นจะเป็นข้อมูลเท็จก็ตาม การรับสารโดยไม่ไตร่ตรอง อาจนำมาซึ่งการเผยแพร่ข้อมูลผิด ๆ ได้

การเผยแพร่ Fake news สร้างผลกระทบมากกว่าที่คิด กว่าจะทราบข้อเท็จจริงก็อาจสายเกินไป โดยเฉพาะช่วงวิกฤติโควิดนี้ การใช้ประโยชน์จากความตื่นตระหนักของผู้คนเป็นเครื่องมือหากิน ได้สร้างความเดือดร้อนให้แก่สังคมเป็นวงกว้าง ซึ่งเป็นผลพวงมาจากการแชร์ข้อมูลเท็จ

Deepfake ได้อาศัยประโยชน์จากพฤติกรรมนี้โดยการใช้ GANs (Generative Adversarial Networks) ให้ ML สองตัวประมวลผลจากชุดข้อมูล (Generator) และอีกตัวตรวจจับสื่อปลอมแปลง (Discriminator) เมื่อ Discriminator ตรวจจับสื่อปลอมแปลงได้ Generator ก็จะประมวลผลจากชุดข้อมูลให้สื่อออกมาคล้ายกับต้นฉบับมากยิ่งขึ้น โดยจะประมวลผลไปจนกว่าจะไม่สามารถตรวจพบสื่อของปลอมได้ ยิ่งชุดข้อมูลเยอะเท่าไร สื่อที่ออกมาก็จะเหมือนกับต้นฉบับมากเท่านั้น ด้วยเหตุนี้เอง สื่อที่พบเห็นส่วนมากจึงเป็นของดาราดัง เพราะมีภาพต้นแบบให้เลือกใช้อยู่บนอินเทอร์เน็ตเยอะนั่นเอง

ถึงแม้ว่าส่วนใหญ่ GANs จะใช้สร้างสื่อลามกและล้อเลียนผู้นำประเทศให้พูดเรื่องขบขัน แต่ก็เป็นเทคโนโลยีเรียนรู้ด้วยตนเองของ AI ที่มีศักยภาพ ในแง่ของการพัฒนาระบบขับเคลื่อนด้วยตนเองของยานพาหนะ ที่สามารถจำแนกผู้คน สิ่งกีดขวาง และยานพาหนะได้ อีกทั้งยังทำให้ระบบสนทนาของ Alexa และ Siri ฉลาดขึ้นอีกด้วย

 

ตัวอย่างของ Deepfake

 

ภาพจำลองเหตุการณ์แผ่นดินไหวที่ญี่ปุ่น จาก Science and Invention/Novak Archive

การสร้างสื่อปลอมเกิดมานานแล้ว ย้อนไปในช่วง 1930 สมัยที่ภาพถ่ายใช้เวลานับสัปดาห์ในการเผยแพร่ไปยังอีกทวีป ผู้ผลิตภาพยนต์ต้องใช้แบบจำลองเหตุการณ์แผ่นดินไหวหรือไฟป่าบนลังกระดาษจำลอง เพื่อให้การบรรยายข่าวมีมิติมากขึ้นและเป็นปัจจุบัน โดยคาดหวังว่าผู้ชมจะเข้าใจว่าเป็นเหตุการณ์ที่เกิดขึ้นจริง

 

@deeptomcruise

My 🐢 impression...

♬ origineel geluid - Tom

 

ทางสื่อโซเชียลอย่าง TikTok มีกระแสเกิดขึ้นโดยผู้ใช้รายหนึ่ง (@deeptomcruise) ที่มีหนัาตาเหมือนกับนักแสดงดังอย่างทอม ครูซ แท้จริงแล้วเป็นการแสดงเลียนแบบบุคคล และใช้อัลกอริทึมของ AI ในซอฟต์แวร์ DeepFaceLab เพื่อให้เกิดสื่อที่ตบตาผู้ชมได้อย่างแนบเนียน

ผู้เชี่ยวชาญ VFX ชาวเบลเยี่ยมคริส อูเม บุคคลเบื้องหลังวิดีโอกล่าวว่า “การทำคลิปนั้นไม่ใช่คนทั่วไปจะทำได้ การจะผลิตคลิปได้ต้องใช้เทคนิค AI, CGI และ VFX รวมไว้ด้วยกัน เพื่อทำให้วิดีโอออกมาแนบเนียนที่สุด คนที่ตาไม่ดีอาจแยกความแตกต่างไม่ออกเลยทีเดียว”

 

จับพิรุธของ Deepfake

การจับผิด Deepfake ทำได้ยาก แต่ถ้าเป็นสื่อของมือสมัครเล่นสามารถตรวจสอบได้ด้วยตาเปล่า การสังเกตจังหวะการกระพริบตาที่ผิดปกติ หรือแสงเงาที่ดูแปลกไป GANs มีการพัฒนาอยู่อย่างต่อเนื่อง และในอนาคต มนุษย์อาจต้องพึ่งพาเทคโนโลยีเข้ามาช่วยตรวจสอบทั้งหมด

โครงการค้นคว้าเพื่อหาวิธีตรวจสอบสื่อที่ดียิ่งขึ้น ทำให้หน่วยงานวิจัยและพัฒนาเทคโนโลยีป้องกันประเทศ ของสหรัฐอเมริกา หรือ DARPA ต้องทุ่มเงินเป็นจำนวนมาก อย่างไรก็ตาม GANs สามารถเรียนรู้วิธีการหลีกเลี่ยงการตรวจจับได้ อาจเป็นไปได้ยากที่จะประสบความสำเร็จในโครงการนี้

นายเดวิด กันนิง หัวหน้าโครงการ กล่าวว่า “ทางทฤษฏีแล้ว การตรวจจับ GANs ในปัจจุบันยังไม่สามารถทำได้ อีกทั้งเรายังไม่ทราบถึงขีดจำกัดของ GANs ที่มีโปรแกรมหลีกเลี่ยงการตรวจจับได้”

หากว่าเราไม่สามารถแยกแยะสื่อจริงออกจากของปลอมได้ สิ่งที่เราเห็นหรือได้ยินอาจหมดความน่าเชื่อถือ โดยเฉพาะในยุคที่อินเตอร์เน็ตมีบทบาทสำคัญในชีวิตประจำวันของเรา การที่ข้อมูลบนอินเตอร์เน็ตเต็มไปด้วยคำโป้ปด อาจนำไปสู่จุดจบของความเชื่อมั่นในสื่อออนไลน์ได้ ผลกระทบไม่ได้จำกัดอยู่ในแวดวงการเมืองเท่านั้น แต่ในระยะยาว อาจส่งผลต่อความเชื่อมั่นในโลกความเป็นจริงที่เราอาศัยอยู่ก็เป็นได้

นายทิม ฮวัง ให้ความเห็นว่าคำพูดดังกล่าวเป็นคำกล่าวที่เกินจริง และสื่อปลอมแปลงไม่ได้ส่งผลกระทบที่ใหญ่หลวงดังที่กล่าวอ้าง

สุดท้ายแล้ว การตื่นตัวไว้ก่อนเป็นการป้องกันที่ดีที่สุด เพื่อรู้ทันและสามารถแยกแยะข้อเท็จจริงออกได้

 

kp
share

You are staring at the professional

Dont’ hesitate and tell us about your project

Top