X ห้ามบุคคลภายนอกใช้เนื้อหาสำหรับการฝึกอบรม AI โดยไม่ได้รับอนุญาต

X แบนการใช้เนื้อหาเพื่อฝึก AI โดยไม่ได้รับอนุญาต จริงหรือ?

เมื่อแพลตฟอร์มเริ่มควบคุมการใช้คอนเทนต์ในการฝึก AI คำถามสำคัญคือ สิทธิของผู้สร้างจะได้รับการปกป้องแค่ไหน

X (อดีตคือ Twitter) ได้อัปเดตข้อตกลงนักพัฒนา ไม่อนุญาตให้ใช้โพสต์เพื่อฝึกหรือปรับ fine-tune AI foundation และ frontier models โดยตรงผ่าน API

เบื้องหลังการเปลี่ยนแปลงนี้คือการวางหมากเชิงกลยุทธ์ เปิดทางให้ X สามารถทำข้อตกลงเชิงพาณิชย์กับพันธมิตรเฉพาะ หรือสร้าง AI จากข้อมูลของตนเองภายใต้เงื่อนไขที่ควบคุมได้

การควบคุมสิทธิ์เนื้อหาคือการลงทุนระยะยาวที่สร้างแต้มต่อในสนามแข่งขัน AI

อย่างไรก็ตาม ข้อจำกัดนี้ใช้เฉพาะกับผู้เข้าถึงผ่าน API ผู้ใช้งานทั่วไปยังอาจถูกนำข้อมูลไปใช้โดยพันธมิตร ยกเว้นเลือก opt-out ซึ่งยังเป็นกระบวนการที่ไม่ชัดเจนสำหรับผู้ใช้ส่วนใหญ่

แนวโน้มนี้สะท้อนถึงท่าทีของแพลตฟอร์มอย่าง Reddit ที่ห้ามเข้าถึงข้อมูลโดยนักพัฒนา แล้วหันไปเจรจาขายข้อมูลกับผู้เล่นรายใหญ่ เช่น Google แทน

placeholder image

คำถามคือ การเปลี่ยนแปลงนี้จะช่วยปกป้องทรัพย์สินทางปัญญาของผู้สร้างคอนเทนต์ได้จริง หรือกลายเป็นเครื่องมือผูกขาดเนื้อหา?

ผู้สร้างควรได้รับเครื่องมือจัดการสิทธิ์อย่างชัดเจน เช่น ระบบ opt-in/opt-out ที่โปร่งใส หรือระบบ takedown ที่ทำงานได้จริงเมื่อเนื้อหาถูกนำไปใช้โดยไม่ได้รับอนุญาต

แพลตฟอร์มที่ให้ผู้ใช้ควบคุมสิทธิ์การใช้เนื้อหาได้ จะสร้างความไว้วางใจและเสริมสร้างระบบนิเวศดิจิทัลอย่างยั่งยืน

กรณีของ LinkedIn และ Meta ที่ให้ opt-out ภายใต้ GDPR คือจุดเริ่มต้น แต่หลายแพลตฟอร์มยังไม่แสดงความชัดเจนต่อผู้ใช้ในเรื่องการใช้ข้อมูลเพื่อฝึก AI

ผู้เชี่ยวชาญด้านความเป็นส่วนตัวเสนอว่า โมเดลที่โปร่งใส ตรวจสอบได้ และให้สิทธิ์แบบ opt-in ควรกลายเป็นมาตรฐานใหม่ โดยเฉพาะเมื่อ AI ต้องอาศัยข้อมูลขนาดใหญ่จากสาธารณะ

ท้ายที่สุด การจำกัดการใช้เนื้อหาไม่ได้เป็นเพียงการตั้งกำแพง แต่คือการวางโครงสร้างใหม่ให้แพลตฟอร์มสามารถสร้างคุณค่าทางเศรษฐกิจและความเชื่อมั่นระยะยาวแก่ผู้สร้างคอนเทนต์ พร้อมเดินหน้ากับโลก AI อย่างรับผิดชอบ


Posted

in

by

Tags:

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *