X แบนการใช้เนื้อหาเพื่อฝึก AI โดยไม่ได้รับอนุญาต จริงหรือ?
เมื่อแพลตฟอร์มเริ่มควบคุมการใช้คอนเทนต์ในการฝึก AI คำถามสำคัญคือ สิทธิของผู้สร้างจะได้รับการปกป้องแค่ไหน
X (อดีตคือ Twitter) ได้อัปเดตข้อตกลงนักพัฒนา ไม่อนุญาตให้ใช้โพสต์เพื่อฝึกหรือปรับ fine-tune AI foundation และ frontier models โดยตรงผ่าน API
เบื้องหลังการเปลี่ยนแปลงนี้คือการวางหมากเชิงกลยุทธ์ เปิดทางให้ X สามารถทำข้อตกลงเชิงพาณิชย์กับพันธมิตรเฉพาะ หรือสร้าง AI จากข้อมูลของตนเองภายใต้เงื่อนไขที่ควบคุมได้
การควบคุมสิทธิ์เนื้อหาคือการลงทุนระยะยาวที่สร้างแต้มต่อในสนามแข่งขัน AI
อย่างไรก็ตาม ข้อจำกัดนี้ใช้เฉพาะกับผู้เข้าถึงผ่าน API ผู้ใช้งานทั่วไปยังอาจถูกนำข้อมูลไปใช้โดยพันธมิตร ยกเว้นเลือก opt-out ซึ่งยังเป็นกระบวนการที่ไม่ชัดเจนสำหรับผู้ใช้ส่วนใหญ่
แนวโน้มนี้สะท้อนถึงท่าทีของแพลตฟอร์มอย่าง Reddit ที่ห้ามเข้าถึงข้อมูลโดยนักพัฒนา แล้วหันไปเจรจาขายข้อมูลกับผู้เล่นรายใหญ่ เช่น Google แทน
คำถามคือ การเปลี่ยนแปลงนี้จะช่วยปกป้องทรัพย์สินทางปัญญาของผู้สร้างคอนเทนต์ได้จริง หรือกลายเป็นเครื่องมือผูกขาดเนื้อหา?
ผู้สร้างควรได้รับเครื่องมือจัดการสิทธิ์อย่างชัดเจน เช่น ระบบ opt-in/opt-out ที่โปร่งใส หรือระบบ takedown ที่ทำงานได้จริงเมื่อเนื้อหาถูกนำไปใช้โดยไม่ได้รับอนุญาต
แพลตฟอร์มที่ให้ผู้ใช้ควบคุมสิทธิ์การใช้เนื้อหาได้ จะสร้างความไว้วางใจและเสริมสร้างระบบนิเวศดิจิทัลอย่างยั่งยืน
กรณีของ LinkedIn และ Meta ที่ให้ opt-out ภายใต้ GDPR คือจุดเริ่มต้น แต่หลายแพลตฟอร์มยังไม่แสดงความชัดเจนต่อผู้ใช้ในเรื่องการใช้ข้อมูลเพื่อฝึก AI
ผู้เชี่ยวชาญด้านความเป็นส่วนตัวเสนอว่า โมเดลที่โปร่งใส ตรวจสอบได้ และให้สิทธิ์แบบ opt-in ควรกลายเป็นมาตรฐานใหม่ โดยเฉพาะเมื่อ AI ต้องอาศัยข้อมูลขนาดใหญ่จากสาธารณะ
ท้ายที่สุด การจำกัดการใช้เนื้อหาไม่ได้เป็นเพียงการตั้งกำแพง แต่คือการวางโครงสร้างใหม่ให้แพลตฟอร์มสามารถสร้างคุณค่าทางเศรษฐกิจและความเชื่อมั่นระยะยาวแก่ผู้สร้างคอนเทนต์ พร้อมเดินหน้ากับโลก AI อย่างรับผิดชอบ