Mindblown: a blog about philosophy.
-

Oakley Meta HSTN แว่นไม่ใช่แค่แว่น
แว่นไม่ใช่แค่แว่น: เมื่อ Oakley และ Meta ถอดรหัสอนาคตของสายตา จะเกิดอะไรขึ้น ถ้าสิ่งที่อยู่บนใบหน้าเราทุกวัน กลายเป็นสมองที่สอง? นั่นคือคำถามที่แว่นตาอัจฉริยะรุ่นใหม่อย่าง Oakley Meta HSTN ตั้งใจจะตอบ ไม่ใช่แค่ด้วยสเปกเทคโนโลยี แต่ด้วยการตีความใหม่ว่าแว่นควรเป็นอะไรได้บ้าง นี่ไม่ใช่แว่นสายตา ไม่ใช่แว่นกันแดด แต่คือ อินเทอร์เฟซระหว่างสายตา เสียง และ AI โดยที่หน้าตายังดูเท่พอจะใส่ออกกำลังกายหรือเดินห้างโดยไม่สะดุดตาเกินไป Meta ร่วมกับ Oakley เปิดตัวแว่นรุ่นใหม่ภายใต้ชื่อ HSTN ซึ่งมีดีไซน์จาก Oakley ผสานกล้องและลำโพงที่ Meta พัฒนามาอย่างต่อเนื่อง ฟีเจอร์หลักคือกล้อง 3K Ultra HD สำหรับถ่ายภาพ-วิดีโอ, ลำโพง open-ear, ไมโครโฟนตัดเสียงรบกวน, และผู้ช่วยอัจฉริยะ Meta AI แว่นยังสามารถ แปลภาษาแบบเรียลไทม์, สแกน QR, ถามตอบกับ AI และรองรับคำสั่งเสียง ทำให้มันไม่ใช่แค่ gadget แต่เป็น…
-

Codex เมื่อโค้ดไม่ใช่สิ่งที่เราต้องเขียนอีกต่อไป
Codex จาก OpenAI: จุดเริ่มของยุคใหม่ที่มนุษย์ ‘สั่งงาน’ โค้ดแทน ‘เขียนเอง’ บทความนี้ เราทำการสรุปและปรับปรุงให้กระชับจากคลิปด้านล่าง เราจะยังต้องเขียนโค้ดด้วยตัวเองอีกนานแค่ไหน? ในวันที่ AI เริ่มสามารถแก้บั๊ก สร้าง PR และเรียนรู้จากสภาพแวดล้อมเหมือนมนุษย์ เรื่องนี้ไม่ใช่แค่เทคโนโลยี แต่มันคือการตั้งคำถามถึงบทบาทของนักพัฒนาในโลกที่เอเจนต์กำลังลุกขึ้นมาทำงานเอง Codex ไม่ใช่ชื่อใหม่ แต่ OpenAI กลับมาใช้ชื่อนี้อีกครั้ง เพื่อแทนภาพของ AI ที่มีคอมพิวเตอร์เป็นของตัวเอง สามารถรับคำสั่งจากมนุษย์แล้วไปทำงานอยู่เบื้องหลัง ก่อนจะส่งผลลัพธ์กลับมาเป็น Pull Request ที่แทบไม่ต้องแตะ ต่างจาก GPT ที่เก่ง autocomplete หรือ Copilot ที่เป็นคู่คิด Codex ตั้งใจให้เป็น “เพื่อนร่วมทีมที่รับงานแล้วไปทำเอง” โดยไม่ได้รบกวนผู้ใช้ระหว่างทาง คล้ายกับการจ้างอินเทิร์นที่เก่งพอจะส่งงานกลับมาได้คุณภาพเกือบเท่าทีม Dev จริง Codex คือภาพทดลองของการพัฒนา Software ในโลกที่ AI ทำงานบนเครื่องตัวเอง และมนุษย์กลายเป็นผู้รีวิว ไม่ใช่ผู้สร้างทั้งหมด เบื้องหลังความเปลี่ยนแปลงนี้ไม่ได้เกิดจากแค่พลังของโมเดล แต่เกิดจาก…
-

vLLM คืออะไร หรือจะเป็นพลังเงียบเบื้องหลังความเร็วของโมเดล
ทำไมการตอบสนองของ AI บางระบบจึงรวดเร็ว… ขณะที่บางระบบกลับเชื่องช้า? เราอาจเคยสัมผัส chatbot ที่ตอบแทบจะทันที และก็เคยหงุดหงิดกับบางระบบที่นิ่งสนิทนานนับวินาที ความแตกต่างนั้นเกิดจากอะไร? และถ้าคำตอบคือ “โครงสร้างการประมวลผลเบื้องหลัง” มันกำลังบอกอะไรเกี่ยวกับอนาคตของการใช้งาน AI จริงจังในระดับองค์กร? เมื่อเราเอ่ยถึงระบบอย่าง LLM หรือ Large Language Models สิ่งที่ซ่อนอยู่คือกลไกที่ซับซ้อนระดับการจำลองกระบวนการคิดของมนุษย์ แต่ละคำที่ถูก generate ไม่ได้เกิดขึ้นทันที มันต้องอาศัยพลังประมวลผลระดับสูงจาก GPU เพื่อคาดเดาคำถัดไป ทุก token คือต้นทุน และทุกคำตอบคือผลลัพธ์ของระบบพยากรณ์อันละเอียดอ่อน What exactly is vLLM? มันคือ library ที่ถูกออกแบบมาเฉพาะสำหรับงาน inference ของ LLM โดยมีเป้าหมายเพื่อเร่งความเร็วและลดการใช้หน่วยความจำในการให้บริการโมเดลขนาดใหญ่ ทีมวิจัยจาก UC Berkeley พัฒนา vLLM เพื่อแก้ปัญหาคอขวดของระบบเสิร์ฟ LLM แบบเดิม ทั้งในแง่ของ throughput และ memory efficiency…
-

Content Is Still King เมื่ออำนาจไม่ได้อยู่ที่ใครพูดดัง แต่ใครพูดได้ใจ
Content Is Still King เมื่ออำนาจไม่ได้อยู่ที่ใครพูดดัง แต่ใครพูดได้ใจ ทุกครั้งที่วงการเปลี่ยน คนที่ตั้งคำถามใหม่ก่อนมักจะอยู่รอด. และในวันที่ AI เริ่มพูดแทนเราได้แทบทุกอย่าง คำถามที่น่าถามไม่ใช่ “เขียนอะไรดี” แต่คือ “เราจะพูดยังไงให้เขาอยากฟังซ้ำ?” AI อาจตอบคำถามเร็วขึ้น ตรงประเด็นขึ้น แต่ content ที่กระทบใจคนไม่ใช่แค่การตอบถูก. มันคือ การทำให้คนรู้สึกว่าเขาถูกเข้าใจ. และนั่นคือสิ่งที่ content creator ยังได้เปรียบ. ในวันที่ search traffic ไม่ไหลเข้ามาอัตโนมัติ เราต้องกลับมาถามว่า “ถ้าไม่มี Google วันนี้ คนจะมาเจอเราได้ยังไง?” นั่นอาจหมายถึง การสร้างชุมชนที่เลือกฟังเรา มากกว่าการหวังให้ใครสักคนพิมพ์คำในช่องค้นหา. ตัวอย่างที่น่าสนใจคือ “The Browser” จดหมายข่าวที่คัดบทความลึกซึ้งจากทั่วโลกโดยไม่มี AI ช่วย. เขาไม่เขียนเนื้อหาเองเลย แต่มีคนสมัครสมาชิกรายปีเพื่อให้ curated content พาเขาไปพบสิ่งที่ไม่เคยรู้ว่าตัวเองอยากอ่าน. ไม่ใช่ SEO แต่คือ Trust. อีกตัวอย่างคือนักเขียนนามปากกาใน…
-

เมื่อ Google ตัดสินใจเปลี่ยนตัวเอง ก่อนจะถูกโลกเปลี่ยน
เมื่อ Google ตัดสินใจเปลี่ยนตัวเอง ก่อนจะถูกโลกเปลี่ยน การเปลี่ยนแปลงบางอย่างไม่ได้เริ่มต้นจากความพร้อม แต่จากแรงกดดันที่ไม่มีทางเลี่ยง. เมื่อ Google ตัดสินใจเปิดแผน “ซื้อเวลา” ด้วยการให้พนักงานสมัครใจลาออก เพื่อทุ่มทรัพยากรให้ AI เรากำลังอยู่ต่อหน้าช่วงหัวเลี้ยวของยุคสมัย. Google ไม่ได้แค่ลดคน แต่มันกำลังรื้อระบบความมั่นคงของตัวเอง เพื่อสร้างพื้นที่ให้สิ่งที่ยังไม่มีใครรู้ว่าจะสำเร็จไหม: การเป็นผู้นำด้าน AI ที่แท้จริง. แผนนี้เริ่มจากทีม Core Systems, Knowledge & Information, Marketing และ Research ที่ได้รับข้อเสนอให้ลาออกโดยสมัครใจ พร้อมค่าชดเชยที่มากพอจะเรียกว่า “ซื้อเวลาให้ตัวเอง”. “เราต้องการให้ทุกคนมีพลังอย่างไม่เคยมีมาก่อน และร่วมสร้างสิ่งใหม่ที่ไม่มีใครรู้ว่าเป็นอย่างไร” — จากบันทึกของ Jen Fitzpatrick รองประธาน Google นับตั้งแต่ต้นปี 2000 โลกของสื่อออนไลน์มีรากฐานอยู่บนการไหลของ “ลิงก์สีน้ำเงิน” ที่นำผู้คนมาจาก Google Search แต่วันนี้ AI กำลังเปลี่ยนพฤติกรรมของมนุษย์ และ Google กำลังกลายร่างเป็น “เครื่องตอบคำถาม”…
-

AI แซงมนุษย์: โลกปี 2030 จากสายตา Google
เมื่อ AI แซงมนุษย์: โลกปี 2030 จากสายตา Google AI จะเข้าใกล้ปัญญาเหนือมนุษย์ภายในปี 2030 เป็นคำกล่าวจาก Sundar Pichai ซีอีโอของ Google ที่อาจเปลี่ยนวิธีคิดของเราต่อเทคโนโลยีไปตลอดกาล แต่ความหมายแท้จริงของสิ่งนี้คืออะไร? และจะเกิดอะไรขึ้นเมื่อสติปัญญาประดิษฐ์ก้าวเข้าสู่ระดับที่ไม่ใช่แค่ “ช่วย” มนุษย์อีกต่อไป แต่กลายเป็น หุ้นส่วนปัญญา ที่เปลี่ยนแปลงโครงสร้างของความรู้และการสร้างสรรค์ทั้งโลก? Pichai ย้ำว่า AI ไม่ใช่เพียงอีกหนึ่งเทคโนโลยี แต่มันคือ จุดเปลี่ยนทางอารยธรรม เหนือกว่าไฟหรือไฟฟ้า เพราะมันสามารถ ปรับปรุงตัวเองได้ อย่างไม่มีที่สิ้นสุด กรณี AlphaGo ที่เคลื่อนไหวแบบไม่คาดคิดในตา 37 ได้กลายเป็นสัญลักษณ์ของโมเดลที่พัฒนาเหนือจินตนาการของมนุษย์ โมเดลเช่น Veo 3 แสดงให้เห็นว่า การเรียนรู้เชิงลึกสามารถเปลี่ยนรูปแบบของการสร้าง ไม่เพียงในภาพยนตร์ แต่ในทุกมิติของเนื้อหา Google มองว่า ความคิดสร้างสรรค์ไม่ควรถูกจำกัดโดยจำนวนผู้สร้าง แต่ควรถูกปลดปล่อยโดยเครื่องมือที่มีพลัง จากอดีตที่มีเพียงไม่กี่คนเข้าถึงการผลิตสื่อ วันนี้ AI ทำให้ผู้คนกว่า 8 พันล้านสามารถเป็นผู้สร้างได้จริง…
-

Ilya Sutskever บอกว่า AI จะทำได้ทุกอย่างที่เราทำได้
เมื่อ Ilya Sutskever บอกว่า “AI จะทำได้ทุกอย่างที่เราทำได้” บางประโยคฟังเผิน ๆ เหมือนคำประกาศ แต่พอฟังชัด ๆ กลับรู้สึกเหมือนกระจกที่สะท้อนกลับมาหาเราเอง ในพิธีรับปริญญาของมหาวิทยาลัยโตรอนโต Ilya Sutskever พูดกับนักศึกษาจบใหม่ว่า AI จะสามารถทำทุกอย่างที่มนุษย์สามารถทำได้ Ilya Sutskever คือหนึ่งในผู้ร่วมก่อตั้ง OpenAI และเป็นอดีตหัวหน้านักวิทยาศาสตร์ขององค์กร เขามีบทบาทสำคัญในการพัฒนาโมเดล deep learning ระดับโลกอย่าง GPT และเป็นบุคคลที่อยู่เบื้องหลังการผลักดันแนวคิดว่า AI ควรถูกพัฒนาอย่างปลอดภัยและเพื่อประโยชน์ของมนุษยชาติ เขาเป็นหนึ่งในนักวิจัยที่ทำให้ deep learning กลายเป็นกระแสหลักของโลกเทคโนโลยี และเคยร่วมงานกับ Geoffrey Hinton หนึ่งในบิดาแห่ง AI รุ่นใหม่ ไม่ใช่คำขู่ แต่ก็ไม่ใช่คำปลอบใจ มันคือการชี้ว่าโลกกำลังเคลื่อนไปแบบเงียบ ๆ — แต่ลึก และจริง “อนาคตจะไม่ใช่อนาคตของ AI หรือของมนุษย์ แต่มันคืออนาคตของเรา ที่ต้องอยู่ร่วมกัน” Ilya ไม่ได้พูดถึงแค่เทคโนโลยี…
-

ถ้าต่อไป AI ไม่ต้อง Prompt ?
ถ้าต่อไป AI ไม่ต้อง Prompt อะไรจะมาแทน เราอาจเคยคิดว่า “prompt” คือกุญแจสำคัญในการเปิดศักยภาพของ AI — คำพูดหรือคำสั่งที่ออกแบบมาอย่างตั้งใจ เพื่อให้เครื่องจักรเข้าใจและตอบสนอง แต่ในวันที่ AI เริ่มเข้าใจโดยไม่ต้องสั่งมาก ไม่ต้องป้อนบริบทเยอะ ไม่ต้อง “บอกให้คิด” แล้ว หน้าที่ของมนุษย์จะเหลืออะไร? “เมื่อ prompt ไม่ใช่สิ่งที่จำเป็นที่สุด สิ่งที่แทนที่มันคือความตั้งใจและเจตนาเบื้องหลัง” เพราะวันหนึ่ง AI อาจรู้ว่าเราต้องการอะไรโดยไม่ต้องพูด สิ่งที่สำคัญกว่า prompt อาจกลายเป็น ความสามารถในการมองเห็นภาพรวมของความสัมพันธ์ระหว่างมนุษย์กับ AI นักออกแบบ prompt ในอนาคต อาจกลายเป็นนักออกแบบ “ระบบความสัมพันธ์” ระหว่างมนุษย์กับ AI ไม่ใช่แค่คนเขียนคำถามให้ได้คำตอบดี ๆ เราจะต้องคิดลึกไปถึง “บริบทที่ AI อยู่” และ “ผลกระทบที่การสื่อสารหนึ่งจะส่งต่อไปยังโลกจริง” แทนที่จะแค่โฟกัสที่คำว่าอะไรคือ prompt ที่ดี ดังนั้นสิ่งที่จะมาแทน prompt อาจไม่ใช่คำใหม่ แต่คือ วิธีคิดที่ใหม่ต่อการอยู่ร่วมกับสิ่งที่คิดได้เอง…
-

Krea 1 – โมเดลสร้างภาพ AI ที่เปลี่ยนเกม
Krea 1 – โมเดลสร้างภาพ AI ที่เปลี่ยนเกม ทำไม AI สร้างภาพถึงยังไม่เคยรู้สึก “ใช่” จริงๆ สำหรับคุณ? Krea 1 ไม่ได้แค่อัปเกรดจากของเดิม แต่มันเหมือน “เปลี่ยนเวที” ให้กับวงการสร้างภาพ AI ทั้งหมด ด้วยพลังของโมเดลที่เข้าใจสไตล์และแสงเงาเหมือนตากล้องมืออาชีพ เบื่อไหมกับภาพที่ดู “ปลอม” และซ้ำกันไปหมด? Krea 1 ปลดล็อกขีดจำกัดนั้น ด้วยเทคโนโลยี Style Reference อัปโหลดภาพใดก็ได้ แล้วมันจะดึงดีเอ็นเอของภาพนั้นมาสร้างภาพใหม่ในอารมณ์เดียวกัน — ทรงพลังแบบไม่ต้องใส่ prompt ยากๆ คุณแค่โยนภาพที่ใช่เข้าไป แล้วดู AI ทำงานเหมือนมีกราฟิกดีไซเนอร์ส่วนตัวในคลิกเดียว ไม่ใช่แค่ภาพดูดี มันรองรับความละเอียดสูงถึง 4K โดยยังคงรายละเอียดของผิว แสง วัตถุ ได้ครบถ้วน ราวกับภาพถ่ายจริง ความคมชัดที่มันสร้างได้ ไม่ใช่แค่แสดงผลลัพธ์ชัดเจน แต่ยังรองรับการนำไปใช้จริง — ไม่ว่าจะเป็นป้ายโฆษณา โปรเจกต์ NFT…
-

Seedance 1.0 จาก ByteDance
Seedance 1.0: วิดีโอ AI ที่คิดเหมือนผู้กำกับ AI video model ส่วนใหญ่แค่เรนเดอร์เฟรมให้ครบตาม prompt แต่ Seedance 1.0 ไปไกลกว่านั้น มัน “ออกแบบกล้อง” เหมือนผู้กำกับที่อ่านบทแล้วรู้ว่าต้องแพนซ้ายเมื่อไหร่ ต้องซูมเข้าเมื่อไร เพื่อพาอารมณ์ของฉากให้ไหลไปต่อ นี่ไม่ใช่แค่ T2V (Text-to-Video) หรือ I2V (Image-to-Video) ทั่วไป แต่มันคือการสังเคราะห์ “multi-shot cinematic reasoning” ให้ภาพหลายช็อตเรียงต่อกันอย่างลื่นไหล ทั้งมุมกล้องและแสงเงาอยู่ในทิศเดียวกันราวกับมี DOP มืออาชีพควบคุมอยู่เบื้องหลัง ระบบภายในที่ทำให้มันต่าง Seedance ใช้สถาปัตยกรรมแบบ 3-phase: แต่ละส่วนไม่เพียงเข้าใจคำสั่งเท่านั้น มันยังรู้ว่า “อะไรควรมาก่อน–หลัง” เช่น กล้องควรดึงออก (pull back) ก่อนตัวละครหาย หรือควร cut-in shot มา close-up เมื่อตัวละครแสดงสีหน้าเปลี่ยน เปรียบเทียบกับคู่แข่ง Sora เน้นความสมจริงRunway…
Got any book recommendations?