ทันข่าวลงทุน
Advertisement — 728×90

AMI Labs ของ Yann LeCun ทุ่มทุน $1.03B ปั้น 'World Models' ท้าชน LLM

Yann LeCun เปิดตัว AMI Labs ด้วยเงินมหาศาล $1.03B — ชู 'World Models' ไม่ใช่ LLM คืออนาคต AI

Yann LeCun ได้เปิดตัว Advanced Machine Intelligence (AMI Labs) อย่างเป็นทางการ สตาร์ทอัพใหม่นี้มุ่งมั่นที่จะ "สร้างปัญญาที่แท้จริงสู่โลกจริง" ด้วยรอบระดมทุนเริ่มต้นที่สูงลิ่วถึง $1.03B (หรือ €890M) ประเมินมูลค่าบริษัทก่อนระดมทุนที่ $3.5B นับเป็นการระดมทุนเริ่มต้นครั้งใหญ่ที่สุดครั้งหนึ่งในประวัติศาสตร์ และอาจเป็นสถิติใหม่สำหรับบริษัทในยุโรป

Alex Lebrun ซีอีโอ ระบุภารกิจของบริษัทว่าเป็น "การบุกเบิกทางวิทยาศาสตร์ระยะยาว" เพื่อสร้างระบบที่ "เข้าใจโลกจริงอย่างแท้จริง" ซึ่งสอดคล้องกับมุมมองของ LeCun ที่ยืนยันมาตลอดว่า AI ระดับมนุษย์จะถือกำเนิดจาก world modeling ไม่ใช่เพียงการขยายขีดความสามารถของการคาดการณ์ภาษาเพียงอย่างเดียว

ใครคือผู้บุกเบิก AMI? รวมพลวิสัยทัศน์กว้างไกลด้าน AI

  • Yann LeCun — ผู้ก่อตั้ง
  • Alex Lebrun — CEO
  • Saining Xie — Co-founder/CSO
  • Laurent Solly — COO
  • Pascale Fung — Co-Founder และ Chief Research & Innovation Officer
  • นักวิจัยผู้ก่อตั้งอีกจำนวนมากที่เข้าร่วมเพื่อขับเคลื่อนงานด้าน world models, representation learning, pretraining, scaling และ video โดยเฉพาะ

การรวมตัวของทีมงานนี้ถือเป็นสัญญาณทางเทคนิคที่ชัดเจน โดยผู้เชี่ยวชาญหลายคนให้ความสำคัญกับ world models, pretraining, scaling, video และ representation บางคนถึงกับนิยามว่าเป็น "ทีมงานระดับปรมาจารย์ด้านวิสัยทัศน์" ซึ่งแสดงให้เห็นว่า AMI น่าจะมุ่งเน้นไปที่การเรียนรู้แบบ self-supervised ในส่วนของ vision/video/representation เป็นหลัก ไม่ใช่แค่การเชื่อมโยงภาษาของ world-model เข้ากับโครงสร้าง LLM มาตรฐาน

JEPA และ World Models: ความแตกต่างจาก LLM ที่คาดการณ์แค่ 'คำถัดไป'

แนวคิดของ AMI สอดคล้องกับแนวทาง JEPA/world-model ของ LeCun อย่างชัดเจน โดยชุดของไอเดียหลักประกอบด้วย:

  • World models — โมเดลทำนายแบบแฝงที่เรียนรู้พลวัตของสภาพแวดล้อม โดยสร้างการแสดงสถานะที่กระชับ และคาดการณ์สถานะในอนาคต แทนที่จะทำนายกระแสข้อมูลเซ็นเซอร์ดิบ
  • JEPA (Joint Embedding Predictive Architecture) — แนวคิดที่ LeCun นำเสนอในปี 2022 โดยเรียนรู้การแสดงข้อมูลที่เป็นนามธรรมและคาดการณ์ในพื้นที่แฝงที่ถูกบีบอัด แทนที่จะพยายามสร้างทุกพิกเซล/โทเคนขึ้นมาใหม่
  • เหตุใด JEPA จึงเหนือกว่า generative modeling:
    • กระแสข้อมูลเซ็นเซอร์ในโลกจริงมีเอนโทรปีที่คาดเดาไม่ได้และไม่เกี่ยวข้องจำนวนมาก
    • การคาดการณ์พิกเซล/วิดีโอแบบดิบไม่มีประสิทธิภาพ เพราะใช้กำลังการสร้างโมเดลไปกับสัญญาณรบกวน
    • การทำนายภาวะนามธรรมแบบแฝงอาจรองรับการวางแผน, การควบคุม และความไม่แปรผันได้ดีกว่า
  • Action-conditioned world models — โมเดลควรสามารถทำนายผลของการกระทำ เพื่อให้สามารถวางแผนก่อนลงมือปฏิบัติได้ ซึ่งใกล้เคียงกับ model-based RL/control มากกว่าการสร้างแบบจำลองลำดับเหตุการณ์แบบตั้งรับ

โดเมนเป้าหมายที่ถูกระบุย้ำๆ ได้แก่: Robotics/embodied AI, Healthcare และระบบที่ต้องการการหลอนต่ำ, การควบคุมกระบวนการอุตสาหกรรม/สภาพแวดล้อมที่สำคัญต่อความปลอดภัย รวมถึงระบบที่ต้องติดตามสถานะที่คงอยู่, ความเป็นเหตุเป็นผล และผลลัพธ์ของการกระทำในโลกจริง

แบ่งเป็น 4 มุมมอง: ผู้คนมอง AMI Labs อย่างไร?

1) ผู้สนับสนุนกระตือรือร้น: "LeCun ได้โอกาสพิสูจน์วิสัยทัศน์ของตนแล้ว" ผู้คนเหล่านี้มองว่า AMI คือทางเลือกที่รอคอยมานาน เพื่อถ่วงดุลแนวทางปัจจุบันของอุตสาหกรรมที่มุ่งเน้น autoregressive LMs, RLHF และการใช้เครื่องมือ

2) มุมมองจากสงครามสถาปัตยกรรม: "LLM คาดการณ์คำ แต่ AMI ต้องการสร้างโมเดลของความเป็นจริง" พวกเขาชี้ว่าโมเดลภาษาทำงานกับคำ/โทเคน ขณะที่ความเป็นจริงนั้นต่อเนื่อง รับรู้ได้ผ่านประสาทสัมผัส และคาดเดาได้เพียงบางส่วน โมเดลสร้างข้อมูลมักจะ overfit กับการสร้างซ้ำ ขณะที่ JEPA คาดการณ์ภาวะนามธรรมที่มีความหมายแทน

3) ทัศนคติแบบเป็นกลางเชิงปฏิบัติ: "แนวคิดน่าสนใจ แต่ตอนนี้ต้องทำให้สำเร็จให้ได้" คำถามว่า AMI จะเลือกใช้ PyTorch หรือ JAX เป็นแพลตฟอร์มหลัก สะท้อนถึงความท้าทายที่แท้จริงว่าจะนำงานวิจัยไปสู่การปฏิบัติได้อย่างไร

4) กระแส simulation/world-model ที่กว้างขึ้น: Percy Liang เสนอว่าโอกาสครั้งสำคัญถัดไปคือ "การนำสังคมใส่ลงในคอนเทนเนอร์ Docker" ผ่านโมเดลจำลอง ซึ่งแม้จะไม่เกี่ยวข้องกับ AMI โดยตรง แต่ก็ตอกย้ำว่าเหตุใดแนวคิดของ LeCun จึงได้รับการตอบรับอย่างดีในขณะนี้

AMI สำคัญอย่างไรในตอนนี้? ท้าทายสิ่งที่เคยถูก 'ตัดสินแล้ว' ในวงการ AI

AMI มีความสำคัญอย่างยิ่ง เพราะเป็นการลงทุนที่ได้รับการสนับสนุนทางการเงินสูงและมีชื่อเสียงอย่างมาก เพื่อตั้งคำถามใหม่ในสิ่งที่หลายคนในอุตสาหกรรมเคยเชื่อว่ามีคำตอบแล้ว: การคาดการณ์ 'โทเคนถัดไป' เป็นเส้นทางหลักสู่ปัญญาขั้นสูง หรือเป็นเพียงรากฐานที่มีประโยชน์แต่จำกัด?

การเปิดตัวเกิดขึ้นในช่วงเวลาที่ LLM และ AI ช่วยเขียนโค้ดประสบความสำเร็จในเชิงพาณิชย์อย่างมาก ระบบ Multimodal พัฒนาอย่างรวดเร็ว หุ่นยนต์และ world-model กลับมาได้รับความสนใจอีกครั้ง และมีความตระหนักเพิ่มขึ้นว่าคะแนนมาตรฐานในการทดสอบข้อความ/โค้ดอาจไม่สะท้อนถึงความสามารถในโลกกายภาพโดยตรง

สำหรับ ยุโรป/ฝรั่งเศส: มาครง ได้ยกย่องให้ AMI เป็นหน้าใหม่ของ AI และเป็นสัญลักษณ์ของ "la France des chercheurs, des bâtisseurs" (ฝรั่งเศสของนักวิจัยและผู้สร้าง) ขณะที่ Bpifrance ชูธงแสดงความภาคภูมิใจในฝรั่งเศสที่ได้สนับสนุนบริษัทที่มีศักยภาพ "ปฏิวัติ AI ระดับโลก"

AI เขียนโค้ด: การเปลี่ยนแปลงโครงสร้างองค์กร และยุคที่ 'การลงมือทำ' ไม่ใช่คอขวด

ประเด็นที่พูดถึงกันอย่างกว้างขวางในสัปดาห์นี้คือ ตัวแทน AI เขียนโค้ดกำลังพลิกโฉมโครงสร้างองค์กรซอฟต์แวร์ นั่นหมายถึงการ implement โค้ดไม่ใช่คอขวดอีกต่อไป แต่สิ่งสำคัญคือ การตรวจสอบ (review), สถาปัตยกรรม (architecture) และวิจารณญาณด้านผลิตภัณฑ์ (product judgment) วิศวกรจึงเปลี่ยนบทบาทเป็นผู้สร้างที่มีรสนิยมด้านผลิตภัณฑ์ หรือผู้ตรวจสอบที่มีความคิดเชิงระบบ

แนวคิดเรื่อง โครงร่างควบคุม Agent จึงมีความสำคัญยิ่ง: "Agent = Model + Harness" โดยที่ filesystems, memory, browsers, routing, orchestration และ sandboxes ล้วนเป็นส่วนหนึ่งของพื้นผิวผลิตภัณฑ์ที่แท้จริง

อัปเดตเครื่องมือใหม่: จาก VS Code Agent Hooks สู่ LangGraph 1.1 และอีกมากมาย

  • VS Code Agent Hooks — ใช้เพื่อบังคับใช้นโยบายและเป็นแนวทางในการกำหนดขั้นตอนการทำงาน
  • GitHub/Figma MCP — ช่วยปิดวงจรการทำงานระหว่าง design กับ code
  • LangGraph deploy และ LangGraph 1.1 — ทำให้การนำไปใช้งานจริงง่ายขึ้น
  • Together MCP server และ GPU Clusters — โครงสร้างพื้นฐานสำหรับการสร้างแอปพลิเคชันที่ขับเคลื่อนด้วย Agent ในระดับที่ขยายขนาดได้
  • Ollama scheduled prompts — เพิ่มวงจรอัตโนมัติแบบง่ายใน Claude Code

อย่างไรก็ตาม มีคำเตือนจากหลายแหล่งที่ชี้ว่าไม่ควรมุ่งเน้นไปที่การเพิ่มประสิทธิภาพของ "เปอร์เซ็นต์โค้ดที่เขียนโดย AI" หรือละทิ้งความเข้าใจในโค้ดทั้งหมด ส่วนเรื่องประสบการณ์ผู้ใช้ (UX) นั้น ความน่าเชื่อถือ, วงจรป้อนกลับ, หน่วยความจำ และการนำเสนออินเทอร์เฟซ มีความสำคัญเทียบเท่ากับความสามารถดิบ

ประเมิน LLM ให้แม่นยำขึ้น: ทำไมต้องใช้ Confidence Intervals?

Cameron Wolfe ได้โพสต์ข้อความอธิบายหลักสถิติเพื่อเพิ่มความน่าเชื่อถือในการประเมิน LLM โดยแนะนำให้พิจารณาคะแนนโมเดลเป็นค่าเฉลี่ยของตัวอย่าง (sample means) คำนวณความคลาดเคลื่อนมาตรฐาน (standard error) โดยใช้สูตร std / sqrt(n) และรายงาน 95% confidence intervals ในรูปแบบ x̄ ± 1.96×SE แทนที่จะพิจารณาเพียงค่าเฉลี่ยอย่างเดียว

เปิดตัวมาตรฐานทดสอบใหม่: OfficeQA Pro ยังหิน, SWE-bench มีข้อกังขา

  • OfficeQA Pro — การให้เหตุผลบนข้อมูลองค์กรยังเป็นเรื่องยาก โดย Agent ชั้นนำยังทำได้ ไม่ถึง 50%
  • SWE-bench Verified อาจประเมินเกินจริง — เนื่องจากผู้ดูแลระบบจะรวม (merge) เพียงครึ่งหนึ่งของ pull request ที่สร้างโดย Agent ซึ่งผ่านการตรวจสอบจาก grader
  • AuditBench — ใช้ LLM จำนวน 56 โมเดล ที่ถูกฝังพฤติกรรมซ่อนเร้น เพื่อการประเมินการตรวจสอบความสอดคล้อง
  • CodeClash — ทดสอบการเขียนโค้ดและการวางแผนในระยะยาว โดยโมเดลชั้นนำยังคงทำผลงานได้ไม่ดีนักในสถานการณ์การแข่งขันแบบ Adversarial ที่ต่อเนื่องและขับเคลื่อนด้วย Agent
  • การตีความร่องรอยการให้เหตุผล — มีงานวิจัยกล่าวอ้างว่า มากกว่า 97% ของ "ขั้นตอนการคิด" เป็นเพียงการตกแต่ง และการติดตาม CoT ไม่น่าเชื่อถือ

Megatron Core MoE: Framework เปิดสำหรับการเทรน MoE ขนาดใหญ่ ทำความเร็ว 1233 TFLOPS/GPU

Megatron Core MoE กำลังได้รับความสนใจในฐานะเฟรมเวิร์กโอเพนซอร์สสำหรับการฝึกโมเดล MoE ขนาดใหญ่ โดยระบุว่าสามารถทำความเร็วได้ถึง 1233 TFLOPS/GPU เมื่อใช้กับ DeepSeek-V3-685B ผู้เชี่ยวชาญบางรายมองว่าประสิทธิภาพการฝึก MoE ในลักษณะเดียวกับ DeepSeek กำลังกลายเป็นสินค้าโภคภัณฑ์

Google เปิดตัว Gemini Embedding 2: โมเดล Multimodal Embedding ตัวแรก

Google ได้เปิดตัว Gemini Embedding 2 อย่างเป็นทางการ ซึ่งเป็นโมเดล embedding แบบ Multimodal เต็มรูปแบบตัวแรกของบริษัท มาพร้อมคุณสมบัติเด่นดังนี้:

  • พื้นที่ embedding เดียว (Single embedding space) สำหรับข้อความ, รูปภาพ, วิดีโอ, เสียง และเอกสาร
  • รองรับอินพุตข้อความยาว 8,192 โทเคน
  • รองรับ 100+ ภาษา
  • มิติเอาต์พุต 3072 / 1536 / 768 ผ่าน MRL
  • รองรับ รูปภาพ 6 ภาพ, วิดีโอ 120 วินาที, PDF 6 หน้าต่อหนึ่งคำขอ

Hugging Face Storage Buckets: คลังเก็บข้อมูลแบบ S3 ในราคาเพียง $8/TB/เดือน

Hugging Face เปิดตัว Storage Buckets ซึ่งเป็นบริการจัดเก็บข้อมูลแบบเปลี่ยนแปลงได้ (mutable storage) คล้าย S3 โดยสร้างขึ้นบนเทคโนโลยี Xet deduplication ราคาเริ่มต้นที่ $8/TB/เดือน โดยมีเป้าหมายเพื่อใช้จัดเก็บ checkpoints, logs, traces, ผลลัพธ์การประเมิน และ artifact ของ Agent

อัปเดตโมเดลใหม่: RWKV-7, Hume TADA TTS และ Phi-4-reasoning-vision

  • RWKV-7 G1e — เปิดตัวด้วยขนาด 13B/7B/3B/1B
  • Hume TADA — โมเดล TTS แบบโอเพนซอร์ส ที่โดดเด่นด้วย การไม่มีการหลอนของเนื้อหาเลยแม้แต่น้อย จากตัวอย่างทดสอบกว่า 1,000 รายการ และเร็วกว่า LLM-TTS ที่เทียบเคียงได้ถึง 5 เท่า โดย 2,048 โทเคนสามารถสร้างเสียงได้ยาวนานประมาณ 700 วินาที
  • Phi-4-reasoning-vision-15B — โมเดล multimodal แบบเปิดที่มีขนาดกะทัดรัด
  • Baseten/Harvard — ความร่วมมือด้าน prefix-caching เพื่อเพิ่มประสิทธิภาพการอนุมาน

10 ปี AlphaGo และงานวิจัย AI อัตโนมัติ: การเรียนรู้แบบวนซ้ำยังคงเป็นประเด็นร้อน

นอกเหนือจาก AMI แล้ว อีกประเด็นหลักที่น่าสนใจอย่างยิ่งคือ การวิจัย ML แบบอัตโนมัติ:

  • Karpathy autoresearch — วงจรการทดลองข้ามคืนที่ Agent แก้ไขโค้ด, ฝึกโมเดลช่วงสั้นๆ และเลือกเก็บหรือทิ้งตามเมตริก ได้รับการกล่าวถึงอย่างแพร่หลาย
  • Yuchen Jin ดำเนินการ "วงจรหัวหน้านักวิทยาศาสตร์" ที่ขับเคลื่อนด้วย Claude เป็นเวลากว่า 11 ชั่วโมง ทำการทดลอง 568 ครั้งบน 8 GPU โดยสังเกตเห็นการพัฒนาจากสำรวจกว้างๆ ไปสู่การปรับปรุงที่มุ่งเน้น และการตรวจสอบความถูกต้องอย่างละเอียด
  • Karpathy ได้บอกเป็นนัยถึง AgentHub — ที่เปรียบเสมือน "GitHub สำหรับ Agent" เพื่อการทำงานร่วมกันในการวิจัยแบบ multi-agent

การครบรอบ 10 ปีของ AlphaGo ได้จุดประกายการทบทวนแนวคิดหลายอย่าง: Demis Hassabis เชื่อว่าแนวคิดการค้นหาและการวางแผนของ AlphaGo ยังคงเป็นหัวใจสำคัญของ AGI และวิทยาศาสตร์ Noam Brown ชี้ให้เห็นว่าโมเดลการให้เหตุผลในปัจจุบันดำเนินตามสูตรของ AlphaGo นั่นคือ: การเลียนแบบ (imitation) → การค้นหาขณะอนุมาน (search during inference) → การเรียนรู้แบบเสริมกำลัง (RL)

สำหรับการปรับปรุงตัวเองแบบวนซ้ำ: Schmidhuber ได้นำงาน meta-learning/RSI เก่าของตนเองกลับมานำเสนออีกครั้ง ในขณะที่บางความเห็นมองว่า unsupervised RLVR แบบพื้นฐานยังคงติดเพดาน

AI บรรลุเป้าหมาย: GPT-5.4 Pro อาจแก้โจทย์เปิด FrontierMath ได้สำเร็จเป็นครั้งแรก

หนึ่งในรายงานความสามารถที่น่าตื่นเต้นที่สุดที่ถูกกล่าวถึงคือ: มีการรายงานว่า GPT-5.4 Pro อาจสามารถแก้ไข FrontierMath open problem ได้ หากได้รับการยืนยัน นี่จะเป็นโจทย์เปิด FrontierMath ข้อแรกที่ได้รับการแก้ไขโดย AI

Google AMIE ในสถานพยาบาลฉุกเฉิน: ทัดเทียมแพทย์ แต่ยังไม่คุ้มค่า

Google รายงานผลการศึกษาทางคลินิกแบบ Prospective ของ AMIE ในกระบวนการทำงานของสถานพยาบาลฉุกเฉิน: การประเมินแบบไม่เปิดเผยข้อมูล (blinded evaluation) พบว่าคุณภาพของการวินิจฉัยแยกโรคและการวางแผนการจัดการโดยรวมนั้นใกล้เคียงกับแพทย์ปฐมภูมิ (PCPs) อย่างไรก็ตาม PCPs ยังคงทำได้ดีกว่าในแง่ของความสามารถในทางปฏิบัติ (practicality) (p=0.003) และความคุ้มค่า (cost effectiveness) (p=0.004)

Google Sheets + Gemini: คะแนน 70.48% บน SpreadsheetBench ใกล้เคียงผู้เชี่ยวชาญมนุษย์

Google Sheets with Gemini ทำคะแนนได้ 70.48% บน SpreadsheetBench ซึ่งถือว่าใกล้เคียงกับความสามารถของผู้เชี่ยวชาญที่เป็นมนุษย์ การเปิดตัว Google Workspace/Gemini ได้ขยายไปสู่ Docs, Sheets, Slides และ Drive โดยอ้างว่าสามารถทำงานบน Sheets ได้เร็วขึ้นถึง 9 เท่า

Microsoft ยังรายงานด้วยว่า สุขภาพเป็นหัวข้อที่มีการพูดถึงมากที่สุดเป็นอันดับ 1 สำหรับผู้ใช้ Copilot mobile ในปี 2025 โดยมาจากการวิเคราะห์บทสนทนากว่า 500,000 ครั้ง

AI News ประจำวันที่ 9-10 มีนาคม 2569 ตรวจสอบ 12 subreddits, 544 Twitters — ไม่มี Discord อีกต่อไป ประหยัดเวลาอ่านโดยประมาณ (ที่ 200wpm): 2,649 นาที

บทความที่เกี่ยวข้อง

ข่าว AI

โครงร่างควบคุม Agent สำคัญกว่าโมเดล — CursorBench เปิดตัว, Nemotron 3 Super เร็วกว่า GPT-OSS 2.2 เท่า

โครงร่างควบคุม Agent และ MCP กำลังกลายเป็นโครงสร้างพื้นฐานจริงของวงการ หลายโพสต์ในสัปดาห์นี้มาบรรจบกันที่มุมมองเดียวกัน — คุณภาพของโมเดลไม่ใช่คอขวดอีกต่อไปแล้ว สิ่งที่อยู่รอบตัวโมเดลต่างหากที่สำคัญกว่...

ข่าว AI

Replit Agent 4 พลิกโฉม, Nemotron 3 Super แรงกว่าเดิม: AI Agent ขึ้นแท่นเทรนด์หลัก

Replit Agent 4: ยกระดับจากแพลตฟอร์มโค้ดดิ้ง สู่ AI Agent งานความรู้เต็มตัว Replit เพิ่งทำมูลค่าเพิ่มขึ้นสามเท่าเป็น $9B ในช่วง 6 เดือนที่ผ่านมา Amjad Masad และทีมมีเซนส์ที่ยอดเยี่ยมต่อ "กระแสหลักปัจจุ...

ข่าว AI

AI เทรน AI ตัวเอง: ยุค 'Autoresearch' และบทเรียนจากความผิดพลาด

Autoresearch: เมื่อ AI เริ่มเทรน AI ด้วยตัวเอง สัญญาณแห่งการปรับปรุงตัวเองแบบวนซ้ำ ในบทนำของ AINews ฉบับนี้ ชี้ให้เห็นว่าจากผลพวงที่เกิดขึ้นหลังเหตุการณ์ WTF Happened in 2025 ตอนนี้เรากำลังก้าวเข้าสู่...