ในยุคที่เทคโนโลยีปัญญาประดิษฐ์หรือ AI กำลังก้าวกระโดดและเข้าเปลี่ยนแปลงโลกอย่างรวดเร็ว การพัฒนาโมเดล AI ที่มีทั้งความฉลาดและประมวลผลรวดเร็วอย่างเช่นทุกวันนี้ มีเบื้องหลังที่ซับซ้อนและทรงพลังมากขึ้นเรื่อย ๆ จำเป็นต้องอาศัยชิปประมวลผลที่มีประสิทธิภาพสูง โดยเฉพาะ GPU (Graphics Processing Unit) ที่ออกแบบมาเพื่อการประมวลผลแบบขนาน ซึ่งเหมาะสมกับการฝึกฝนโมเดล AI

อย่างไรก็ตาม ความต้องการชิปประสิทธิภาพสูงที่เพิ่มขึ้นอย่างก้าวกระโดดในช่วงไม่กี่ปีที่ผ่านมา ทำให้เกิดภาวะขาดแคลนในตลาด ผู้ผลิตชิปรายใหญ่อย่าง NVIDIA, AMD และ Intel ต่างเร่งกำลังการผลิตเพื่อตอบสนองความต้องการ แต่ด้วยข้อจำกัดด้านกำลังการผลิต เทคโนโลยีการผลิต และการขาดแคลนวัตถุดิบ ทำให้การผลิตชิปไม่สามารถตอบสนองความต้องการของตลาดได้ทัน สถานการณ์นี้อาจส่งผลกระทบต่อการพัฒนา AI ในอนาคต และอาจเป็นอุปสรรคสำคัญที่ทำให้การก้าวกระโดดของเทคโนโลยี AI ต้องชะลอตัวลง

ชิป AI คืออะไร?

เราเริ่มจากคำว่า ชิป ก่อน ชิป หมายถึงวงจรรวม (Integrated Circuit) ที่อยู่บนแผ่นซิลิคอนขนาดเล็ก ซึ่งสามารถมีฟังก์ชันการทำงานที่หลากหลาย เช่น การประมวลผล การเก็บข้อมูล หรือการควบคุมการทำงานของอุปกรณ์ไฟฟ้า ชิปมีหลายประเภท เช่น ชิปหน่วยความจำ (Memory Chip), ชิปควบคุม (Controller Chip), ชิปเซนเซอร์ (Sensor Chip) และชิปประมวลผล เช่น ไมโครโพรเซสเซอร์

 

AI Chip จากค่าย NVIDIA: Nvidia Newsroom

ส่วน ชิป AI (AI Chip) เป็นชิปประมวลผลที่ถูกออกแบบมาโดยเฉพาะเพื่อเพิ่มประสิทธิภาพในการทำงานของปัญญาประดิษฐ์ (Artificial Intelligence:  AI) และการประมวลผลข้อมูลที่ซับซ้อน AI Chips ถูกพัฒนาให้สามารถประมวลผลโมเดล AI ได้อย่างรวดเร็วและมีประสิทธิภาพสูง โดยชิปเหล่านี้สามารถเร่งความเร็วในการคำนวณทางคณิตศาสตร์ที่ซับซ้อน เช่น การประมวลผลแบบขนานในงานด้านการเรียนรู้ของเครื่อง (Machine Learning) หรือการประมวลผลภาพและเสียง

 

ประเภทของชิป AI

  • GPU (Graphics Processing Unit) เช่น ชิปจาก NVIDIA ที่ใช้ประมวลผลงาน AI เนื่องจากความสามารถในการประมวลผลแบบขนาน
  • TPU (Tensor Processing Unit) ชิปเฉพาะทางจาก Google สำหรับการประมวลผล TensorFlow
  • NPU (Neural Processing Unit) ชิปที่พบในสมาร์ตโฟนและอุปกรณ์ IoT เพื่อเร่งความเร็วในงาน AI
  • ASIC (Application-Specific Integrated Circuit) ชิปที่ออกแบบมาเฉพาะสำหรับงาน AI อย่างเดียว เช่น ชิปที่ใช้ในเครื่องขุด Bitcoin หรือโมเดล AI เฉพาะทาง
  • FPGA (Field-Programmable Gate Array) เป็นชิปเซมิคอนดักเตอร์ที่สามารถตั้งโปรแกรมได้ใหม่ (reprogrammable) หลังจากที่ถูกผลิตขึ้นมาแล้ว ซึ่งแตกต่างจากชิป ASIC ที่ถูกออกแบบมาเฉพาะสำหรับงานหนึ่ง ๆ และไม่สามารถปรับเปลี่ยนได้ FPGA มีลักษณะพิเศษในการประมวลผลที่ยืดหยุ่น ทำให้เหมาะสำหรับการใช้งานในระบบที่ต้องการประสิทธิภาพสูงและสามารถปรับแต่งฟังก์ชันได้ตามต้องการ

 

HBM หรือ High Bandwidth Memory อาจกลายเป้นคอขวดที่ขัดขวางการพัฒนาของวงการ AI: Videocardz

 

และที่กำลังเป็นประเด็นและเป็นพระเอกของบทความนี้ก็คือ HBM (High Bandwidth Memory) เป็นเทคโนโลยีหน่วยความจำความเร็วสูงที่ถูกพัฒนาเพื่อเพิ่มประสิทธิภาพในการประมวลผล โดยเฉพาะในงานที่ต้องการการส่งผ่านข้อมูลที่รวดเร็ว เช่น งานประมวลผลกราฟิก ปัญญาประดิษฐ์ (AI) และการประมวลผลข้อมูลขนาดใหญ่

 

คุณสมบัติของ HBM

HBM แตกต่างจากหน่วยความจำแบบเดิม (เช่น GDDR) ด้วยโครงสร้างที่เป็นแบบ 3D stack ซึ่งหมายความว่าชิปหน่วยความจำหลายตัวถูกซ้อนกันในแนวตั้ง และเชื่อมต่อกันด้วยโครงสร้างที่เรียกว่า TSVs (Through-Silicon Vias) ทำให้สามารถส่งผ่านข้อมูลได้รวดเร็วกว่าและใช้พลังงานน้อยลง ข้อมูลสามารถถูกส่งผ่านในลักษณะขนานกันในหลายช่องทาง ส่งผลให้เกิดแบนด์วิดท์สูงมากแต่มีการใช้พลังงานที่มีประสิทธิภาพ

 

ข้อดีของ HBM

  1. แบนด์วิดท์สูง HBM ให้แบนด์วิดท์ที่สูงกว่าหน่วยความจำแบบเดิมมาก ช่วยเพิ่มประสิทธิภาพในการประมวลผล โดยเฉพาะในงานที่ต้องใช้ปริมาณข้อมูลมาก เช่น การฝึกโมเดล AI และการเรนเดอร์ภาพกราฟิก

 

  1. ใช้พลังงานน้อยกว่า เนื่องจากโครงสร้างแบบ 3D stack ที่ช่วยลดระยะทางของการส่งสัญญาณ HBM ใช้พลังงานน้อยกว่าเมื่อเทียบกับหน่วยความจำแบบเดิม ทำให้เหมาะสำหรับงานที่ต้องการประสิทธิภาพสูงแต่ต้องควบคุมการใช้พลังงาน

 

  1. ขนาดกะทัดรัด การซ้อนหน่วยความจำในแนวตั้งช่วยประหยัดพื้นที่ ทำให้เหมาะสำหรับอุปกรณ์ที่ต้องการประสิทธิภาพสูงในขนาดที่เล็กลง เช่น การ์ดกราฟิกระดับสูงและชิปประมวลผล AI

 

*Bandwidth (แบนด์วิดท์)   คือ ปริมาณข้อมูลสูงสุดที่สามารถส่งผ่านช่องทางการสื่อสาร เช่น เครือข่ายอินเทอร์เน็ต หรือบัสข้อมูลภายในคอมพิวเตอร์ ได้ภายในระยะเวลาที่กำหนด ปกติจะวัดเป็นหน่วย บิตต่อวินาที (bps – bits per second) หรือหน่วยที่ใหญ่ขึ้น เช่น เมกะบิตต่อวินาที (Mbps) หรือกิกะบิตต่อวินาที (Gbps)

HBM จึงเป็นเทคโนโลยีสำคัญที่ช่วยเร่งการประมวลผลของงานที่ซับซ้อนและต้องการข้อมูลจำนวนมาก ช่วยให้การทำงานมีประสิทธิภาพและใช้พลังงานน้อยลง ซึ่งเหมาะสำหรับการใช้งานทั้งในด้านกราฟิกและการประมวลผล AI ที่มีความต้องการสูง

 

เหตุใดชิปถึงสำคัญกับ AI

ในปัจจุบันและในอนาคตของวงการ AI  ชิป หรือ เรียกได้ว่าเป็น Game Changer หรือผู้กุมชะตาอนาคตของวงการ AI เลยก็ว่าได้ เนื่องจาก AI ต้องการประสิทธิภาพในการประมวลผลที่สูงเพื่อจัดการกับข้อมูลจำนวนมหาศาลและการคำนวณที่ซับซ้อนอย่างมีประสิทธิภาพ ซึ่งชิปที่ได้รับการออกแบบมาเฉพาะสำหรับ AI จะช่วยเร่งการประมวลผลและลดเวลาในการคำนวณลงอย่างมาก ซึ่งเหตุผลหลักที่ปัจจุบันต้องมีการผลิตชิปที่ออกแบบมาเฉพาะ AI ก็เนื่องจาก

  1. AI ต้องการการประมวลผลแบบคู่ขนาน (Parallel processing)

ในการเทรน AI ประเภท Deep Learning ต้องการการประมวลผลจำนวนมหาศาลที่เกิดขึ้นพร้อมกัน ชิป AI เช่น GPU และ TPU ถูกออกแบบมาให้ทำงานหลายพันรายการพร้อมกันได้อย่างมีประสิทธิภาพ ซึ่งช่วยเร่งความเร็วในการฝึกและใช้งานโมเดล AI

 

  1. ประสิทธิภาพและความเร็ว

AI มักจะต้องการการคำนวณทางคณิตศาสตร์ที่มีความซับซ้อน เช่น การคูณเมทริกซ์ในโครงข่ายประสาทเทียม (Neural Networks) ชิปเฉพาะทาง เช่น TPU หรือ NPU จะถูกออกแบบมาให้สามารถจัดการกับงานประเภทนี้ได้อย่างรวดเร็วและมีประสิทธิภาพกว่าชิปทั่วไป เช่น CPU

 

  1. การใช้พลังงานอย่างมีประสิทธิภาพ

การประมวลผล AI ต้องการพลังงานจำนวนมาก ชิป AI ที่ถูกออกแบบมาเฉพาะทางจะช่วยลดการใช้พลังงานเมื่อเทียบกับการประมวลผลด้วย CPU แบบดั้งเดิม ซึ่งทำให้การใช้งาน AI ในอุปกรณ์พกพา เช่น สมาร์ตโฟน หรืออุปกรณ์ IoT มีประสิทธิภาพมากขึ้นและประหยัดพลังงาน

 

  1. ความสามารถในการปรับแต่งสำหรับงานเฉพาะ

ชิป AI บางประเภท FPGA สามารถตั้งโปรแกรมใหม่ได้ ทำให้เหมาะสำหรับงานที่ต้องการปรับแต่งหรือทดสอบอัลกอริทึมใหม่ ๆ ช่วยให้สามารถปรับเปลี่ยนโครงสร้างของชิปให้เหมาะสมกับโมเดล AI ที่ใช้งานโดยเฉพาะ

 

  1. รองรับการทำงานแบบเรียลไทม์

ในบางแอปพลิเคชัน เช่น รถยนต์ไร้คนขับหรือระบบการรู้จำภาพ ชิป AI ที่มีความเร็วสูงจะทำให้การประมวลผลเกิดขึ้นแบบเรียลไทม์ ซึ่งมีความสำคัญต่อการตัดสินใจหรือการตอบสนองที่รวดเร็วและแม่นยำ

 

  1. ขนาดและต้นทุน

ชิปที่ออกแบบมาเฉพาะสำหรับงาน AI สามารถถูกผลิตให้มีขนาดเล็กลงและราคาถูกลงเมื่อเทียบกับการใช้ฮาร์ดแวร์ทั่วไป ซึ่งมีความสำคัญในการใช้งาน AI อย่างแพร่หลายในอุปกรณ์ต่าง ๆ เช่น อุปกรณ์สมาร์ตโฮมหรืออุปกรณ์พกพา

ความต้องการชิป AI ที่เพิ่มขึ้นอย่างรวดเร็วสวนทางกับการผลิต

ตลาด AI ทั่วโลกมีการเติบโตอย่างต่อเนื่อง โดยคาดการณ์ว่าจะมีมูลค่าสูงถึง 1.3 ล้านล้านดอลลาร์ภายในปี 2029 การเติบโตนี้ส่งผลโดยตรงต่อความต้องการชิปประมวลผล โดยเฉพาะ GPU ที่ออกแบบมาเพื่อการประมวลผลแบบขนานซึ่งเหมาะสมกับการทำงานของ AI

มีกรณีศึกษาที่น่าสนใจคือการฝึกฝนโมเดลภาษาขนาดใหญ่ (Large Language Model: LLM) อย่าง GPT-4 ซึ่งต้องใช้ GPU จำนวนมหาศาล มีการประมาณการว่าการฝึกฝนโมเดลขนาดใหญ่หนึ่งครั้งอาจต้องใช้ GPU มากกว่า 10,000 ตัว และใช้พลังงานเทียบเท่ากับปริมาณการใช้ไฟฟ้าของบ้านเรือนหลายพันหลังในช่วงระยะเวลาหนึ่งปี

  • ข้อจำกัดในการผลิตชิป

สถานการณ์การผลิตชิปทั่วโลกในปัจจุบันกำลังเผชิญกับความท้าทายอย่างมาก โดยโรงงานผลิตชิปส่วนใหญ่ ณ ปัจจุบันเดินกำลังการผลิตเต็มที่แล้ว โดยผู้ผลิตรายใหญ่อย่าง TSMC ของไต้หวันครองส่วนแบ่งตลาดการผลิตชิปประสิทธิภาพสูงมากกว่า 50%

โดยปัญหาคอขวดหลัก ๆ ในห่วงโซ่อุปทานเกิดจาก

  • การขาดแคลนวัตถุดิบสำคัญ อย่างเช่น แผ่นซิลิคอน

แผ่นซิลิคอนเป็นวัตถุดิบหลักในการผลิตเซมิคอนดักเตอร์และชิปอิเล็กทรอนิกส์ เนื่องจากแผ่นซิลิคอนคุณภาพสูงมีความสำคัญต่อการผลิตวงจรรวมที่มีประสิทธิภาพสูง การขาดแคลนวัตถุดิบนี้ส่งผลให้ผู้ผลิตชิปไม่สามารถดำเนินการผลิตได้อย่างต่อเนื่อง นอกจากนี้ ความต้องการที่เพิ่มสูงขึ้นในอุตสาหกรรมเทคโนโลยี (เช่น สมาร์ตโฟน, รถยนต์ไฟฟ้า, และอุปกรณ์ IoT) ยิ่งทำให้ปัญหานี้รุนแรงขึ้น การขาดแคลนแผ่นซิลิคอนยังส่งผลให้เกิดความล่าช้าในสายการผลิตของอุตสาหกรรมที่ต้องพึ่งพาชิป

  • ความซับซ้อนของกระบวนการผลิต

การผลิตเซมิคอนดักเตอร์เป็นกระบวนการที่ซับซ้อนและต้องใช้ความแม่นยำสูง กระบวนการผลิตชิปประกอบไปด้วยหลายขั้นตอน เช่น การเตรียมแผ่นซิลิคอน, การวางแผงวงจร, การฝังทรานซิสเตอร์, และการทดสอบคุณภาพ ทุกขั้นตอนต้องใช้เทคโนโลยีที่ล้ำสมัยและต้องการสภาพแวดล้อมที่ควบคุมอย่างเข้มงวด เพราะความผิดพลาดเพียงเล็กน้อยในกระบวนการผลิตอาจทำให้ชิปไม่สามารถใช้งานได้ ส่งผลให้กระบวนการผลิตล่าช้าหรือไม่สามารถผลิตได้ตามจำนวนที่ต้องการ

  • การพึ่งพาผู้ผลิตเพียงไม่กี่ราย

การผลิตชิประดับสูง เช่น CPU และ GPU ถูกควบคุมโดยผู้ผลิตเพียงไม่กี่รายทั่วโลก เช่น TSMC (Taiwan Semiconductor Manufacturing Company) และ Samsung เนื่องจากบริษัทเหล่านี้มีความเชี่ยวชาญและเทคโนโลยีในการผลิตเซมิคอนดักเตอร์ขั้นสูง ซึ่งต้องการการลงทุนมหาศาลในด้านวิจัยและพัฒนา การพึ่งพาบริษัทเพียงไม่กี่แห่งทำให้เกิดความเสี่ยงสูงในห่วงโซ่อุปทาน หากเกิดปัญหา เช่น การหยุดชะงักของการผลิตหรือภัยพิบัติทางธรรมชาติ จะส่งผลกระทบต่อห่วงโซ่อุปทานทั่วโลกทันที

  • ข้อจำกัดด้านเครื่องจักรและอุปกรณ์การผลิต

การผลิตเซมิคอนดักเตอร์ต้องอาศัยเครื่องจักรและอุปกรณ์ที่มีความแม่นยำสูง เช่น เครื่องสำหรับการสลักลาย (Lithography Machines) ซึ่งเครื่องจักรเหล่านี้ผลิตได้เพียงไม่กี่บริษัทในโลก เช่น ASML ที่ผลิตเครื่อง EUV (Extreme Ultraviolet Lithography) การที่มีผู้ผลิตเครื่องจักรเหล่านี้จำนวนน้อย และกระบวนการผลิตที่ซับซ้อน ทำให้เกิดข้อจำกัดในการจัดหาเครื่องจักรเพื่อเพิ่มกำลังการผลิต

นอกจากนี้ สถานการณ์ภูมิรัฐศาสตร์ยังส่งผลกระทบอย่างมีนัยสำคัญ ความตึงเครียดระหว่างจีนและสหรัฐอเมริกา การควบคุมการส่งออกเทคโนโลยี และความกังวลเรื่องความมั่นคงทางเทคโนโลยี ล้วนส่งผลต่อการผลิตและการกระจายชิป

นักลงทุนคุ้นเคยกับความผันผวนในอุตสาหกรรมเซมิคอนดักเตอร์ แต่การขึ้น ๆ ลง ๆ ในช่วงนี้สร้างความสับสนอย่างมาก เมื่อวันที่ 15 ตุลาคม ASML(Advanced Semiconductor Materials Lithography) ผู้ผลิตชิประดับในโลก รายงานปริมาณคำสั่งซื้อในช่วงไตรมาสล่าสุด ว่า ลดลงเหลือเพียงมีปริมาณเพียงครึ่งหนึ่งของที่นักวิเคราะห์คาดไว้ ส่งผลให้ราคาหุ้นร่วงลง สองวันต่อมา TSMC ซึ่งเป็นผู้ผลิตชิปรายใหญ่ที่สุดในโลก ประกาศกำไรประจำไตรมาสเป็นประวัติการณ์ และปรับเพิ่มคาดการณ์ยอดขายประจำปี

สัญญาณที่แตกต่างกันเหล่านี้สะท้อนถึงความสำคัญของชิปสำหรับใช้ประมวลผล AI ที่จำเป็นสำหรับปัญญาประดิษฐ์ (AI) ซึ่งความต้องการนั้น “มหาศาล” ตามที่ C.C. Wei หัวหน้าของ TSMC บอกว่าชิปที่สิ่งจำเป็นสำหรับอุปกรณ์ทุกอย่าง (ที่ต้องมีการประมวลผล)

ซึ่งบริษัทมีความต้องการน้อย รูปแบบดังกล่าวสะท้อนให้เห็นในชิปหน่วยความจำ เมื่อวันที่ 7 ตุลาคม Samsung ซึ่งเป็นผู้นำตลาดได้ออกแถลงการณ์ขอโทษต่อสาธารณชนสำหรับผลการดำเนินงานทางการเงินที่ไม่น่าประทับใจ เมื่อวันที่ 24 ตุลาคม SK Hynix ซึ่งก้าวขึ้นมาเป็นผู้นำในกลุ่มชิปหน่วยความจำแบนด์วิดท์สูง (High-Bandwidth memory: HBM) ที่เติบโตอย่างรวดเร็ว ได้รายงานผลกำไรในระดับสูงสุดเป็นประวัติการณ์

ชิป HBM ได้กลายมาเป็นส่วนประกอบสำคัญในการแข่งขันธุรกิจสร้างโมเดล AI ประสิทธิภาพสูงเนื่องจากว่า การรันโมเดลเหล่านี้ต้องใช้ชิปตรรกะที่สามารถประมวลผลข้อมูลจำนวนมากได้ รวมถึงชิปหน่วยความจำที่สามารถจัดเก็บและปล่อยข้อมูลได้อย่างรวดเร็วด้วย

ตัวอย่างประเภท AI ที่ต้องใช้ HBM ก็ได้แก่

1. การฝึกโมเดล Deep Learning ขนาดใหญ่ (Deep Learning Model Training)

การฝึกโมเดล Deep Learning โดยเฉพาะโมเดลขนาดใหญ่ เช่น GPT, BERT หรือโมเดลคอมพิวเตอร์วิทัศน์ (Computer Vision) อย่าง ResNet หรือ EfficientNet ต้องการแบนด์วิดท์สูงในการส่งผ่านข้อมูลระหว่างหน่วยความจำและชิปประมวลผล (เช่น GPU) เพื่อให้การคำนวณเกิดขึ้นอย่างรวดเร็ว HBM สามารถรองรับปริมาณข้อมูลมหาศาลที่ไหลเข้าและออกระหว่างหน่วยประมวลผลและหน่วยความจำได้อย่างมีประสิทธิภาพ ช่วยลดเวลาในการฝึกโมเดลและเพิ่มความเร็วในการประมวลผล

2. การประมวลผลภาพและวิดีโอแบบเรียลไทม์ (Real-Time Image and Video Processing)

AI ที่ใช้ในการวิเคราะห์ภาพและวิดีโอ เช่น การตรวจจับวัตถุในระบบกล้องวงจรปิด (CCTV) การจดจำใบหน้า หรือการประมวลผลภาพทางการแพทย์ เช่น MRI และ CT Scan ต้องการการประมวลผลภาพจำนวนมากแบบเรียลไทม์ HBM ช่วยให้ระบบสามารถจัดการกับข้อมูลภาพความละเอียดสูงได้อย่างรวดเร็วและมีประสิทธิภาพ ลดความล่าช้าในการประมวลผลและช่วยให้ระบบทำงานได้ในเวลาจริง

3. การจำลองและการพยากรณ์ที่ซับซ้อน (Complex Simulations and Forecasting)

การใช้ AI ในการพยากรณ์ทางวิทยาศาสตร์ เช่น การจำลองสภาพภูมิอากาศ การพยากรณ์สภาพอากาศ หรือการจำลองทางฟิสิกส์ เช่น การวิเคราะห์ข้อมูลโมเลกุลเพื่อการค้นคว้ายาใหม่ ต้องใช้พลังในการประมวลผลที่สูงมาก เนื่องจากต้องจัดการข้อมูลปริมาณมหาศาลและการคำนวณที่ซับซ้อน HBM ช่วยให้สามารถรับส่งข้อมูลได้อย่างรวดเร็ว ลดปัญหาคอขวดที่เกิดจากการเข้าถึงหน่วยความจำ

4. การประมวลผลภาษาธรรมชาติแบบเรียลไทม์ (Real-Time Natural Language Processing – NLP)

  • ระบบ NLP เช่น การแปลภาษาแบบเรียลไทม์หรือการตอบคำถามในแอปพลิเคชันผู้ช่วยเสมือน (เช่น Alexa, Siri) ต้องการประมวลผลข้อความอย่างรวดเร็วและแม่นยำ โมเดล NLP ขนาดใหญ่ที่ประมวลผลแบบเรียลไทม์จะได้ประโยชน์จากแบนด์วิดท์ของ HBM ซึ่งช่วยเร่งความเร็วในการประมวลผลและทำให้การทำงานของระบบลื่นไหลไม่ติดขัด

5. ระบบขับเคลื่อนอัตโนมัติ (Autonomous Driving)

  • รถยนต์ไร้คนขับต้องการการประมวลผลข้อมูลจากเซนเซอร์ต่าง ๆ เช่น กล้อง, LIDAR และเรดาร์ ในแบบเรียลไทม์ ระบบ AI ในรถยนต์จะต้องวิเคราะห์ข้อมูลมหาศาลอย่างรวดเร็วเพื่อการตัดสินใจ เช่น การตรวจจับสิ่งกีดขวาง การวางแผนเส้นทาง และการหลีกเลี่ยงอุบัติเหตุ HBM ช่วยให้ระบบประมวลผลได้อย่างรวดเร็ว ลดความล่าช้าในการวิเคราะห์ข้อมูล และเพิ่มความปลอดภัยในการขับขี่

6. การเล่นเกมและการจำลองเสมือนจริง (Gaming and Virtual Reality: VR)

  • ระบบ AI ที่ประมวลผลกราฟิกระดับสูงหรือการสร้างประสบการณ์เสมือนจริงต้องการการประมวลผลที่รวดเร็วและราบรื่น โดยเฉพาะในเกมที่ซับซ้อนและมีการเรนเดอร์ภาพแบบไดนามิก HBM ช่วยเพิ่มความเร็วในการส่งข้อมูลกราฟิกไปยังหน่วยประมวลผล ทำให้ภาพและการโต้ตอบเกิดขึ้นแบบเรียลไทม์และมีความละเอียดสูง

7. การวิเคราะห์ข้อมูลทางการเงินแบบเรียลไทม์ (Real-Time Financial Analysis)

  • AI ที่ใช้วิเคราะห์ข้อมูลตลาดหุ้น การประมวลผลข้อมูลการซื้อขายขนาดใหญ่ หรือการคำนวณความเสี่ยงทางการเงิน ต้องการความเร็วในการคำนวณและส่งผ่านข้อมูลเพื่อให้สามารถตอบสนองได้ทันที HBM ช่วยให้ระบบสามารถประมวลผลข้อมูลแบบเรียลไทม์ได้อย่างรวดเร็วและแม่นยำ

จากข้อมูลของ SK Hynix Inc. ซึ่งเป็นหนึ่งในผู้จำหน่ายเซมิคอนดักเตอร์รายใหญ่ที่สุดในโลก ระบุว่า โมเดลในเคสที่ผู้ใช้ส่งคำถามเข้าไปถาม AI และ AI ตอบกลับมา เจ้า AI ใช้เวลามากกว่า 9 ใน  10 ส่วนไปกับการส่งข้อมูลไปมาระหว่าง ชิปตรรกะ และ ชิปหน่วยความจำ ดังนั้น HBM จึงได้รับการออกแบบมาให้เร่งความเร็วโดยการรวมชิปหน่วยความจำเข้ากับชิปตรรกะ (ไม่ต้องส่งข้ามไปข้ามมา) เพื่อเพิ่มความเร็วและลดการใช้พลังงาน

Arete Research คาดการณ์ว่ายอดขาย HBM จะสูงถึง 18,000 ล้านดอลลาร์ในปีนี้ ซึ่งเพิ่มขึ้นจาก 4,000 ล้านดอลลาร์เมื่อปีที่แล้ว และจะเพิ่มขึ้นเป็น 81,000 ล้านดอลลาร์ภายในปี 2026  ชิปเหล่านี้ยังทำกำไรได้สูง โดยมีอัตรากำไรจากการดำเนินงานมากกว่าชิปหน่วยความจำมาตรฐานถึง 5 เท่า

SK Hynix ราคาหุ้นเพิ่มขึ้นมากกว่า 2 เท่าในช่วงสองปีที่ผ่านมา ครองส่วนแบ่งตลาดในตลาด HBM มากกว่า 60% และครองส่วนแบ่งกว่า 90% ของ HBM3 ซึ่งเป็นเวอร์ชันที่ล้ำหน้าที่สุด Nam Kim นักวิเคราะห์ของ Arete กล่าวว่าบริษัทได้เริ่มวางเดิมพันชิป HBM ก่อนยุค AI เฟื่องฟูนานมาก ความเป็นผู้นำของบริษัทได้รับการเสริมความแข็งแกร่งด้วยความสัมพันธ์อันใกล้ชิดกับ TSMC และ Nvidia ซึ่งหน่วยประมวลผลกราฟิกของบริษัทสามารถรันโมเดล AI ที่ล้ำสมัยที่สุดได้เกือบทั้งหมด

 

ราคาหุ้นของ SK HYNIX เพิ่มขึ้นกว่า 2 เท่านับตั้งแต่ปี 2022

ปัจจุบันชิป HBM กำลังกลายเป็นอุปสรรคสำคัญ หรือ คอขวดในการพัฒนาโมเดล AI ที่ได้กล่าวไปก่อนหน้านี้  เพราะทั้ง SK Hynix และ Micron ต่างก็ขาย HBM ที่ผลิตได้เกือบทั้งหมดสำหรับปี 2025 ไปแล้ว นั่นแปลว่าถ้ามีความต้องการเพิ่มขึ้นอีกในปีหน้า ก็อาจจะไม่มีให้ใช้

 

SK Hynix ผู้ผลิต HBM รายใหญ่ของโลก: Bloomberg

ทั้งสองบริษัททุ่มเงินหลายพันล้านดอลลาร์เพื่อขยายกำลังการผลิต แต่คงต้องใช้เวลาอีกนาน ในขณะเดียวกัน Samsung ซึ่งผลิตชิป HBM ของโลกถึง 35% ก็ประสบปัญหาในการผลิต และมีรายงานว่ามีแผนที่จะลดกำลังการผลิตชิปลง 1 ใน 10 ภายในปีหน้า

เนื่องจากปัญหาขาดแคลนชิป HBM ทางสหรัฐฯ จึงกดดันเกาหลีใต้ซึ่งแผ่นดินแม่ของทั้ง Samsung และ SK Hynix (2 บริษัทนี้ครองส่วนแบ่งการตลาด HBM รวมกันเกินว่า 95%) ให้จำกัดการส่งออกชิป HBM ไปยังจีน

ในฝั่งหน้าบ้านผู้ใช้งานทั่วไปอาจยังไม่ได้รับรู้ถึงกระทบที่กำลังจะเกิดขึ้น แต่ในฝั่งหลังบ้านผลกระทบจากการขาดแคลนทรัพยากรเบื้องหลังการทำงานของ AI อาจมีผลในระยะยาวซึ่งจะส่งผลต่อต้นทุนการใช้งาน AI แน่นอน (พูดให้เข้าใจง่ายคือในอนาคตอาจไม่มี AI ฟรีให้ใช้แล้วก็เป็นได้) เราในฐานะผู้ใช้ก็ต้องติดตามต่อไปว่าสถานการณ์การขาดแคลนชิป AI จะดีขึ้นหรือไม่

เรื่อง: ณัฐศกรณ์ แสงลับ

 

อ้างอิง

https://www.economist.com/business/2024/10/24/memory-chips-could-be-the-next-bottleneck-for-ai

https://cset.georgetown.edu/publication/ai-chips-what-they-are-and-why-they-matter/

 


ติดตามนิตยสาร Marketeer ฉบับดิจิทัล
อ่านได้ทั้งฉบับ อ่านได้ทุกอุปกรณ์ พกไปไหนได้ทุกที
อ่านบน meb : Marketeer