เกิดอะไรขึ้นที่อินเทล ตอนที่ 1 Tick-Tock ภัยซ่อนเร้น และหลุมดำ 14 นาโนเมตร

บริษัทเทคโนโลยีรายสำคัญที่กำลังเพลี่ยงพล้ำในช่วงไม่กี่ปีที่ผ่านมาคือ “อินเทล” ยักษ์ใหญ่ของโลกซีพียูที่กำลังเจอศึกหลายทางพร้อมกัน ตั้งแต่คู่แข่งในอดีต AMD ที่กลับมารุ่งเรืองอีกครั้ง, การรุกเข้ามาจากโลกจีพียูของ NVIDIA, การแท็กทีมของฝั่งสถาปัตยกรรม ARM ในหลายแนวรบ ไปจนถึงปัญหาภายในของตัวเอง ทั้งเรื่องเทคโนโลยีการผลิตไม่เป็นไปตามเป้า และผลิตสินค้าไม่เพียงพอต่อความต้องการ

ล่าสุด อินเทลตอบสนองต่อปัญหาทั้งหมดข้างต้นด้วยการเปลี่ยนตัวซีอีโอใหม่เป็น Pat Gelsinger อดีตลูกหม้อที่ดำรงตำแหน่งซีอีโอของ VMware โดยการเปลี่ยนแปลงจะมีผลวันที่ 15 กุมภาพันธ์นี้

บทความซีรีส์ “เกิดอะไรขึ้นที่อินเทล” พยายามสรุปสถานการณ์ทั้งหมดว่าอินเทลกำลังเผชิญกับอะไรอยู่บ้าง ปัญหาแต่ละอย่างมีสาเหตุอย่างไร ในตอนแรกจะกล่าวถึงปัญหาของอินเทลเองที่เกิดจากแนวคิดแบบ Tick-Tock ในอดีต

No Description

Tick-Tock จากเครื่องยนต์สำคัญ สู่รากเหง้าของปัญหา

ตั้งแต่ทศวรรษ 2000 เป็นต้นมา ถือเป็นยุคทองของอินเทลที่ครองตลาดซีพียูได้เกือบเบ็ดเสร็จ อินเทลก้าวข้ามจากยุค Pentium มาสู่แบรนด์ Core ครั้งแรกในปี 2006 (Yonah) ซึ่งเป็นช่วงเวลาไล่เลี่ยกับตลาดโน้ตบุ๊กเริ่มบูม (หลายคนน่าจะยังจำแบรนด์ Centrino กันได้)

เครื่องจักรสำคัญที่ช่วยให้อินเทลทิ้งคู่แข่งแบบไม่เห็นฝุ่น คือกระบวนการออกสินค้าที่เรียกว่า Tick-Tock ซึ่งเป็นการสลับระหว่างการลดขนาดการผลิต (Tick) และการเปลี่ยนสถาปัตยกรรมย่อย (microarchitecture) ใหม่ (Tock)

Tick-Tock ถูกคิดขึ้นเพื่อแก้ปัญหาทางวิศวกรรมที่ไม่ต้องการให้เกิดการเปลี่ยนแปลงครั้งใหญ่จนเกินไป (เปลี่ยนสถาปัตยกรรมพร้อมกับกระบวนการผลิตพร้อมกัน) อินเทลจึงใช้วิธีสลับปี ทำทีละอย่าง ปีนี้ใช้สถาปัตยกรรมเดิม ลดขนาดการผลิต ปีหน้าเปลี่ยนสถาปัตยกรรมใหม่ แต่ใช้การผลิตขนาดเดิม

อินเทลนำ Tick-Tock มาใช้งานครั้งแรกในปี 2007 กับซีพียูตระกูล Core “Penryn” ที่ลดขนาดการผลิตจาก 65 นาโนเมตร มาเป็น 45 นาโนเมตร แล้วปีถัดมา 2008 เปลี่ยนสถาปัตยกรรมซีพียูมาเป็น “Nehalem” โดยยังคงการผลิตที่ 45 นาโนเมตรเท่าเดิม

No Description

กระบวนท่า Tick-Tock ใช้ได้ผลดีเป็นอย่างมาก ช่วยอินเทลลดขนาดจาก 45 นาโนเมตรมาสู่ 32 นาโนเมตร, 22 นาโนเมตร, 14 นาโนเมตรได้อย่างราบรื่น เมื่อบวกกับ AMD ในตอนนั้นประสบปัญหาด้านผลิตภัณฑ์ซีพียูพอดี (ยุค Bulldozer เป็นต้นมา) ยิ่งทำให้อินเทลครองความยิ่งใหญ่ในช่วงต้นทศวรรษ 2010s แบบไร้คู่แข่ง

ในปี 2015 ซีพียู Core 6th Gen สืบทอดการผลิต 14 นาโนเมตรจากปีก่อน แล้วเปลี่ยนสถาปัตยกรรมใหม่เป็น Skylake ที่เพิ่มประสิทธิภาพอย่างโดดเด่น ก้าวต่อไปของอินเทลคือปี 2016 จะลดขนาดของ Skylake ลงเหลือ 10 นาโนเมตร ในชื่อโค้ดเนมว่า Canon Lake ตามธรรมเนียมปฏิบัติเดิม

แต่ทุกอย่างกลับไม่เป็นไปตามแผน

แผน 10 นาโนเมตรเดิมของอินเทลที่ประกาศไว้ในปี 2013

หลุมดำ 14 นาโนเมตร

Cannon Lake ไม่สามารถย่อขนาดลงเหลือ 10 นาโนเมตรได้ตามที่คิดไว้ อินเทลจึงไม่มีทางเลือกอื่นนอกจากยกเลิก Tick-Tock และนำกระบวนการผลิตที่ดีที่สุดในตอนนั้นคือ 14 นาโนเมตรมาใช้ขัดตาทัพไปก่อน

คำประกาศของอินเทลเมื่อต้นปี 2016 ซึ่งเป็นครั้งแรกที่ 10 นาโนเมตรผิดแผน คือบอกว่าจะเปลี่ยนรอบ 2 ปีของ Tick-Tock มาเป็นรอบ 3 ปีที่เรียกว่า Process-Architecture-Optimization แทน

ปี 2016 เราจึงได้เห็นซีพียู Kaby Lake (Core 7th Gen) ที่ใช้สถาปัตยกรรมตัวเดียวกับ Skylake แต่ปรับปรุงเล็กน้อย และใช้กระบวนการผลิต 14 นาโนเมตรแบบปรับแต่งให้ดีขึ้น (14nm+)

ตอนนั้น อินเทลคงคิดว่าปัญหา 10 นาโนเมตรน่าจะล่าช้าไปแค่ปีเดียว การเปลี่ยนจาก Tick-Tock มาเป็น Process-Architecture-Optimization คงไม่ใช่ปัญหาอะไรมากมายนัก ยิ่งเทียบกับคู่แข่งในเวลานั้น TSMC ปี 2016 ยังผลิตชิป 10 นาโนเมตรเป็นจำนวนมากไม่ได้ (ในทางเทคนิคแล้ว 10 นาโนเมตรของแต่ละค่ายก็ไม่เท่ากันด้วย เทียบกันตรงๆ ไม่ได้)

แต่ในปี 2017 ฝัน 10 นาโนเมตรก็ยังไม่เป็นจริง เพราะอินเทลกลับมาด้วย 14 นาโนเมตรอีกครั้ง (พร้อมกับเครื่องหมายบวกอีกหนึ่งตัว เป็น 14nm++) แถมปีนี้ยังเป็นจุดเริ่มต้นที่อินเทลแยกสายผลิตภัณฑ์ซีพียูเดสก์ท็อปกับโน้ตบุ๊กออกจากกัน (ด้วยเหตุผลว่าทำไม่ทัน) โดยฝั่งเดสก์ท็อปเป็น Coffee Lake และฝั่งโน้ตบุ๊กเป็น Kaby Lake Refresh แต่ชื่อทางการค้าเรียกเป็น Core 8th Gen เหมือนกัน

ปี 2018 สถานการณ์ยังไม่ดีขึ้นอีก เราจึงเห็นการ Refresh รอบที่สามด้วย Coffee Lake Refresh ที่นับเป็น Core 9th Gen และมีเฉพาะเดสก์ท็อปเท่านั้น ฝั่งโน้ตบุ๊กยิ่งมั่วเข้าไปอีก เพราะมีทั้ง Whiskey Lake / Amber Lake ที่นับเป็น Core 8th Gen ผสมผสานกับ Kaby Lake Refresh จากปีก่อน

ปี 2018 ยังมี Cannon Lake ซีพียู 10 นาโนเมตรตัวแรก ที่มาช้ากว่ากำหนดเดิม 2 ปี แถมยังมีสินค้าวางขายจริงได้เพียงแค่รุ่นเดียว (Core i3-8121U) ที่ใช้ในโน้ตบุ๊กเพียงไม่กี่รุ่น ด้วยเหตุผลว่าผลิตได้น้อยกว่าที่คาดไว้ แสดงให้เห็นว่าอินเทลทำ 10 นาโนเมตร แต่ยังมีปัญหาเรื่อง yield

อินเทลมาผลิตซีพียูระดับ 10 นาโนเมตรได้จริงๆ จังๆ คือ Ice Lake ในปี 2019 แต่ก็ยังไม่สามารถเปลี่ยนซีพียูโน้ตบุ๊กทั้งหมดเป็น 10 นาโนเมตรได้อยู่ดี และต่อให้เป็นปี 2020 ที่มี Tiger Lake ออกมาแล้ว ก็ยังต้องมีซีพียูแบบ 14 นาโนเมตร Comet Lake-H มาช่วยแบ่งเบาภาระในฝั่งซีพียูสมรรถนะสูง (ซีรีส์ H) ด้วยเช่นกัน

สิ่งที่เกิดขึ้นจริงคือ 10 นาโนเมตรในปี 2019

มาถึงปีนี้ 2021 อินเทลยังไม่มีซีพียู 10 นาโนเมตรในฝั่งเดสก์ท็อปออกวางขายได้เลยสักตัว (ซีพียูตัวหน้า Rocket Lake ที่จะออกภายในไตรมาส 1/2021 ยังเป็น 14 นาโนเมตร)

หากดูตามแผนของอินเทล บริษัทจะเปลี่ยนซีพียูทั้งหมดเป็น 10 นาโนเมตรได้อย่างสมบูรณ์ทั้งเดสก์ท็อป-โน้ตบุ๊ก ก็ต้องรอกันถึงปลายปีนี้กับ Alder Lake ที่นับรุ่นเป็น Core 12th Gen

คำถามสำคัญคือ อินเทลมีแผนจะเปลี่ยนซีพียูเป็น 10 นาโนเมตรในปี 2016 แบบสบายๆ นำหน้าคู่แข่งรายอื่นไปไกล แต่กลับมาทำได้จริงในช่วงปลายปี 2021 ด้วยซ้ำ (และอินเทลยุคนี้ยังมีโอกาสเลื่อนได้เสมอ) เวลาที่ผ่านมายาวนานถึง 5-6 ปี เกิดปัญหาอะไร ทำไมอินเทลถึงไม่สามารถก้าวข้ามหลุมดำ 14 นาโนเมตรไปได้

แล้วทำไมคู่แข่งทั้ง TSMC และซัมซุงสามารถไปได้ถึงระดับ 7 นาโนเมตร หรือ 5 นาโนเมตรกันแล้ว เราจะก้าวเข้าไปสู่คำตอบนี้กันในตอนหน้า

Topics: 

from:https://www.blognone.com/node/121159