คลังเก็บป้ายกำกับ: NVIDIA

NVIDIA GEFORCE RTX 3060 รุ่นล็อคการขุดเหมืองอาจวางขาย พ.ค. นี้ รหัส GA106-302

เพราะการ์ดจอโดนเอาไปขุดเหมืองจนหมดเลยหาการ์ดจอมาเล่นเกมยากแถมแพง ทาง NVIDIA เลยแก้ปัญหาโดยออกการ์ดจอ NVIDIA GEFORCE RTX 3060 เวอร์ชั่นลดประสิทธิภาพการขุดเหมืองแบบเต็มตัว ซึ่งแก้ BIOS หรือใช้ไดรเวอร์เวอร์ชั่นเบต้ารุ่น 470.05 ที่ไม่ได้ล็อคประสิทธิภาพการขุดเหมืองไม่ได้ รวมทั้งป้องกันการหลอกการ์ดจอโดยใช้ปลั๊ก HDMI ปลอมเอาไว้อีกด้วย เพื่อแก้ปัญหาการโดนกว้านซื้อการ์ดจอรุ่นนี้ไปขุดเหมืองนั่นเอง โดยทาง NVIDIA จะวางขายการ์ดจอรุ่นนี้ภายในเดือนพฤษภาคมปีนี้

NVIDIA GeForce RTX 3060 Official Graphics Card 2 scaled 1

รหัส NVIDIA GEFORCE RTX 3060 รุ่นขุดเหมืองไม่ได้

NVIDIA GEFORCE RTX 3060

GEFORCE RTX 3060 ที่เราหาซื้อได้ทั่วไปนั้นจะใช้ชิปรหัส GA106-300 สถาปัตยกรรม Ampere ซึ่งเป็นรุ่นที่เอาไปขุดเหมืองได้ แต่การ์ดเวอร์ชั่นใหม่นี้จะเปลี่ยนรหัสเล็กน้อยเป็น GA106-302 และแยกเป็น SKU (Stock Keeping Unit) ใหม่ และวางขายแทนรหัส GA106-300 ตัวเดิมไปเลย นอกจากนี้ตัวระบบจะคอยเช็คด้วยว่าผู้ใช้นำการ์ดจอไปขุดเหมืองหรือไม่ และจะลดประสิทธิภาพการขุดลงจนค่า Hash rate อยู่ในระดับที่ทำกำไรไม่ได้เพื่อป้องกันการเอาการ์ดจอไปใช้ผิดวัตถุประสงค์เช่นการขุดเหมืองเป็นต้น

NVIDIA GeForce RTX 3060 Cryptocurrency Mining GPU Hash Rate Limit Bypass Using Dummy HDMI

นอกจากนี้ นักปล่อยข่าวหลุดอย่าง @kopite7kimi ก็ทวีตเสริมด้วยว่านอกจาก GEFORCE RTX 3060 รหัส GA106 แล้ว ทาง NVIDIA ก็มีแผนจะทำ RTX 3070 รหัส GA104-300 และ RTX 3080, RTX 3090 เวอร์ชั่นล็อคประสิทธิภาพการขุดเหมืองด้วย โดยใช้วิธีการเดียวกันกับ RTX 3060 โดยใช้รหัสเป็น

  • NVIDIA GEFORCE RTX 3060 Ti จาก GA104-200 เป็นรหัส GA104-202
  • NVIDIA GEFORCE RTX 3070 จาก GA104-300 เป็นรหัส GA104-302
  • NVIDIA GEFORCE RTX 3080 จาก GA102-200 เป็นรหัส GA102-202
  • NVIDIA GEFORCE RTX 3090 จาก GA102-300 เป็นรหัส GA102-302

ซึ่งถ้าเป็นอย่างนี้จริง ปัญหาการ์ดจอราคาแพงเพราะการปั่นราคาและหาซื้อไม่ได้เพราะโดนเหมาไปขุดเหมืองได้นั้นอาจจะบรรเทาไปได้เยอะ และราคาก็น่าจะกลับมาอยู่ในระดับปกติเร็วขึ้น เกมเมอร์ที่ต้องการซื้อการ์ดจอแยกแบบเดี่ยว ๆ มาอัพเกรดเกมมิ่งพีซีส่วนตัวก็น่าจะได้โอกาสซื้อมาเปลี่ยนเร็ว ๆ นี้

ซึ่งถ้า NVIDIA ผลิตและวางขายในช่วงเดือนพฤษภาคมนี้ได้และล็อคการขุดเหมืองเอาไว้ได้เบ็ดเสร็จจริงอย่างที่โฆษณาก็จะเป็นประโยชน์ต่อหลายฝ่ายเป็นวงกว้างอย่างแน่นอน และเป็นการผลักดันให้ชาวเหมืองเปลี่ยนไปใส่การ์ดจอ NVIDIA CMP Series แทนด้วย

ที่มา : TechPowerUp, Wccftech

from:https://notebookspec.com/web/588912-nvidia-geforce-rtx-3060-block-mining

AWS ร่วมมือ NVIDIA เปิดให้ใช้จีพียูบนเซิร์ฟเวอร์ชิป Graviton2

AWS และ NVIDIA ประกาศเปิดตัวเลือกให้ผู้ใช้สามารถใช้งานชิปกราฟิกบนเซิร์ฟเวอร์ที่เป็นซีพียู Graviton2 ของ AWS โดยไม่ระบุว่าจะใช้ชิปกราฟิกรุ่นใด

Graviton2 เป็นซีพียูสถาปัตยกรรม Arm ที่มีจุดขายว่าประสิทธิภาพต่อราคาดีกว่าเซิร์ฟเวอร์ x86 (ยังแก้อยู่บ้างในงานบางประเภท) แต่สำหรับการใช้งานคู่กับชิปกราฟิกเช่นนี้นอกจากงานกลุ่มปัญญาประดิษฐ์แล้ว ยังสามารถใช้รันเกมแอนดรอยด์เพื่อสตรีมภาพไปยังเครื่องปลายทางได้เลย โดย Graviton ได้เปรียบเพราะโค้ดเกมบนโทรศัพท์จำนวนมากเป็นโค้ด Arm อยู่แล้ว ทำให้ไม่ต้องแปลงโค้ดอีกชั้น

เซิร์ฟเวอร์ Graviton2 พร้อมชิปกราฟิก NVIDIA จะเปิดให้ใช้งานได้ภายในครึ่งหลังของปี 2021

ที่มา – AWS

No Description

Topics: 

from:https://www.blognone.com/node/122184

NVIDIA ลงทุน 1.5 ล้านดอลลาร์เข้าโครงการ Mozilla Common Voice

NVIDIA ประกาศลงทุน 1.5 ล้านดอลลาร์เข้าโครงการ Mozilla Common Voice ใช้สำหรับสนับสนุนชุมชนและอาสาสมัครที่ร่วมกันทำงานในโครงการ และจ้างพนักงานมาทำงานในโครงการเพิ่มขึ้น

Mozilla Common Voice เป็นโครงการให้อาสาสมัครเข้าไปบริจาคเสียงพูดตามภาษาที่ใช้งาน เพื่อสร้างชุดข้อมูลให้กลุ่มต่างๆ ไปสร้างปัญญาประดิษฐ์ได้ ปัจจุบันโครงการมีเสียงพูด 9,000 ชั่วโมง จาก 60 ภาษา

Kari Briski ผู้อำนวยการของทาง NVIDIA ระบุว่าแชตบอทสำคัญมากขึ้นในช่วงหลัง การมีชุดข้อมูลให้ทุกคนใช้งาน ทำให้ NVIDIA สามารถสร้างโมเดลที่ฝึกไว้แล้วและแชร์ให้ชุมชุนใช้งานได้ฟรี

ที่มา – Mozilla

No Description

Topics: 

from:https://www.blognone.com/node/122165

NVIDIA เปิดตัวชิป CPU ในดาต้าเซ็นเตอร์ตัวแรก พร้อมนวัตกรรมใหม่ๆในงาน GTC 2021

ที่งาน Graphics Technology Conference (GTC) 2021 ของ Nvidia มีข่าวใหม่น่าตื่นตาตื่นใจจาก Nvidiaหลายอย่าง โดยไฮไลต์คือการประกาศเปิดตัว CPU ระดับดาต้าเซ็นเตอร์ตัวแรก รวมถึง Data Processing Unit (DPU) รุ่นใหม่ แพลตฟอร์มด้าน Autonomous Driving และ Framework สำหรับงานด้าน Quantum Computing และ Cybersecurity เราจึงขอสรุปไฮไลต์เหล่านั้นมาให้ได้ติดตามกันครับ

credit : zdnet.com

1.) GRACE – CPU ในดาต้าเซ็นเตอร์ตัวแรกจาก Nvidia

เมื่อปีก่อนเราคงได้ยินข่าวการเข้าซื้อ ARM ของ Nvidiaแล้ว (ติดตามข่าวเก่าได้จาก TechTalkthai https://www.techtalkthai.com/nvidia-to-acquire-arm-about-40-billions-from-softbank/) โดยผลงานจากวันนั้นคือการเปิดตัวชิปบนสถาปัตยกรรม ARM สำหรับงานด้าน AI หรือที่ต้องการประมวลผลแรงสูงอย่าง HPC ภายใต้ชื่อ ‘GRACE’

CPU ตัวใหม่นี้ทาง Nvidia คุยว่าสามารถเทรนพารามิเตอร์ในงาน Natural Language Processing (NLP) หลักล้านล้านตัวได้เร็วกว่าระบบ Nvidia DGX บน x86 ถึง 10 เท่า นอกจากนี้ด้วยเทคโนโลยี NVLink interconnect 4th ยังเร่งเร้าการเชื่อมต่อระหว่าง GRACE และ Nvidia GPU ได้ถึง 900 GB/s ซึ่งสูงกว่าแบนด์วิดท์ที่ทำได้ในเซิร์ฟเวอร์ทุกวันนี้กว่า 30 เท่า ไม่เพียงเท่านั้นยังรองรับ LPDDR5x ที่ให้แบนด์วิดท์สูงกว่า DDR4 2 เท่าและมีประสิทธิภาพด้านพลังงานดีกว่า 10 เท่า รวมถึงสถาปัตยกรรมแบบใหม่ยังสามารถบูรณาการ Cache เข้าด้วยกันใน Memory Address Space เป็นผืนเดียวกันง่ายต่อการโปรแกรมเข้าไปอีก

โดย Nvidia ประมาณการว่า GRACE จะออกสู่ตลาดได้ราวปี 2023 ซึ่งมีลูกค้าอย่าง Swiss National Supercomputing Centre (CSCS) และ the US Department of Energy’s Los Alamos National Laboratory มารอแล้วใน Supercomputer ที่จะถูกผลิตโดย HPE ในปี 2023

2.) Ominiverse Enterprise

Ominiverse Design เป็นโซลูชันที่ถูกเปิดตัวมาตั้งแต่ธันวาคมปีก่อน โดยสามารถบูรณาการ GPU เข้าด้วยกันเพื่อสร้างระบบ Simulation ประกอบกับรวบรวมแพลตฟอร์มที่จำเป็นกับการทำงาน 3D สำหรับ Omniverse Enterprise ก็เป็น License สำหรับองค์กรที่มาพร้อมกับ เซิร์ฟเวอร์ Nucleus สำหรับการปฏิบัติงานตอบโจทย์ทุกสเกลของงาน โดยปัจจุบัน Ominiverse มีลูกค้าแล้วกว่า 400 บริษัทอย่าง BMW ในโรงงานแบบ Digital Twin สำหรับการผลิตรถยนต์หรือผู้ผลิตเกมต่างๆ

ติดตามเพิ่มเติมได้ที่ https://developer.nvidia.com/nvidia-omniverse-platform

3.) DPU BLUEFIELD-3 

credit : Zdnet.com

Data Processing Unit (DPU) รุ่นใหม่ของ Nvidia หรือ BlueField-3 โดย DPU เป็นแนวคิดแยกส่วนประมวลผลเพื่อเร่งเร้าประสิทธิภาพของการทำงานให้ SDN, Storage หรือ Cybersecurity โดยชิปรุ่นใหม่ BlueField-3 มาพร้อมกับ Arm A78 16 คอร์ ซึ่งสามารถยกระดับการประมวลผลทราฟฟิคด้านเครือข่ายได้ถึง 400 Gbps หากเมื่อเทียบกับ DPU รุ่นก่อน BlueField-3 มีประสิทธิภาพด้านการเข้ารหัสได้ดีว่าถึง 4 เท่าและมีพลังการประมวลผลได้ดีกว่า 10 เท่า นอกจากนั้นยังรองรับกับ PCIe 5

โดย Nvidia เตรียมความพร้อมในการโปรแกรม BlueField ให้ผ่าน DOCA 1.0 SDK ปัจจุบันมีเสียงตอบรับแล้วจากพาร์ทเนอร์อย่าง Dell Technologies, Inspur, Lenovo และ Supermicro รวมถึงผู้ให้บริการคลาวด์อย่าง Baidu, JD.com, UCloud และแพลตฟอร์มชั้นนำอย่าง Canonical, Red Hat และ VMware ในด้านตลาด Cybersecurity และ Storage ตัว BlueField ยังสามารถตอบโจทย์ความต้องการของผู้เล่นชั้นนำด้านนี้อย่าง Fortinet, Guardicore, DDN, NetApp, Cloudflare, F5 และ Juniper Networks คาดว่า BlueField-3 จะพร้อมลงสนามได้ราว Q1 ปี 2022

4.) CUQUANTUM SDK

ถึงแม้ Nvidia จะไม่ใช้ผู้ผลิต Quantum Computer แต่ก็มีส่วนในการพัฒนางานนี้ สำหรับการใช้ Classical เพื่อทำ Quantum Simulation ที่อาศัย GPU ตัว cuQuantum SDK ที่ Nvidia ประกาศออกมานี้ จะช่วยให้นักวิจัยเข้าไปดึงความสามารถจาก GPU มาใช้ตอบโจทย์นั้น โดยนักวิจัยจาก Caltech ได้สร้างสถิติใหม่ด้วยการใช้ cuQuantum กับ Google Sycamore circuit ซึ่งให้ประสิทธิภาพสูงขึ้นถึง 9 เท่าต่อ GPU

5.) EGX AI Platform for Enterprise

ไอเดียคือการทำ Certified ให้การใช้งานระหว่างแพลตฟอร์มระดับองค์กร โดยมีการทำ Certified 2 ส่วนคือแพลตฟอร์ม NVIDIA EGX กับ Atos, Dell Technologies, GIGABYTE, H3C, Inspur, Lenovo, QCT และ Supermicro อีกส่วนคือ Nvidia A10 และ A30 แพลตฟอร์มอย่าง VMware vSphere ซึ่งแพลฟอร์มเหล่านี้เป็นโครงสร้างพื้นฐานในแอปพลิเคชันขององค์กรอยู่แล้ว เมื่อเพิ่ม Nvidia เข้ามาก็เพิ่มความสามารถด้าน AI Workload เข้ามาด้วย หรือกล่าวคือเพิ่มความสามารถ AI จากโซลูชัน Nvidia ให้แอปพลิเคชันขององค์กรนั่นเอง ติดตามเพิ่มเติมได้ที่ https://nvidianews.nvidia.com/news/nvidia-and-global-computer-makers-launch-industry-standard-enterprise-server-platforms-for-ai

6.) Data Center Security Framework ‘Morpheus’ 

Morpheus เป็น AI Framework ด้าน Cybersecurity ที่ Nvidia แนะว่าจะสามารถดึงเข้าความสามารถ AI ของตนและ BlueFiled-3 ซึ่งอย่างหลังอาจวางอยู่บน Edge อยู่แล้ว โดย Morpheus จะช่วยให้สามารถประมวลผลแพ็กเก็ตที่วิ่งผ่าน Data Center ได้แบบเรียลไทม์ หลังจากนั้นจะส่งข้อมูลต่อไปยัง EGX Server เพื่อวิเคราะห์เชิงลึกต่อไป ทั้งหมดนี้พาร์ทเนอร์อย่าง ARIA Cybersecurity Solutions, Cloudflare, F5, Fortinet, Guardicore, Canonical, Red Hat และ VMware  ได้ขานรับ Framework นี้เพื่อทำงานร่วมกันกับ Nvidia แล้ว

7.)  Jarvis conversational AI framework

Nvidia ได้ประกาศพร้อมใช้งาน Javis หรือ conversational AI framework ให้นักพัฒนาได้นำไปเทรนโมเดล Deep Learning เพื่อสร้าง AI ในการสนทนาแล้ว โดย Framework มีจุดเด่นอย่างการทำ Speech Recognition ได้อย่างแม่นยำ มีความสามารถในการแปลได้หลายภาษาในระดับเรียลไทม์ รวมถึง Text-to-Speech ยิ่งเมื่อรวมกับปัจจัยจาก Nvidia GPU จะยิ่งแสดงศักยภาพได้ดีขึ้น

8.) Autonomous Platform

ในมุมของพาหนะขับเคลื่อนอัตโนมัติ Nvidia ได้ประกาศนวัตกรรมใหม่คือ Atlas หรือแพลตฟอร์มที่มีศักยภาพของโปรเซสเซอร์ถึง 1000 TOPS ซึ่งแรงกว่ารุ่นก่อนหน้า 4 เท่า โดย System-on-chip (SOC) อาศัยสถาปัตยกรรม GPU และ Arm CPU ใหม่ผสานพลังกับ BlueField ที่มาพร้อมกับฟีเจอร์ช่วยป้องกันการโจมตีทางไซเบอร์ ทั้งนี้เพื่อไม่ให้ชนกับแพลตฟอร์มรุ่นก่อนอย่าง Orin (254 TOPS) ที่กำหนดเริ่มปี 2022 ทาง Nvidia ได้ประกาศแผนของ Atlas ในปี 2025

โดยผลงานของ Orin ทาง Nvidia คุยว่าลูกค้าอย่าง Volvo ได้เตรียมนำไปใช้ในรถยนต์อัตโนมัติรุ่นใหม่ ซึ่งคาดว่ารุ่นแรกน่าจะเป็น Volvo XC90 อย่างไรก็ดี Autonomous Platform เป็นสิ่งที่ควบคู่กันไปกับ Omniverse ในการทำเทรนโมเดลในระบบ Perception ในงานด้านนี้เพื่อจำลองกระบวนการตัดสินใจได้

9.) DGX Superpod

DGX superPOD เป็น Cloud-Native Supercomputer (https://www.nvidia.com/en-us/data-center/dgx-superpod/) ซึ่งในรุ่นต่อไปจะมีการพัฒนาไปใช้ DGX A100 มากกว่า 20 ตัวที่มาพร้อมกับเทคโนโลยี Nvidia InfiniBand HDR networking โดยย้อนไปที่รุ่นปัจจุบันของ superPOD มีการใช้งาน BlueField-2 อย่างไรก็ดีคาดว่า superPOD ใหม่จะสามารถให้บริการผ่านทางพาร์ทเนอร์ได้ใน Q2 ปีนี้ ในวาระเดียวกัน Nvidia ยังได้ประกาศถึง DGX Station A100 หรือเดสก์ท็อปสำหรับงาน AI สนนราคา Subscription ที่ 9,000 เหรียญสหรัฐฯต่อเดือน 

ที่มา : https://www.zdnet.com/article/everything-announced-at-nvidias-gtc-2021-a-data-center-cpu-a-new-autonomous-driving-soc-an-sdk-for-quantum-circuit-simulations-and-more/

from:https://www.techtalkthai.com/nvidia-launches-first-cpu-grace-omniverse-enterprise-bluefield3-morpheus-cuquantum-sdk-and-more-in-gtc-2021/

NVIDIA เปิดตัวชิป Atlan สำหรับรถยนต์ เสนอรวมคอมพิวเตอร์ในรถเข้าด้วยกัน

NVIDIA เปิดตัว Atlan ชิปรุ่นต่อไปสำหรับรถยนต์ เป็นการอัพเกรดจากชิป Orin ที่เปิดตัวไปเมื่อปลายปี 2020 แต่ยังต้องรออีกหลายปีจึงมีรถยนต์ใช้งานจริง

Atlan มีพลังประมวลผล 1,000TOPS หรือประมาณ 100 คะแนนจากการทดสอบ SPEC 2017 Integer Rate (เทียบกับซีพียู EPYC รุ่นล่าสุดได้ประมาณ 424-452 คะแนน) ภายในชิป ตัวซีพียูเป็น Grace และส่วนกราฟิกเป็น Ampere และมีส่วน BlueField สำหรับรักษาความปลอดภัย

ชิป Orin ที่เปิดตัวก่อนหน้านี้จะเริ่มใช้งานใน Volvo XC90 ที่จะเปิดตัวปี 2022 ส่วน Atlan จะเริ่มส่งมอบตัวอย่างได้ในปี 2023 และน่าจะมีรถยนต์ใช้งานจริงในปี 2025

ในงานเดียวกัน Jensen Huang ซีอีโอ NVIDIA ยังระบุว่าพลังประมวลของชิปสำหรับรถยนต์ทุกวันนี้เพียงพอสำหรับการรวมฟังก์ชั่นงานหลายด้านเข้าด้วยกัน เชน ระบบรถอัตโนมัติ, ระบบความบันเทิงในรถ, การติดตามความพร้อมของคนขับ โดยแยกแต่ละแอปพลิเคชั่นออกจากกัน โดยชิป Orin นั้นรองรับระบบปฎิบัติการทั้ง QNX, ลินุกซ์, และแอนดรอยด์อยู่แล้ว และการรันโหลดงานคนละประเภทก็สามารถแยกส่วนออกจากกันเพื่อความปลอดภัย สามารถอัพเดตแยกทีละส่วนได้โดยไม่ต้องบูตทั้งระบบ

ที่มา – NVIDIA

No Description

No Description

Topics: 

from:https://www.blognone.com/node/122158

ลาก่อน Quadro, NVIDIA เปิดตัวจีพียูเวิร์คสเตชัน RTX Ampere ทั้งเดสก์ท็อป-โน้ตบุ๊ก

ปีที่แล้ว NVIDIA เปิดตัวจีพียูเกมมิ่ง GeForce สถาปัตยกรรม Ampere จนครบทุกไลน์แล้ว ระยะถัดมาจึงเป็นคิวของจีพียูเวิร์คสเตชั่นที่เราเคยรู้จักกันในชื่อ Quadro บ้าง

NVIDIA เริ่มเลิกใช้ชื่อ Quadro ทำตลาดมาตั้งแต่ปีที่แล้ว ของเดิมในยุค Turing ใช้ชื่อแบรนด์ NVIDIA Quadro RTX แต่พอมาเป็นยุค Ampere เหลือแต่คำว่า NVIDIA RTX เฉยๆ โดยเริ่มจาก NVIDIA RTX A6000 ที่เปิดตัวเมื่อปี 2020

วันนี้ NVIDIA ออกจีพียู RTX Ampere มารวดเดียว 8 รุ่นย่อย ดังนี้

เดสก์ท็อป รองรับ PCIe Gen 4

  • NVIDIA RTX A5000 แรม 24GB GDDR6
  • NVIDIA RTX A4000 แรม 16GB GDDR6

โน้ตบุ๊ก ใช้เทคโนโลยี Max-Q รุ่นที่สาม แบบเดียวกับ GeForce RTX ซีรีส์ 30, รองรับแรมสูงสุด 16GB

  • NVIDIA RTX A2000
  • NVIDIA RTX A3000
  • NVIDIA RTX A4000
  • NVIDIA RTX A5000

เซิร์ฟเวอร์ (ไม่มีคำว่า RTX กลุ่มนี้คือแบรนด์ NVIDIA Tesla เดิมที่ตัดคำว่า Tesla ออก) เป็นรุ่นรองลงมาจาก NVIDIA A100 ที่เปิดตัวไปก่อนแล้ว

  • NVIDIA A10
  • NVIDIA A16

No Description

ที่มา – NVIDIA

from:https://www.blognone.com/node/122157

ลาก่อน x86, NVIDIA เปิดตัวซีพียู Grace เร่งความเร็วซูเปอร์คอมพิวเตอร์ได้สิบเท่า

NVIDIA เปิดตัวซีพียู Grace เป็นซีพียู Arm Neoverse ที่ออกแบบมาเพื่อทำงานร่วมกับชิปกราฟิกอย่างแนบแน่นเพื่อให้ได้ประสิทธิภาพสูงสุด โดย NVIDIA ระบุว่าสถาปัตยกรรมของ Grace จะทำให้รันงานด้านปัญญาประดิษฐ์เร็วกว่าเดิมถึงสิบเท่า

Grace เชื่อมต่อกับชิปกราฟิกผ่าน NVLink รุ่นที่ 4 มีแบนวิดท์ระหว่างสองชิป 900GB/s และใช้แรม LPDDR5x สถาปัตยกรรมใหม่ใช่หน่วยความจำเป็น address space ร่วมกันกับกราฟิก

Swiss National Computing Center (CSCS) กำลังสร้างซูเปอร์คอมพิวเตอร์ ALPS โดยใช้ซีพียู Grace สร้างโดย HPE คาดว่าเปิดใช้งานปี 2023 และ Los Alamos National Laboratory ศูนย์วิจัยกระทรวงพลังงานสหรัฐฯ ผู้ใช้ซูเปอร์คอมพิวเตอร์อันดับต้นๆ ของโลกก็วางแผนสร้างซูเปอร์คอมพิวเตอร์ใหม่โดยใช้ Grace เช่นกัน

ที่มา – NVIDIA

No Description

from:https://www.blognone.com/node/122153

NVIDIA เปิดตัว cuQuantum SDK ชุดจำลองการทำงานคอมพิวเตอร์ควันตัม

NVIDIA เปิดตัว cuQuantum SDK ชุดพัฒนาซอฟต์แวร์สำหรับจำลองการทำงานคอมพิวเตอร์ควันตัมบนชิปกราฟิก

ตัว SDK มีตัวเลือกแนวทางการจำลองคอมพิวเตอร์ควันตัม เช่น แบบ state vector จะได้ผลที่แม่นยำแต่เปลืองหน่วยความจำมาก ทำให้จำลองคอมพิวเตอร์ควันตัมได้ประมาณ 50 qubit บนซูเปอร์คอมพิวเตอร์ และแบบ tensor network simulations ที่ใช้หน่วยความจำน้อยกว่าแต่อาศัยการประมวลผลมากกว่า แนวทางนี้ทำให้ทำให้ NVIDIA สามารถจำลองชิป Google Sycamore ชิปตัวแรกที่ผ่านระดับ Quantum Supremacy บนคอมพิวเตอร์ Selene ที่วงจรความลึก 20 ชั้น ได้ในเวลาไม่ถึงสิบนาที

cuQuantum SDK เปิดให้นักวิจัยแสดงความสนใจนำไปใช้งานได้แล้ววันนี้ (ลิงก์ขณะเขียนข่าวยังใช้ไม่ได้)

ที่มา – NVIDIA

ชิป Google Sycamore ที่ NVIDIA จำลองการทำงาน

from:https://www.blognone.com/node/122152

NVIDIA เปิดตัว Omniverse Enterprise เซิร์ฟเวอร์โลกเสมือนสำหรับองค์กร

ที่งาน GTC2021 วันนี้ NVIDIA เปิดตัว NVIDIA Omniverse Enterprise แพลตฟอร์มจำลองโลกความเป็นจริง หลังจากเมื่อต้นปีที่ผ่านมา NVIDIA ปล่อยแพลตฟอร์มนี้ให้นักพัฒนาทดสอบไปก่อนแล้ว

องค์กรขนาดใหญ่ใช้ Omniverse สำหรับการจำลอง (digital twin) เพื่อปรับแต่งการทำงาน ลูกค้าที่ทดลองใช้ Omniverse แล้วเช่น BMW Group สร้างโรงงานจำลองจากโรงงานจริง 31 แห่ง เพื่อปรับแต่งโรงงาน, ฝึกหุ่นยนต์สำหรับใช้งานในโรงงาน, และการทำนายการซ่อมบำรุงล่วงหน้า หรือ Ericsson ใช้ Omniverse จำลองโครงสร้าง 5G

NVIDIA เปิดให้องค์กรที่สนใจสมัครสมาชิกใช้งาน NVIDIA Omniverse Enterprise ได้แล้ว

ที่มา – NVIDIA

No Description

Topics: 

from:https://www.blognone.com/node/122151

หลุด Benchmark NVIDIA GEFORCE RTX 3050 ชนะ RTX 2060, 1660 Ti คาดมาเร็ว ๆ นี้

NVIDIA GEFORCE RTX 3050 นั้นมีข่าวและข้อมูลหลุดออกมาสักพักแล้ว ซึ่งล่าสุดนั้นหลุดออกมาที่หน้าสเปคของ ASUS TUF Dash F15 ครั้งหนึ่งแล้ว ซึ่งจัดว่าเป็นรุ่นเล็กของสาย RTX 3000 Series แต่ประสิทธิภาพจัดว่าดีน่าประทับใจและชนะการ์ดรุ่นเก่าอย่าง RTX 2060 และ GTX 1660 Ti ได้ในการ Benchmark ด้วยเกม Shadow of the Tomb Raider และ 3D Mark Time Spy ได้ผลคะแนนออกมาดีทีเดียว

NVIDIA GEFORCE RTX 3050

NVIDIA GEFORCE RTX 3050 ทดสอบแล้วประสิทธิภาพดีทีเดียว

ga107 chip nvidia

สำหรับข้อมูลตอนนี้ GEFORCE RTX 3050 จะมีรุ่น 3050 Ti ด้วย คาดว่าจะใช้ชิป GA107 ของ NVIDIA แต่ข้อมูลทั้งหมดยังเป็นข้อมูลหลุดและทาง NVIDIA และผู้ผลิตโน๊ตบุ๊คก็ยังไม่ได้เปิดตัวการ์ดจอรุ่นนี้อย่างเป็นทางการ ส่วนสเปคที่หลุดมามีข้อมูลดังนี้

รุ่น / สเปค GEFORCE RTX 3050 GEFORCE RTX 3050 Ti
แรมการ์ดจอ 4GB GDDR6 4GB GDDR6
Memory Interface 128-bit 128-bit
Memory Bandwidth 88 GB/s 88 GB/s
CUDA Cores 2,048 2,560
TGP
(Total Graphic Power)
35-80 วัตต์ 35-80 วัตต์
Base Clock speeds 35 วัตต์ – 713 MHz
50 วัตต์ – 1,178 MHz
60 วัตต์ – 1,238 MHz
80 วัตต์ – 1,530 MHz
35 วัตต์ – 735 MHz
50 วัตต์ – 1,140 MHz
60 วัตต์ – 1,223 MHz
80 วัตต์ – 1,463 MHz
Boost Clock 35 วัตต์ – 1,057 MHz
50 วัตต์ – 1,455 MHz
60 วัตต์ – 1,500 MHz
80 วัตต์ – 1,740 MHz
35 วัตต์ – 1,035 MHz
50 วัตต์ – 1,410 MHz
60 วัตต์ – 1,485 MHz
80 วัตต์ – 1,695 MHz

จะเห็นว่าทั้งสองรุ่นนี้มีสเปคไล่เลี่ยกันทั้งหมด โดยค่า Clock speeds นั้นจะเห็นว่าตัว NVIDIA GEFORCE RTX 3050 นั้นจะเร็วกว่า แต่ตัว Ti มี CUDA Cores มากกว่า ซึ่งถ้าเอาไปเล่นเกม ตัว Ti จะเรนเดอร์ฉากและสิ่งต่าง ๆ ในเกมออกมาได้เร็วกว่าตัวธรรมดา

Tomb Raider8852

สำหรับผลการ Benchmark บนความละเอียด 1080p ที่หลุดออกมา จะเห็นว่า GEFORCE RTX 3050 นั้นทำเฟรมเรทได้ดีทีเดียว ถ้าตั้งค่ากราฟฟิคในเกมเป็น Ultra จะได้ที่ 60fps ด้วยกัน ชนะ GTX 1650 Ti ที่ได้เพียง 48fps และ GTX 1660 Ti Max-Q ซึ่งได้เพียง 57fps เมื่อปรับกราฟฟิคลงมาที่ Medium จะเห็นว่าเฟรมเรทยิ่งสูงขึ้นอีกเป็น 75fps ส่วน GTX 1650 Ti จะได้เพียง 65fps และ GTX 1660 Ti Max-Q จะได้เพียง 70 เฟรมเท่านั้น

ด้าน RTX 3050 Ti ถ้าปรับกราฟฟิคในเกมเป็น Ultra จะได้ 69fps ซึ่งเท่ากับ GTX 1660 Ti ที่ทำได้เท่ากัน แพ้ RTX 2060 Max-Q ที่ทำได้ 70fps ไปเพียง 1fps เท่านั้น ถือว่าทำคะแนนออกมาได้เท่ากัน แต่เมื่อปรับกราฟฟิคลงมาที่ Medium จะเห็นว่า RTX 3050 Ti ได้เฟรมเรทที่สูงมากถึง 106fps ทีเดียว ชนะ GTX 1660 Ti ที่ได้แค่ 83fps และ RTX 2060 Max-Q ที่ทำได้ 87fps ไปได้อย่างสวยงาม ซึ่งเกมมิ่งโน๊ตบุ๊ครุ่นใหม่ ๆ ที่ใส่การ์ดจอ RTX 3050 ทั้งตัวธรรมดาและ Ti เปิดตัวมาเมื่อไหร่ ก็สามารถซื้อมาเล่นเกมและทำงานได้แน่นอน

3DMark1779

ส่วนการทดสอบกับโปรแกรม Benchmark กราฟฟิคอย่าง 3DMark Time Spy จะเห็นว่าทั้งสองการ์ดทำคะแนนออกมาได้น่าสนใจทีเดียว ด้าน NVIDIA GEFORCE RTX 3050 จะอยู่ที่ 4,798 คะแนน ชนะ GTX 1650 Ti ที่ทำได้แค่ 3,601 คะแนนแบบขาดลอย และไล่เลี่ยกับ GTX 1660 Ti Max-Q ที่ทำได้ 5,084 คะแนน

ส่วน NVIDIA GEFORCE RTX 3050 Ti นั้นได้ 5,246 คะแนน เมื่อเทียบกับ GTX 1660 Ti ที่ทำได้ 5,659 คะแนนและ RTX 2060 Max-Q ที่ได้ 5,638 คะแนน นั้น ถือว่าแพ้ไประดับหนึ่ง แต่ก็ไม่ถึงกับโดนทิ้งห่างมากนัก ดังนั้นถือว่าการ์ดจอทั้งสองรุ่นนี้มีประสิทธิภาพที่ดีทีเดียว ถ้าผู้ผลิตโน๊ตบุ๊คและ NVIDIA เปิดตัวโน๊ตบุ๊คติดตั้งการ์ดจอรุ่นนี้เมื่อไหร่ก็สามารถซื้อมาเล่นเกมได้สบาย ๆ เลย

ที่มา : Notebookcheck, TechRadar

from:https://notebookspec.com/web/587159-nvidia-geforce-rtx-3050-win-rtx-2060