คลังเก็บป้ายกำกับ: DEEP_LEARNING

อินเทลร่วมมือไมโครซอฟท์ สร้างปัญญาประดิษฐ์จับมัลแวร์ด้วยการแปลงไบนารีเป็นภาพ แล้วจัดหมวดหมู่เหมือนภาพปกติ

อินเทลและไมโครซอฟท์เผยแพร่งานวิจัยการพัฒนาปัญญาประดิษฐ์ STAMINA (STAtic Malware-as-Image Network Analysis) ที่มีแนวคิดสำคัญคือการสร้างปัญญาประดิษฐ์มาจับมัลแวร์แทนที่การจับจากค่าแฮชหรือความเหมือนของโค้ดแบบเดิมๆ แต่อาศัยโมเดลปัญญาประดิษฐ์แบบ deep learning มาหารูปแบบมัลแวร์แทน

แนวทางของงานวิจัยนี้อาศัยการแปลงภาพชนิดไบต์ต่อไบต์มาเป็นพิเซล จากนั้นย่อภาพให้เหลือขนาดเท่าที่โมเดลปัญญาประดิษฐ์รองรับ โดยใช้โมเดลจัดหมวดหมู่ภาพ Inception v1 ที่ฝึกกับข้อมูล ImageNet มาก่อนแล้วเป็นตัวตั้งต้น จากนั้นออกแบบส่วนท้ายของโมเดลเสียใหม่เพื่อการทำนายว่าเป็นมัลแวร์หรือไม่ แล้วจึงนำโมเดลมา fine tune ด้วยข้อมูลมัลแวร์เกือบห้าแสนตัวผสมเข้ากับไบนารีไม่มุ่งร้าย

No Description

ผลที่ได้สำหรับไบนารีขนาดเล็กได้ความแม่นยำถึง 99.07% แต่เมื่อพยายามพัฒนาโมเดลที่รองรับภาพใหญ่ขึ้นโดยอาศัยการแบ่งส่วนภาพ (segmentation) ความแม่นยำก็ลดลงเหลือ 95.97% ข้อได้เปรียบของ STAMINA คือโมเดลสามารถมองภาพรวมของไบนารีและหาลักษณะร่วมของไฟล์ได้ แม้ความแม่นยำจะไม่ดีนักโดยเฉพาะเมื่อไฟล์มีขนาดใหญ่ขึ้น

ทีมวิจัยระบุว่าเตรียมจะทดสอบประสิทธิภาพของโมเดลที่จับสร้างภาพจากโมเดล deep learning อื่นอีกครั้ง

ที่มา – Intel, ZDNet

from:https://www.blognone.com/node/116271

Kubeflow ออกรุ่น 1.0: พัฒนาโมเดล, ฝึกปัญญาประดิษฐ บน Kubernetes

Kubeflow ชุดบริการสำหรับการพัฒนาปัญญาประดิษฐ์แบบ deep learning บน Kubernetes ออกรุ่น 1.0 โดยแอปพลิเคชั่นย่อยส่วนสำคัญๆ ได้ออกรุ่นเสถียรออกมาพร้อมกัน ทำให้พร้อมสำหรับการใช้งานจริงแล้ว

แอปพลิเคชั่นย่อยที่พร้อมใช้งานบนโปรดักชั่นแล้ว ได้แก่

  • Kubeflow UI หน้าจอ dashboard ดูภาพรวม
  • Jupyter notebook controller สร้างโน้ตบุ๊กสำหรับพัฒนา และตัวหน้าเว็บ
  • Tensorflow Operator และ PyTorch Operator กระจายงานฝึกโมเดลให้ทั่วคลัสเตอร์
  • kfctl คำสั่งดีพลอยงานและการอัพเกรดซอฟต์แวร์
  • Profile controller จัดการผู้ใช้

ถ้านับแอปพลิเคชั่นระดับเบต้า ก็จะมีส่วนสำคัญเช่น KFServing สำหรับการรันปัญญาประดิษฐ์เป็น API, หรือ Pipelines เอนจินรันงาน เช่นการจัดรูปข้อมูลก่อนรันโมเดล

ที่มา – Medium: Kubeflow

No Description

from:https://www.blognone.com/node/114937

นักวิจัยพัฒนาเครื่องมือตรวจจับปัญหาที่เกิดจากการอัปเดตซอฟต์แวร์

ทีมนักวิจัยจากมหาวิทยาลัย Texas A&M ร่วมกับ Intel Labs พัฒนาเครื่องมือช่วยตรวจจับปัญหาความผิดพลาด ที่เกิดจากการอัปเดตซอฟต์แวร์ด้วยการใช้ Deep Learning

credit : helpnetsecurity.com

ไอเดียของ Deep Learning สำหรับตรวจหาความผิดพลาดจากการอัปเดตซอฟต์แวร์ ก็คือนักวิจัยได้อาศัยค่า Performance Counter ภายใน CPU (โค้ดที่ใช้ติดตามประสิทธิภาพว่าโปรแกรมถูกประมวลผลอย่างไร) ที่ปัจจุบันคอมพิวเตอร์สมัยใหม่มี Performance Counter มาให้อยู่แล้ว ดังนั้นสิ่งที่นักวิจัยทำก็คือการเทรนโมเดลของ Deep Learning ด้วยค่า Performance Counter ของโปรแกรมปกติที่ไม่มีบั๊ก 

อย่างไรก็ดีถึงแม้ว่าจะมีค่ามากมายของ Performance Counter แต่ทีมนักวิจัยก็สามารถลดขนาดของข้อมูลได้เหมือนกับที่ทำ Deep Learning กับรูปภาพความละเอียดสูง (ใช้ค่า Weight Matrix แทนกลุ่มของข้อมูล) เพียงเท่านี้นักวิจัยก็สามารถนำโมเดลไปตรวจสอบโปรแกรมเวอร์ชันที่มีบั๊กและมีปฏิกิริยาของ Performance Counter ที่เพี้ยนไปได้แล้ว ก็ได้แต่หวังว่าเครื่องมือนี้จะออกสู่ตลาดได้จริงเพื่อลดความเสี่ยงของชาวแอดมินทุกท่านครับ

ที่มา :  https://www.helpnetsecurity.com/2020/02/17/errors-software-updates/

from:https://www.techtalkthai.com/detection-bugs-of-software-update-by-deep-learning/

5 Use Cases การป้องกันภัยคุกคามไซเบอร์อย่างชาญฉลาดด้วย AI และ Machine Learning ของ Fortinet

ภายในงาน Cyber Defense Initiative Conference (CDIC) ครั้งที่ 18 ประจำปี 2019 ที่เพิ่งจบไป ดร. รัฐิติ์พงศ์ พุธเจริญ Senior Manager, System Engineering จาก Fortinet Thailand ได้ออกมาแนะนำ 5 Use Cases การนำเทคโนโลยี AI และ Machine Learning เข้ามาผสานกับโซลูชันของ Fortinet ไม่ว่าจะเป็น Anti-malware, Web Filtering, Web App Security, UEBA หรือ Sandbox เพื่อยกระดับการตรวจจับและป้องกันภัยคุกคามไซเบอร์

วิวัฒนาการของการตรวจจับมัลแวร์

ดร. รัฐิติ์พงศ์ ได้แบ่งวิวัฒนาการของการตรวจจับมัลแวร์ออกเป็น 3 ยุคใหญ่ๆ ยุคแรก คือ Signature-based ซึ่งใช้การวิเคราะห์แบบ Static Analysis และต้องทราบรูปแบบ (Signature) ของมัลแวร์นั้นๆ ก่อนถึงจะตรวจจับได้ ส่งผลให้ไม่สามารถตรวจจับการโจมตีที่ไม่เคยพบมาก่อน (Unknown) หรือการโจมตีแบบ Zero-day ได้

ถัดมาในยุคที่ 2 คือ Behavioral Analysis ซึ่งใช้เทคนิค Dynamic Emulation หรือก็คือตรวจจับจากการวิเคราะห์พฤติกรรรมของมัลแวร์โดยไม่ต้องอาศัย Signature ช่วยให้สามารถตรวจจับการโจมตีที่ไม่เคยพบมาก่อนและ Zero-day ได้ อย่างไรก็ตาม วิธีการนี้ยังมีข้อจำกัดตรงที่พฤติกรรมของมัลแวร์บนแต่ละโฮสต์อาจแตกต่างกัน และต้องรอการวิเคราะห์พฤติกรรมชั่วเวลาหนึ่ง ไม่สามารถป้องกันได้แบบเรียลไทม์

ยุคที่ 3 หรือยุคปัจจุบัน เป็นยุคที่มีการนำเทคโนโลยี AI และ Machine Leaning เข้ามาช่วยคัดแยกมัลแวร์ออกจากไฟล์ปกติ ผ่านเทคนิคการสอนและโมเดลการเรียนรู้รูปแบบต่างๆ ช่วยให้สามารถวิเคราะห์การโจมตีที่ไม่เคยพบมาก่อนและ Zero-day ได้แบบเรียลไทม์ และดำเนินการตอบสนองได้อย่างอัตโนมัติ

ยกระดับการตรวจจับด้วย Neural Networks

Fortinet เป็นหนึ่งในผู้ให้บริการด้านความมั่นคงปลอดภัยที่นำเทคโนโลยี AI และ Machine Learning เข้ามาช่วยเพิ่มขีดความสามารถในการตรวจจับภัยคุกคามไซเบอร์ โดยเลือกใช้เทคนิค Neural Networks ซึ่งเป็นการเรียนรู้และคิดวิเคราะห์ที่อาศัยการจำลองการทำงานของสมองมนุษย์ หนึ่งในนั้นคือการรับข้อมูลเข้ามา แล้วรับรู้ว่าข้อมูลนั้นคืออะไร จากนั้นก็ทำการจดจำและเรียนรู้ในการรับรู้สิ่งที่คล้ายๆ กัน เช่น เริ่มแรก Machine ไม่รู้จักส้ม แต่เมื่อเราสอนให้ Machine รู้ว่านี่คือส้มจากการให้ดูรูปส้มหลายๆ รูป หลายๆ ประเภท Machine ก็จะทราบว่าสิ่งที่เรียกว่าส้มต้องมีคุณลักษณะสีส้ม ผลกลม เมื่อ Machine เห็นส้มรูปอื่นๆ ที่ไม่เคยเห็นมาก่อน หรืออาจเป็นพันธุ์อื่น ก็จะจำแนกได้ว่า สิ่งที่เห็นคือส้มตามที่ได้เรียนรู้ไว้

เช่นเดียวกัน ยิ่งให้ Machine เรียนรู้มัลแวร์หลากหลายประเภท หลากหลายรูปแบบมากเท่าไหร่ ก็ยิ่งทำให้ Machine รู้จักมัลแวร์มากขึ้นเท่านั้น แม้จะเจอมัลแวร์ที่ไม่เคยพบมาก่อน ก็สามารถพิจารณาจากคุณสมบัติแล้วจำแนกว่าเป็นมัลแวร์ออกจากไฟล์ปกติได้ สำหรับโมเดลที่ใช้เรียนรู้นั้น Fortinet เลือกนำทั้ง 3 โมเดล ได้แก่ Supervised, Unsupervised และ Reinforcement Learning มาใช้ในบริการตรวจจับภัยคุกคามของตน

เพื่อให้การสร้างโมเดล Machine Learning มีความแม่นยำ ปริมาณข้อมูลที่ให้ Machine Learning เรียนรู้จึงเป็นสิ่งสำคัญ ด้วยการที่ Fortinet ครองอันดับ 1 เจ้าของผลิตภัณฑ์ที่ส่งมอบอุปกรณ์ไปยังลูกค้ากว่า 500,000 รายทั่วโลก ทำให้ Fortinet สามารถเก็บข้อมูลจาก Sensors และไฟล์ต้องสงสัยจากอุปกรณ์ของตนได้มากถึง 100,000 ล้านรายการต่อวัน ข้อมูลเหล่านี้จะถูกส่งไปยัง FortiGuard Threat Intelligence Cloud เพื่อวิเคราะห์ว่าเป็นมัลแวร์หรือไม่ จากนั้นส่งข้อมูลต่อให้ Machine Learning เรียนรู้ถึงคุณลักษณะที่ทำให้เป็นมัลแวร์ เมื่อเรียนรู้มากขึ้น Machine Learning ก็จะสามารถตัดสินใจได้ด้วยตัวเองว่า ไฟล์ไหนเป็นไฟล์ปกติ และไฟล์ไหนมีมัลแวร์แฝงตัวอยู่

5 Use Cases การใช้ Machine Learning ป้องกันภัยคุกคามไซเบอร์อย่างชาญฉลาด

ดร. รัฐิติ์พงศ์ ได้ยกตัวอย่างการนำ Machine Learning เข้ามาผสานรวมกับโซลูชันของ Fortinet เพื่อยกระดับขีดความสามารถในการตรวจจับภัยคุกคามไซเบอร์ โดยแบ่งออกเป็น 5 Use Cases ที่น่าสนใจ ดังนี้

1. Anti-malware

ใช้ Neural Network ในการสร้างโมเดลสำหรับเรียนรู้คุณลักษณะของมัลแวร์ดังที่กล่าวไปก่อนหน้านี้ Fortinet รวบรวมข้อมูลมัลแวร์จาก FortiGuard Labs แล้วส่งต่อไปให้ Machine Learning เรียนรู้ถึงคุณลักษณะที่บ่งชี้ว่า ถ้าเจอไฟล์รูปแบบนี้ หน้าตาแบบนี้ มีฟีเจอร์แบบนี้ จะเป็นมัลแวร์ ด้วยวิธีนี้จะทำให้ Anti-malware ของ Fortinet สามารถตรวจจับมัลแวร์ตระกูลเดียวกันแต่คนละ Variant หรือมัลแวร์ชนิดใหม่แต่ใช้เทคนิคเดิมของมัลแวร์อื่นได้นอกเหนือจากการใช้ Signature เพียงอย่างเดียว

2. Web Filtering

Fortinet เริ่มใช้ Machine Learning และ AI-based DNS บน Web Filtering มาตั้งแต่ปี 2011 เพื่อคำนวณค่า “ความน่าเป็น” ของเว็บว่า เว็บที่ตรวจสอบเป็นเว็บที่อันตราย อยู่ภายใต้การควบคุมของแฮ็กเกอร์ หรือมีชื่อเสียง (Reputation) ในทางที่ไม่ดีหรือไม่ ถ้าพบว่าเป็นเว็บที่มีความเสี่ยงสูงก็จะบล็อกไม่ให้ผู้ใช้เข้าถึงเว็บนั้นๆ

3. Web App Security

Fortinet เป็นผู้ให้บริการเพียงรายเดียวที่ใช้ Machine Learning ถึง 2 ชั้นในการปกป้อง Web App จากภัยคุกคามไซเบอร์ โดยชั้นแรกจะทำหน้าที่เรียนรู้ลักษณะของทราฟฟิกที่วิ่งเข้าสู่ Web App เช่น ประเภทและความยาวของพารามิเตอร์ มาสร้างเป็นโปรไฟล์เก็บไว้ เมื่อมีการร้องขอเข้ามา ก็จะทำการเปรียบเทียบลักษณะของทราฟฟิกว่าตรงกับโปรไฟล์ที่ได้เรียนรู้ไว้หรือไม่ ถ้าไม่ ก็ต้องสงสัยไว้ว่าเป็น “ทราฟฟิกที่ผิดปกติ” แต่อาจจะยังไม่ใช่การโจมตี หลังจากนั้น ชั้นที่ 2 จะเข้ามาตรวจสอบคุณลักษณะหรือรูปแบบของ “ทราฟฟิกที่ผิดปกติ” เหล่านั้นต่อว่าสอดคล้องกับมัลแวร์หรือการโจมตีหรือไม่ ถ้าใช่ก็จะทำการบล็อกทราฟฟิกไม่ให้เข้าถึง Web App ทันที

4. UEBA

หนึ่งในเทคนิคสำคัญในการตรวจจับการโจมตีไซเบอร์แบบ Proactive คือการตรวจสอบพฤติกรรมของผู้ใช้ Fortinet ได้ทำการสอน Machine Learning ให้ทราบตั้งแต่แรกแล้วว่า พฤติกรรมที่ไม่ดีของมนุษย์บนโลกไซเบอร์มีอะไรบ้าง เช่น เข้าถึงไฟล์ของฝ่ายการเงินหรือฝ่ายบุคคลตอนกลางคืน มีการดาวน์โหลดไฟล์จำนวนมากจากพนักงานที่กำลังจะลาออก เป็นต้น ซึ่ง Fortinet จะคอยติดตามการกระทำของพนักงานในองค์กรผ่านทาง Agent ที่ติดตั้งบนเครื่อง ถ้าพบการกระทำไม่เหมาะสมที่ตรงกับที่ Machine Learning ได้เรียนรู้ไว้ ก็จะแจ้งเตือนให้ทราบทันทีว่าพฤติกรรมของพนักงานคนดังกล่าวมีความเสี่ยง ควรดำเนินการรับมือโดยเร็ว เรียกเทคนิคการตรวจสอบพฤติกรรมของผู้ใช้นี้ว่า User Entity & Behavior Analytics (UEBA)

5. Sandbox

Sandbox เป็นเทคนิคการวิเคราะห์ภัยคุกคามระดับสูงสำหรับตรวจจับการโจมตีแบบ Zero-day อย่างไรก็ตาม เทคนิคนี้จำเป็นต้องใช้เวลาในการตรวจสอบและวิเคราะห์ ทำให้ไม่สามารถป้องกันการโจมตีได้แบบเรียลไทม์ Fortinet จึงได้นำ Machine Learning เข้ามาช่วยพิจารณาคุณลักษณะหรือฟีเจอร์ของไฟล์ที่ตรวจสอบใน Sandbox ด้วย เนื่องจากถึงจะเป็นการโจมตีแบบ Zero-day แต่ก็เป็นไปได้ที่จะใช้เทคนิคเก่าๆ หรือฟีเจอร์ของมัลแวร์อื่นก็เป็นได้ การผสาน Machine Learning เข้าไปใน Sandbox นี้ นอกจากจะช่วยเพิ่มประสิทธิภาพในการตรวจจับได้ถึง 20% แล้ว ยังช่วยให้สามารถป้องกัน Zero-day บางประเภทได้แบบเรียลไทม์อีกด้วย

เกี่ยวกับ Fortinet

Fortinet ก่อตั้งขึ้นเมื่อปี 2000 เป็นผู้ให้บริการโซลูชันด้านความมั่นคงปลอดภัยสมรรถนะสูงภายใต้คอนเซ็ปต์ “Broad”, “Integrated” และ “Automated” โดยมีการรักษาความมั่นคงปลอดภัยครอบคลุมทั้ง Network Operations, Security Operations, Multi-cloud Security, Application Security, Endpoint Protection และ Zero-day Threat Protection พร้อมทั้งสามารถผสานการทำงานร่วมกับแพลตฟอร์มอื่นหรือโซลูชันของ 3rd Parties ได้อย่าไร้รอยต่อ ที่สำคัญคือสามารถบริหารจัดการได้แบบรวมศูนย์และดำเนินการด้านความมั่นคงปลอดภัยได้โดยอัตโนมัติ ลดภาระของผู้ดูแลระบบและช่วยให้องค์กรสามารถโฟกัสกับการดำเนินธุรกิจได้อย่างเต็มที่

ปัจจุบันนี้มี Fortinet มีพนักงานกว่า 6,000 คน และลูกค้ากว่า 500,000 รายกระจายอยู่ทุกภูมิภาคทั่วโลก และมียอดขายสูงถึง 68,000 ล้านบาทในปี 2018 มากกว่าปีก่อนหน้านี้ถึง 20% นอกจากนี้ Fortinet ยังเป็นผลิตภัณฑ์ด้านความมั่นคงปลอดภัยอันดับ 1 ที่มีปริมาณการสั่งซื้อมากที่สุดตลอด 6 ปีที่ผ่าน แสดงให้เห็นถึงการเติบโตอย่างต่อเนื่องของ Fortinet ที่ปัจจุบันนี้มีโซลูชันครอบคลุมทั้ง Edge, Cloud, Core และ OT

from:https://www.techtalkthai.com/5-use-cases-of-using-ai-and-machine-learning-to-prevent-cyber-threats/

GIGABYTE กับ 7 GPU Servers ใหม่ที่จะช่วยเพิ่มพลังให้ AI ของคุณ

GIGABYTE ในฐานะผู้นำอุตสาหกรรมใน High Performance Accelerated Computing Platforms ได้มีการสร้างระบบใหม่ ๆ อย่างต่อเนื่อง GIGABYTE GPU Servers มีความหนาแน่นของ GPU สูงสุดในตลาด ประสิทธิภาพการใช้พลังงานและความยืดหยุ่นในการขยายระดับสูง ระบบเหล่านี้เหมาะสำหรับช่วง Workload งานการคำนวณที่แตกต่างกัน ไม่ว่าจะเป็นในด้าน AI, Deep Learning, VDI และการจำลองและประมวลผลทางวิทยาศาสตร์ต่างๆ

เพื่อเสริมทัพและยืนยันการเป็นผู้นำตลาด GIGABYTE จึงเปิดตัวผลิตภัณฑ์ใหม่อีก 7 รายการเข้าร่วมตระกูล GPU Server หรือ G-Series

5 ใน 7 รายการ ขับเคลื่อนด้วย AMD 2nd Gen EPYC™ (ROME) รวมเป็น 28 ระบบด้วยกันตั้งแต่การเปิดตัว 2nd Gen EPYC™ ในเดือนสิงหาคมที่ผ่านมา – ประกอบไปด้วย Rack Server, Edge Server, GPU Server และ 2U 4 node Server ที่มีความหนาแน่นสูง – ทำให้ GIGABYTE เป็นผู้ผลิตและจำหน่ายระบบกลุ่มผลิตภัณฑ์ AMD 2nd Gen EPYC™ ที่สมบูรณ์ที่สุดในตลาด

G292-Z22 / G292-Z42: Maximum GPU Density in the Smallest Footprint

G291 Series เป็นหนึ่งในแพลตฟอร์มเซิร์ฟเวอร์ GPU ที่ได้รับความนิยมสูงสุดของ GIGABYTE ด้วยการออกแบบอันชาญฉลาดที่ให้ความหนาแน่นสูงสุดของการ์ด GPGPU ถึง 8 ตัวใน Chassis 2U การออกแบบประกอบด้วยช่อง GPU ขนาดใหญ่สี่ช่องโดยแต่ละช่องมีสองฝั่ง Riser card ขนาดใหญ่ 4 ชุด ซึ่งสามารถเสียบเข้าหรือถอดออกจากแต่ละช่องได้อย่างง่ายดายด้วยที่จับแบบแบน รองรับการ์ด Dual-width GPGPU สองตัว ทั้งระบบรวม 8 การ์ด การออกแบบตัวถังนี้ไม่เพียงแต่ได้รับการปรับให้เหมาะสมที่สุดเพื่อความหนาแน่นของ GPU แต่ยังระบายความร้อนได้ดี เนื่องจากช่องในแต่ละด้านของเซิร์ฟเวอร์กลายเป็นอุโมงค์ลมที่มีการดึง / ผลัก อากาศผ่าน จากพัดลมทั้งด้านหน้าและด้านหลัง

G292 Series ก็ยังคงการออกแบบที่ยอดเยี่ยมไว้สำหรับ AMD 2nd Gen EPYC™ ระบบใหม่มีให้ทั้งซ็อกเก็ตเดี่ยว (G292-Z22) และซ็อกเก็ตคู่ (G292-Z42) สำหรับความต้องการใช้กับปริมาณงานที่แตกต่างกัน ทั้งคู่รองรับการ์ด GPU PCIe® Gen 3.0 เช่น NVIDIA Tesla V100 สูงสุดถึง 8 การ์ด

อีก 2 รุ่นเพิ่มเติมคือ G292-Z20 และ G292-Z40 ซึ่งรองรับการ์ด GPU PCIe® Gen 4.0 จะเปิดตัวในต้นปี 2563

G292-Z22 & G292-Z42

G482-Z50 / G482-Z51: Excellent GPU Density and Storage Capacity

G482 Series ของ GIGABYTE เป็นเซิร์ฟเวอร์ 4U ซ็อกเก็ตคู่ ที่ไม่เพียงแต่มีความจุของ GPU หนาแน่น แต่ยังมีพื้นที่ Storage ออนบอร์ดที่ช่วยให้ผู้ใช้สามารถสร้างคลัสเตอร์การจัดเก็บข้อมูลแบบรวม (Integrated Storage Cluster) ภายในหน่วยเดียวกันเพื่อ Deep Learning Workloads เป็นต้น

G482-Z50 สามารถรองรับการ์ด GPU PCIe Gen 3.0 ได้ถึง 10 การ์ด ในโหมดสมดุล  การ์ด GPU ชุดละ 5 การ์ดจะเชื่อมต่อกับหนึ่ง CPU ผ่าน PCIe Switch เพื่อลด GPU to GPU communication latency ให้น้อยลง G482-Z50 ยังมีช่องใส่ไดรฟ์ SATA / SAS ขนาด 3.5 นิ้ว 12 ช่อง และช่องใส่ไดรฟ์ NVMe / SATA / SAS ขนาด 2.5 นิ้ว ถึง 10 ช่อง เพื่อการจัดเก็บที่เพียงพอและสามารถใช้สร้าง “AI machine in a box” ที่มีประสิทธิภาพสูง

G482-Z50 & G482-Z51

ในขณะเดียวกัน G482-Z51 เป็นหนึ่งในระบบเซิร์ฟเวอร์ GPU PCIe Gen 4.0 ตัวแรกของโลกที่เปิดตัวสู่ตลาดพร้อมรองรับการ์ด GPU PCIe Gen 4.0 ได้สูงสุด 8 การ์ด (แต่ละ GPU เชื่อมต่อโดยตรงกับโปรเซสเซอร์ผ่าน PCIe Root) เหมาะอย่างยิ่งสำหรับการรวมโซลูชัน “AMD บน AMD” โดยใช้โปรเซสเซอร์ 2nd Gen EPYC™ ร่วมกับ Radeon Instinct™ MI50 ซึ่งเป็น PCIe® Gen 4.0 7nm Data Center ตัวแรกของโลกที่มีประสิทธิภาพสูงสุดเกือบ 27 TFLOPS สำหรับ FP16 Deep Learning Workloads

T181-Z70: “RACKLUTION-OP” GPU Server Node

RACKLUTION-OP เป็นสายผลิตภัณฑ์เซิร์ฟเวอร์ของ GIGABYTE ที่ได้รับการออกแบบตามมาตรฐาน Open Compute Project (OCP) ซึ่งออกแบบมาสำหรับแร็ค 21” OCP Rack  และมีระบบ PSU ที่แยกจากกันโดยมีการจ่ายไฟให้กับแต่ละโหนดเซิร์ฟเวอร์โดยระบบ bus-bar วิ่งไปทางด้านหลังของชั้นวาง มาตรฐาน Open Rack ได้รับการออกแบบมาเพื่อสร้างฮาร์ดแวร์ของดาต้าเซ็นเตอร์ที่มีประสิทธิภาพยืดหยุ่นและปรับขนาดได้ เช่น การปรับปรุงความหนาแน่นของแร็ค / โหนด ประสิทธิภาพการใช้พลังงานที่ดีขึ้น และการบำรุงรักษาที่ง่ายขึ้น RACKLUTION-OP เหมาะอย่างยิ่งสำหรับ Converged Server Applications หรือเพื่อสร้าง Software-defined Data Center

T181-Z70 เป็นโหนดประมวลผล GPU 1OU RACKLUTION-OP ประกอบด้วย CPU:  AMD 1st หรือ 2nd Gen  EPYC 7001/7002 Series, 4 x PCIe® Gen 3.0 แบบ Dual-width GPGPU ที่ด้านหลัง ส่วนด้านหน้า ประกอบด้วย 4 x  2.5” Hot Swap SSD / HDD Drive Bay  และอีกสองช่องสำหรับ Gen 3.0 x16 Low Profile Expansion Slots สำหรับ Add-on Networking หรือ Storage Card  ซึ่งสามารถผนวกรวมเข้ากับผลิตภัณฑ์ RACKLUTION-OP อื่น ของ GIGABYTE ได้อย่างง่ายดาย

T181-Z70: “RACKLUTION-OP” GPU Server Node

G241-G40 / G591-HS0: New Intel® Xeon® Scalable GPU Server Platforms

GIGABYTE ยังได้ประกาศเปิดตัว GPU Server ซ็อกเก็ตคู่ 2 รุ่นใหม่ รองรับ Intel® Xeon® Scalable โปรเซสเซอร์ รุ่นที่ 2 ได้แก่ G241-G40 และ G591-HS0

G241-G40 & G591-HS0: New Intel Xeon Scalable GPU Server Platforms

G241-G40 เป็นระบบ 2U ที่มีช่องต่อขยาย PCIe® Gen 3.0 x16 สี่ช่อง สำหรับ GPU รวมถึงความจุในการเก็บข้อมูลที่ดีที่สุดด้วยช่องใส่ไดรฟ์ 3.5” Hot Swap SATA/SAS สี่ช่อง และช่องเสียบ M.2 สองช่อง เนื่องจากแต่ละ GPU Bay มีความสูงเพียงพอที่ 1.5U และมีการไหลเวียนของอากาศที่ยอดเยี่ยม ระบบนี้จึงยืดหยุ่นอย่างมากที่จะใช้กับการ์ด GPU ที่มีการระบายความร้อนที่หลากหลาย

ในขณะเดียวกัน G591-HS0 เป็นระบบ 5U ที่สามารถรองรับการ์ดเสริม PCIe® Gen 3.0 x16 ที่มีโปรไฟล์ต่ำได้ถึง 40 การ์ดผ่านถาดเสริมสองสล็อต (20 การ์ดต่อถาด) ที่เลื่อนออกมาจากด้านหลังของยูนิต หรือ Single-width PCIe® GPU หรือ FPGA 32 การ์ด ทำให้ G591-HS0 เป็นเครื่องมืออนุมานที่ทรงพลังสำหรับ Video Analytics และ/หรือแอปพลิเคชันอื่น

เซิร์ฟเวอร์ GIGABYTE ทั้งหมดมี GIGABYTE Server Management (GSM) เป็น GIGABYTE Management Console เพื่อการจัดดูแลระบบที่มีประสิทธิภาพรโดยไม่ต้องมีใบอนุญาตเพิ่มเติมใด ๆ มีให้ดาวน์โหลดฟรีทั้งบนเดสก์ท็อปและแอพมือถือ

สำหรับผู้ที่ต้องการข้อมูลเพิ่มเติมและสัมผัสกับระบบใหม่เหล่านี้สามารถเข้าไปที่ www.GIGABYTE.com หรือติดต่อเราโดยตรงได้ที่ server.grp@gigabyte.com

from:https://www.techtalkthai.com/powering-your-next-ai-breakthrough-with-gigabyte-gpu-servers/

กูเกิลปล่อยชุดข้อมูลภาพเอกซเรย์ปอดกว่าห้าแสนภาพ เปิดทางสร้างปัญญาประดิษฐ์วิเคราะห์โรคประสิทธิภาพสูง

กูเกิลร่วมกับโรงพยาบาล Apolllo สร้างชุดข้อมูลภาพเอกซเรย์พร้อมป้ายกำกับ โดยภาพจากทางโรงพยาบาลอยู่ในบันทึกการรักษาที่ไม่ได้ติดป้ายกำกับพร้อมสำหรับการใช้ฝึกปัญญาประดิษฐ์

แนวทางของกูเกิลคือการใช้ปัญญาประดิษฐ์อ่านข้อความไปอ่านบันทึกการรักษาเพื่อสร้างป้ายกำกับภาพเอกซเรย์ปอดอีกที กระบวนการนี้ทำให้ได้ภาพพร้อมป้ายกำกับถึง 560,000 ภาพ จากนั้นนำภาพบางส่วนให้รังสีแพทย์มาตรวจสอบอีกครั้งเพื่อให้แน่ใจว่าคุณภาพชุดข้อมูลดีพอ

หลังจากได้ชุดข้อมูลขนาดใหญ่สำหรับฝึกปัญญาประดิษฐ์แล้ว กูเกิลยังสร้างชุดข้อมูลทดสอบคุณภาพสูง โดยอาศัยรังสีแพทย์ตั้งเป็นกรรมการ 3 คนเพื่อพิจารณาภาพเอกซเรย์ทีละภาพ หากความเห็นตรงกันก็จะถือใช้ข้อมูลป้ายกำกับจากกรรมการ หากความเห็นไม่ตรงกันจะส่งให้กรรมการชุดต่อไปพิจารณาใหม่ ไม่เกิน 5 รอบ โดยรอบสุดท้ายหากความเห็นไม่ตรงกันจะถือเสียงส่วนใหญ่ กระบวนการนี้น่าจะทำให้ได้ชุดข้อมูลคุณภาพสูงมากสำหรับการวัดประสิทธิภาพปัญญาประดิษฐ์ต่อไป

กูเกิลระบุว่ารูปแบบของชุดข้อมูลก็มีส่วนสำคัญ เช่นการตรวจภาวะปอดรั่ว (pneumothorax) ของรังสีแพทย์นั้นมีความแม่นยำประมาณ 79% เมื่อดูชุดข้อมูล ChestX-ray14 แต่เมื่อให้รังสีแพทย์ชุดเดิมดูชุดข้อมูลอื่นความแม่นยำกลับลดลงเหลือ 52% เท่านั้น แสดงให้เห็นว่าปัญญาประดิษฐ์ที่จะนำมาใช้งานก็ต้องฝึกกับชุดข้อมูลที่หลากหลายเช่นกัน

ที่มา – Google AI Blog

No Description

ภาพเอกซเรย์ปอดที่มีภาวะปอดรั่วทางฝั่งซ้าย โดยรังสีแพทย์หลายคนอ่านพลาดเมื่ออ่านภาพเอกซเรย์คนเดียว แต่โมเดลปัญญาประดิษฐ์และกรรมการตรวจสอบภาพยืนยันอาการ

from:https://www.blognone.com/node/113570

AWS DeepComposer บริการช่วยแต่งเพลงด้วย AI แต่งแต่เมโลดี้แล้วได้ทั้งวงครบ

AWS เปิดตัวบริการ AWS DeepComposer บริการปัญญาประดิษฐ์ช่วยแต่งเพลง โดยผู้แต่งเพียงแต่งทำนองหลักเท่านั้น ที่เหลือโมเดลปัญญาประดิษฐ์จะเล่นเครื่องดนตรีอื่นๆ ให้เข้ากันอัตโนมัติ

DeepComposer ขายคู่กันทั้งคีย์บอร์ด MIDI ขนาด 32 คีย์และบริการคลาวด์ แม้บริการจะไม่จำเป็นต้องใช้คีย์บอร์ด แต่แต่งเพลงผ่านคีย์บอร์ดบนจอภาพได้ก็ตาม

โมเดลปัญญาประดิษฐ์มีให้เลือกแต่งเพลงได้ 4 สไตล์ ได้แก่ ร็อก, ป๊อบ, แจ๊ส, และคลาสสิค นอกจากนั้นยังสามารถปรับโมเดลเป็นรูปแบบเพลงเฉพาะตัวได้

บริการคิดค่ารันเป็นรายชั่วโมง ยังนี้ยังอยู่ช่วงทดสอบวงปิดเท่านั้น

ที่มา – AWS Blog

No Description

Topics: 

from:https://www.blognone.com/node/113447

Amazon เปิดตัวรถไร้คนจับจิ๋ว DeepRacer Evo เพิ่ม LIRAR และกล้องคู่

Amazon เปิดตัวชุดพัฒนารถไร้คนขับจิ๋ว DeepRacer Evo ที่เป็นรถขนาด 1/18 แต่มีคอมพิวเตอร์ในตัวสำหรับประมวลผลปัญญาประดิษฐ์เพื่อสร้างระบบควบคุมอัตโนมัติ โดยรุ่น Evo นี้จะต่างจากรุ่นแรกที่เปิดตัวปีที่แล้ว คือเพิ่มเซ็นเซอร์ LIDAR สำหรับการวัดระยะห่างจากรอบข้าง และกล้องหน้ากลายเป็นกล้องคู่ำหรับเก็บภาพสามมิติ

นอกจากการอัพเดตตัวรถจริงแล้ว DeepRacer Console บริการจำลองรถและสนาม สำหรับฝึกปัญญาประดิษฐ์ก็อัพเดตฟีเจอร์เหล่านี้พร้อมกัน

ตัวรถจะขายจริงต้นปี 2020 โดยยังไม่ระบุราคา ผู้ที่ซื้อรุ่นเดิมไปแล้ว จะมีชุดเซ็นเซอร์ขายแยกให้ไปอัพเกรดด้วย

ที่มา – Amazon

No Description

from:https://www.blognone.com/node/113440

เฟซบุ๊กเสนอ DeepFovea ปัญญาประดิษฐ์สร้างภาพถ่ายจากข้อมูลเพียงบางส่วน ใช้บีบอัดวิดีโอ

เฟซบุ๊กรายงานงานวิจัยการบีบอัดวิดีโอที่อาศัยการลดความละเอียดของภาพนอกส่วนที่ผู้ใช้กำลังจ้องมอง (foveated rendering) โดยอาศัยโมเดล deep learning ที่ชื่อว่า DeepFovea มาสร้างภาพความละเอียดเต็มจากอินพุตที่ลดความละเอียดภาพนอกส่วนสำคัญ

DeepFovea สามารถสร้างภาพความละเอียดเต็มจากข้อมูลพิกเซลเพียงเล็กน้อย ประมาณ 6-10% ของพิกเซลรวมในภาพต้นฉบับ

แนวทางการบีบอัดภาพนี้อาศัยความจริงที่ว่ามนุษย์เรารับรู้ภาพความละเอียดสูงเพียงมุมภาพแคบๆ ประมาณ 5.2 องศาตรงกลางภาพเท่านั้น หรือคิดเป็นจำนวนพิกเซล 4% ของพิกเซลทั้งหมดที่จอภาพต้องเรนเดอร์ภาพออกมา

โมเดลสร้างภาพเป็นโมเดลแบบ GAN ฝึกโมเดลบนเซิร์ฟเวอร์ NVIDIA DGX-1 จำนวน 7 เครื่อง รวมชิปกราฟิก 56 ชุด ใช้เวลา 48 ชั่วโมง ข้อมูลฝึกเป็นวิดีโอความละเอียด VGA (640×480) รวม 350,000 เฟรม แล้วลดความละเอียดตามการมองโดยสุ่มจุดที่สายการผู้ชมกำลังมองอยู่

รายงานตีพิมพ์ในงานประชุมวิชาการ ACM SIGGRAPH in Asia ทางเฟซบุ๊กระบุว่าเตรียมจะปล่อยโมเดลเต็มที่ฝึกแล้วออกสู่สาธารณะต่อไป โดยก่อนหน้านี้การใช้ปัญญาประดิษฐ์เพื่อบีบอัดวิดีโอเป็นเรื่องที่มีคนสนใจกันมานาน เช่น Netflix เองก็เคยวิจัยเรื่องนี้มาตั้งแต่ปี 2017

ที่มา – Facebook

No Description

from:https://www.blognone.com/node/113324

กูเกิลอธิบายสถาปัตยกรรมฟีเจอร์ Live Caption ใน Pixel 4 ใช้โมเดล deep learning 3 ชุดแบ่งหน้าที่กัน

กูเกิลอธิบายถึงสถาปัตยกรรมของการใช้ deep learning ในฟีเจอร์ Live Caption ที่เป็นการทำคำบรรยายเสียงในจากโทรศัพท์ทั้งหมด โดยใช้โมเดล deep learning ทำหน้าที่ต่างกันถึง 3 ชุดในฟีเจอร์นี้

โมเดลแรกที่รันอยู่ตลอดเวลาที่ฟีเจอร์ทำงานคือโมเดลจัดหมวดหมู่เสียง (sound event recognition) โดยภายในเป็นโมเดลแบบ convolutional neural network (CNN) ทำหน้าที่จัดหมวดหมู่ว่าเสียงตอนนี้เป็นเหตุการณ์แบบใด เช่น เสียงหัวเราะ, เสียงดนตรี, หรือเป็นเสียงพูด

เมื่อพบเสียงพูด เสียงส่วนที่เป็นคำพูดจะส่งต่อไปยังโมเดลแปลงเสียงเป็นคำพูดที่สถาปัตยกรรมภายในเป็นแบบ recurrent neural network transducers (RNN-T) โดยโมเดลนี้จะทำงานเฉพาะเมื่อพบเสียงพูดเท่านั้นเพื่อประหยัดหน่วยความจำและพลังงาน โดยโมเดลนี้ย่อมาจากโมเดลเต็มด้วยเทคนิคต่างๆ เช่น การลดความเชื่อมโยงในโมเดล (neural connection pruning) ทำให้โมเดลมีขนาดลดลงครึ่งหนึ่งแต่ยังได้ประสิทธิภาพที่ดี

โมเดลสุดท้ายคือตัวใส่เครื่องหมายเว้นวรรค (punctuation) เพื่อสร้างรูปประโยคให้สมบูรณ์

ฟีเจอร์นี้เริ่มใช้งานได้แล้วใน Pixel 4 และรองรับเฉพาะภาษาอังกฤษ ส่วน Pixel 3 จะได้รับในปีนี้ และทีมงานเตรียมรองรับภาษาอื่นๆ ตลอดจนฟีเจอร์เพิ่มเติมเช่นการพูดหลายคน

ที่มา – Google AI Blog

No Description

from:https://www.blognone.com/node/112820