คลังเก็บป้ายกำกับ: STORAGE

NetApp อัปเดต Data Fabric ใหม่ ตอบโจทย์ Hybrid Multicloud ได้ในหนึ่งเดียว

วันนี้ทาง TechTalkThai มีโอกาสได้พูดคุยกับทีมงาน NetApp ถึงประเด็นด้านเทรนด์เทคโนโลยีในไทย และการที่ NetApp ได้ออกมาประกาศอัปเดตเทคโนโลยี Data Fabric ครั้งใหญ่ โดยปรับปรุงหลากหลายเทคโนโลยีของตนเองเพื่อผสานระบบสู่ภาพของ Hybrid Multicloud ด้วยการผนวกรวมโซลูชันต่างๆ เข้าด้วยกันดังนี้

Credit: NetApp
  • NetApp Kubernetes Service on NetApp HCI สามารถบริหารจัดการ Kubernetes Cluster โดยมอง NetApp HCI เป็นหนึ่งใน Region ที่สามารถ Deploy ระบบได้ โดยจุดเด่นคือบริการนี้สามารถจัดการ Kubernetes จาก Distro ของผู้ผลิตได้หลากหลายราย รวมถึงตัว Kubernetes หลักด้วย ทำให้ธุรกิจองค์กรมีทางเลือกในการใช้งาน Kubernetes จากหลายค่ายได้ในระบบเดียว และรองรับการทำ Multicloud ได้อย่างแท้จริง
  • Cloud Volumes on NetApp HCI ระบบ Persistent Storage ที่เคยให้บริการบน Public Cloud ตอนนี้สามารถนำมาใช้งานบน NetApp HCI และบริหารจัดการผ่านศูนย์กลางร่วมกันได้แล้ว
  • Cloud Volumes Service for Google Cloud (Beta) เปิดตัวมาให้ทดลองใช้งานได้แล้ว
  • Cloud Volumes ONTAP for Google Cloud ทำให้ใช้ความสามารถของ NetApp ONTAP เพื่อรองรับ Application บน Google Cloud ได้
  • เพิ่มเครื่องมือใหม่ให้ Fabric Orchestrator ทำให้มี Cloud Data Service สำหรับช่วยในการค้นหา, จัดการ, ควบคุมโดยอัตโนมัติ และตรวจสอบข้อมูลได้จากทุกที่ ไม่ว่าข้อมูลจะถูกเก็บอยู่ที่ใด ทำให้การจัดการข้อมูลและ Application แบบ Multicloud เป็นไปได้อย่างง่ายดายจากที่เดียว
  • เพิ่มโมเดลการจ่ายเงินแบบ Pay-per-Use ทั้งสำหรับ NetApp HCI และ Cloud Volumes Service On Premises โดยมีขั้นต่ำในการใช้งานที่ 1 ปี
  • เปิดตัว NetApp Cloud Insights ให้ใช้ได้ฟรีแบบ Basic สำหรับ NetApp HCI และ NetApp AFF รวมถึงยังติดตามและแนะนำการใช้ทรัพยากรให้กับ NetApp HCI และ NetApp Kubernetes Service ได้ด้วย ส่วนแบบจ่ายเงินนั้นจะสามารถตรวจสอบและติดตามการทำงานของ Hardware/Software จากผู้ผลิตรายอื่นๆ ได้แบบ Multivendor ในตัว
  • เปิดตัว NetApp Professional Services for the Data Fabric บริการสำหรับช่วยบริหารจัดการข้อมูลใน Data Fabric ได้ตามความต้องการของธุรกิจโดยทีมงานของ NetApp เอง

สำหรับเทรนด์ด้าน Storage ในไทยและภูมิภาคใกล้เคียงตอนนี้ ทางทีมผู้บริหารของ NetApp ได้เล่าถึงการเติบโตอย่างรวดเร็วของ NetApp HCI ที่เป็น 2nd Generation HCI ที่สามารถแก้ปัญหาของระบบ HCI แบบเดิมๆ ได้หลากหลาย ทั้งในแง่ประสิทธิภาพ, การรองรับ Container ได้โดยไม่ต้องใช้งาน VM อีกต่อไปทำให้ประหยัดค่าใช้จ่าย, การช่วยลด License ของ Database ลงได้เมื่อเทียบกับ HCI แบบเดิมๆ ไปจนถึงการเพิ่มขยายที่สามารถเลือกเพิ่มขยายได้เฉพาะส่วนของ Compute หรือ Storage แยกขาดจากกัน

อีกหนึ่งมุมมองที่น่าสนใจก็คือ เหล่า Software Developer ในธุรกิจต่างๆ นั้นเริ่มคุ้นชินกับ Public Cloud และเริ่มคาดหวังว่าระบบ On-Premises นั้นจะสามารถทำงานได้เทียบเท่ากับ Public Cloud ในแง่ของความง่ายและความคล่องตัวในการใช้งาน ดังนั้น NetApp เองก็จะมุ่งเน้นการตอบโจทย์นี้ให้กับธุรกิจไทยให้ได้

ทาง NetApp มองว่าในประเทศไทยหลังจากนี้ เทรนด์หลักๆ ที่ธุรกิจองค์กรจะต้องสนใจและเริ่มลงทุนเพื่อรองรับต่ออนาคต มีดังนี้

  • Hybrid Cloud โดยมี HCI เป็นเสมือนระบบ Private Cloud ในองค์กร และมีความสามารถในการ Provision ระบบต่างๆ เหมือนบน Public Cloud และย้ายทั้งข้อมูลหรือระบบระหว่างกันได้อย่างง่ายดาย พร้อมการบริหารจัดการได้จากศูนย์กลาง ซึ่ง Hybrid Cloud นี้เองจะเป็นรากฐานที่ต่อยอดไปสู่การทำ Multicloud ได้ด้วย ซึ่งตรงนี้ก็ต่อยอดมาจากภาพของ Data Fabric ที่ NetApp ผลักดันมาตลอดในหลายปีนี้นั่นเอง โดยนอกจากการจับมือกับบริการอย่าง AWS, Google Cloud Platform และ Microsoft Azure แล้ว NetApp เองก็ยังจับมือกับผู้ให้บริการ Cloud ในไทยด้วย ทำให้สามารถนำเสนอโซลูชัน Hybrid Cloud ที่ระบบทั้งหมดยังอยู่ในไทยได้
  • DevOps ที่หลายๆ ธุรกิจจะเริ่มคุ้นเคยและเริ่มใช้งาน Kubernetes หรือ Container กันอย่างจริงจังไปแล้ว และเริ่มมองหา IT Infrastructure ที่ Optimize ยิ่งกว่าเดิม ตรงนี้เองที่ HCI แบบที่ไม่ใช้งาน Hypervisor จะเริ่มเข้ามามีบทบาท และ NetApp HCI ก็พร้อมตอบโจทย์นี้ได้แล้ว ในขณะที่การบริหารจัดการ Cluster จำนวนมากนั้นก็สามารถรองรับได้ด้วย NetApp Kubernetes Services
  • AI Infrastructure ที่ผสานเอาระบบ Storage ประสิทธิภาพสูง เข้ากับ GPU Server ที่มีพลังประมวลผลสูง ซึ่ง NetApp เองก็ได้จับมือกับ NVIDIA และสามารถนำเสนอโซลูชันที่ใช้ NVIDIA DGX ได้แล้ว
  • Edge Computing การทำ Industrial IoT กำลังกลายเป็นโครงการหลักของหลายๆ ธุรกิจโรงงานและการผลิต การมีโครงสร้างของระบบจัดเก็บข้อมูลที่ยืดหยุ่นและใช้งานง่าย เพื่อรองรับการประมวลผลตาม Edge โดยตรงนั้นจึงเป็นที่ต้องการ และ NetApp ก็ตอบโจทย์ได้ด้วย NetApp ONTAP Select
  • End-to-End NVMe Storage จะมาเป็นอีกทางเลือกหนึ่งในการเชื่อมต่อระหว่าง Storage และ Server ซึ่งเพิ่มความเร็วในการเข้าถึงข้อมูลอีก 30% – 50% ใช้ควบคู่กับเทคโนโลยีแบบเก่าไป

ที่มา: https://www.netapp.com/us/company/news/press-releases/news-rel-20190618-763485.aspx

from:https://www.techtalkthai.com/netapp-updates-its-data-fabric-to-support-hybrid-multicloud/

โฆษณา

เปิดตัว HPE Primera อุปกรณ์ Storage ล่าสุด ชูจุดเด่น 100% Available Guarantee และอัปเกรดได้เรื่อยๆ ไม่ตกรุ่น

HPE ได้ออกมาประกาศเปิดตัวผลิตภัณฑ์ตระกูลใหม่ล่าสุด HPE Primera ซึ่งเป็น All Flash Storage รุ่นใหม่ที่รองรับ NVMe และ Storage-Class Memory (SCM) เป็นหลัก พร้อมสนับสนุนการใช้งานและเพิ่มความทนทานด้วย AI อีกทั้งยังมาพร้อมกับ 100% Available Guarantee และความสามารถในการอัปเกรดระบบได้เรื่อยๆ โดยไม่มีวันตกรุ่น

Credit: HPE

HPE Primera นี้ทำงานด้วยสถาปัตยกรรมแบบ Multi-Mode, All-Active และออกแบบมาให้รองรับการใช้งาน NVMe และ SCM ได้อย่างเต็มประสิทธิภาพ เพื่อรองรับงาน Mission Critical ภายในระบบ IT ของธุรกิจองค์กรโดยเฉพาะ และสามารถรองรับการใช้งานในอนาคตได้อย่างต่อเนื่องยาวนาน

จุดเด่นหนึ่งที่น่าสนใจคือการที่ HPE Primera นี้ออกแบบมาให้ทำงานโดยมี AI สนับสนุนโดยเฉพาะ ซึ่งก็มีทั้ง HPE InfoSight ที่สามารถช่วยตรวจสอบการใช้งาน Application ต่างๆ ภายในระบบ Storage และทำนายโอกาสที่จะเกิดความผิดปกติขึ้นในระบบล่วงหน้า ทำให้สามารถป้องกันปัญหาล่วงหน้าได้ พร้อมทั้งมี Embedded AI Engine ภายในช่วยตรวจสอบและประมวลผลความผิดปกติหรือทำนายปัญหาได้แบบ Real-time และยังมีเทคโนโลยีในการปกป้องข้อมูลที่หลากหลายอย่างเช่น Automatic Site Failover หรือ Data Protection บน Cloud และนี่เองที่ทำให้ HPE Primera กล้าที่จะใช้คำว่า 100% Availability Guarantee

อีกจุดหนึ่งก็คือการชูความเป็น Timeless Storage ที่ถ้าหากธุรกิจองค์กรเลือกที่จะ Subscribe บริการของ HPE ก็จะทำให้ HPE Primera สามารถอัปเกรดอย่างต่อเนื่องได้โดยไม่ตกรุ่นอีกต่อไป ไม่ว่าจะเป็น License ของความสามารถต่างๆ บนระบบ, การอัปเกรด Controller ให้ฟรีๆ ไปจนถึงการรับประกันให้กับทั้งการทำ Data Reduction และ Data Availability

ปัจจุบันนี้ข้อมูลเชิงเทคนิคอย่างเป็นทางการของ HPE Primera ยังไม่ออกมา โดยผู้ที่สนใจข้อมูลเบื้องต้นก็สามารถเข้าไปศึกษาก่อนได้ที่ https://www.hpe.com/us/en/storage/hpe-primera.html หรือดูคลิปแนะนำด้านล่างนี้ก่อนได้เลยครับ

ที่มา: https://community.hpe.com/t5/Around-the-Storage-Block/Introducing-HPE-Primera-the-first-storage-unicorn-with-mythical/ba-p/7051129#.XQpi94gzaUk

from:https://www.techtalkthai.com/hpe-primera-is-announced/

Oracle ประกาศนำ AI สู่ Exadata X8 ตอบโจทย์ Autonomous Database

เมื่อไม่กี่วันที่ผ่านมาทาง Oracle ได้ประกาศเพิ่มความสามารถโฉมใหม่ให้ Exadata X8 Server ซึ่งสามารถช่วยองค์กรทำ indexing ได้อย่างอัตโนมัติและไม่ยุ่งยากเหมือนที่เคย พร้อมกันนี้ยังปรับปรุงประสิทธิภาพให้ฮาร์ดแวร์อีกด้วย

credit : http://www.oracle.com

สำหรับใครที่ไม่คุ้นเคยกับ Exadata อธิบายง่ายๆ ก็คือเป็นเซิร์ฟเวอร์ที่ใช้ Linux OS (ของ Oracle) ที่จัดทำขึ้นอย่างพิเศษเหมาะสำหรับการใช้กับ Oracle Database ที่โฆษณาว่ามีประสิทธิภาพดีกว่าการใช้งานฮาร์ดแวร์ทั่วไปนั่นเอง 

Oracle ได้ปรับปรุงความสามารถให้ Exadata X8 โฉมใหม่ดังนี้

  • ใช้ชิปประมวลผลล่าสุดของ Intel Xeon Scalable และเทคโนโลยี PCIe NVME ซึ่งทำให้ประสิทธิภาพเพิ่มขึ้น
  • All-flash Storage ทำให้ I/O Throughput มีประสิทธิภาพดีขึ้น 60% ซึ่งค่า IOPS จะเพิ่มขึ้นถึง 25% เมื่อเทียบกับ Exadata X7
  • ประสิทธิภาพการทำ Analytics ดีขึ้นกว่ารุ่นก่อนหน้าถึง 60% คือจาก 560 GB ต่อวินาทีเป็นการสแกน Table กว่า 1 TB โดยใช้เวลาน้อยกว่า 2 วินาที
  • X8 มีจำนวน Core มากกว่า X7 ถึง 60% และมีความจุมากกว่าเดิม 40%
  • ฟีเจอร์ไฮไลต์ของ Exadata X8 โฉมใหม่คือ AI Indexer เพื่อทำ indexing อัตโนมัติโดยจะเรียนรู้อย่างต่อเนื่องและ Tuning ตามรูปแบบการใช้งานของ Database ซึ่งอันที่จริงแล้วก็มีความสามารถนี้แต่จำกัดอยู่เพียงบน Oracle Cloud เท่านั้นแต่นี่จะเป็นครั้งแรกที่ผู้ใช้งานจะได้สัมผัสกับความสามารถนี้บน On-premise นอกจากนี้ Oracle ยังอ้างว่ามีการทดสอบฟีเจอร์  Indexer เทียบกับการทำ Indexing ของ Netsuite Database ที่มีอายุกว่า 15 ปีและ 9,000 index พบว่า AI Indexer ใช้เวลา 24 ชั่วโมงก็ทำการสร้าง index ขึ้นมาได้เหลือเพียง 6,000 index เท่านั้นแสดงให้เห็นถึงการลดพื้นที่และเพิ่มประสิทธิภาพอย่างแท้จริง

อย่างไรก็ตามในโอกาสเดียวกันนี้ทาง Oracle ยังได้มีการประกาศ Oracle Zero Data Loss Recovery Appliance X8 หรือ Appliance สำหรับทำ Backup Database ซึ่งโฆษณาว่าเร็วกว่าการทำ Data Recovery กับ Oracle Database ด้วยวิธีการเดิมๆ ถึง 10 เท่าทีเดียวและการันตีข้อมูลทุก Transaction

สำหรับผู้สนใจ Exadata X8 สามารถดาวน์โหลด Datasheet ได้

ที่มา :  https://www.networkworld.com/article/3402559/oracle-updates-exadata-at-long-last-with-ai-and-machine-learning-abilities.html

from:https://www.techtalkthai.com/oracle-launches-new-exadata-x8/

ข้อมูลเบื้องต้นที่คุณควรรู้เกี่ยวกับ Data Lake

น้ำนิ่งไหลลึก เป็นสุภาษิตที่ได้ยินกันมานาน ที่บรรยายถึงลักษณะของสิ่งที่เรียกว่า Data Lake ได้เป็นอย่างดี ตัว Data Lake นับเป็นแหล่งเก็บข้อมูลหรือสตอเรจที่เก็บข้อมูลดิบจำนวนมากในรูปแบบดั้งเดิมทิ้งไว้จนกว่าจะมีการร้องขอจากแอพพลิเคชั่น อย่างเช่นการวิเคราะห์เชิงพยากรณ์

ลักษณะที่เหมือนน้ำก็คือ Data Lake ดูเหมือนเป็นน้ำที่มืดและลึกลับอันเกิดจากความเข้าใจผิดเกี่ยวกับเทคโนโลยีนี้ ซึ่งความเข้าใจผิดบางอย่างอาจส่งผลสร้างความเสียหาย หรือถึงขนาดต้องล้มโปรเจ็กต์ได้เลยทีเดียว ดังนั้นจึงควรทำเข้าใจกับหลักการของ Data Lake ดังต่อไปนี้

เริ่มต้นจาก Data Lake และ Data Warehouse นั้นไม่เหมือนกัน โดย Data Warehouse จะเก็บข้อมูลที่ถูกโหลดมาจากระบบต้นกำเนิดตามเกณฑ์ที่กำหนดไว้ล่วงหน้า ขณะที่ Data Lake จะเก็บข้อมูลดิบที่ยังไม่ได้จัดการใดๆ ก่อนเอาเข้า Lake เพื่อให้ทีมงานที่หลากหลายภายในองค์กรนำข้อมูลไปวิเคราะห์ต่อได้

แม้จะนิยามต่างกัน แต่ทั้ง Data Lake และ Data Warehouse ก็สามารถทำงานร่วมกันในรูปโมเดลแบบไฮบริดจ์ได้ เพื่อเปิดให้บริษัทต่างๆ สตรีมข้อมูลเข้ามายัง Data Lakeแล้วย้ายไปยังซับเซ็ตที่เลือกไว้บนโครงสร้างที่เกี่ยวข้องต่อได้ทันที

เมื่อข้อมูลมีอายุผ่านถึงจุดหนึ่ง หรือถูกพิจารณาว่าไม่มีประโยชน์แล้ว ก็สามารถโยกข้อมูลกลับมายัง Data Lake ได้โดยอัตโนมัติเพื่อให้เก็บรักษาข้อมูลโดยมีค่าใช้จ่ายที่ต่ำกว่าในระยะยาว แต่ก็ไม่ควรมอง Data Lake เสมือนเป็นถังขยะดิจิตอล แม้จะสามารถจัดเก็บข้อมูลทั้งแบบ Structured, Unstructured, และ Semi-Structured ในรูปข้อมูลดิบ

เพราะการที่ข้อมูลไม่ได้ถูกประมวลผลหรือวิเคราะห์ก่อนนำเข้ามาใน Lake จึงควรบำรุงรักษาและอัพเดท Data Lake เป็นประจำ เพื่อให้ผู้ใช้ทุกคนรู้แหล่งข้อมูลใน Lake สำหรับการนำไปวิเคราะห์ได้อย่างเหมาะสม โดยสิ่งที่สำคัญมากที่สุดในการสร้าง Data Lake คืดขั้นตอนการเพิ่มข้อมูลพร้อมกับการทำให้แน่ใจว่าแคตตาล็อกได้รับการอัพเดทไปพร้อมกัน

ทั้งนี้ เพื่อให้แคตตาล็อกเป็นปัจจุบัน และเข้าถึงได้ตลอด มิฉะนั้นอาจทำให้กลุ่มข้อมูลที่เป็นประโยชน์สูญหายได้ ตัวแคตตาล็อกนี้จะช่วยให้นักวิเคราะห์จัดการแหล่งข้อมูล พร้อมทั้งวัตถุประสงค์การใช้งาน แหล่งกำเนิด และชื่อเจ้าของข้อมูลไว้เป็นหมวดหมู่

ที่มา : Networkcomputing

from:https://www.enterpriseitpro.net/things-you-need-to-know-about-data-lakes/

Hitachi VSP G130 สตอเรจคุณภาพ Enterprise สำหรับธุรกิจ SME เริ่มต้นเพียง 16,000 บาท/TB

ACER ประเทศไทย ผู้ให้บริการระบบคอมพิวเตอร์ชั้นนำสำหรับองค์กร ออกโปรโมชันพิเศษ Hitachi VSP G130 Storage สำหรับธุรกิจ SMB ที่ต้องการอุปกรณ์จัดเก็บข้อมูลสมรรถะสูง ตอบโจทย์การใช้งานด้าน Virtualization, Backup และ CCTV ในราคาเริ่มต้นเพียง 16,000 บาท/TB เท่านั้น

ข้อมูล – หัวใจสำคัญขององค์กรในยุคดิจิทัล

ข้อมูลเปรียบเสมือนเป็นแหล่งน้ำมันดิบอันมีค่าในยุคดิจิทัล หลายองค์กรทั่วโลกต่างพยายามรวบรวมข้อมูลจากหลากหลายมิติแล้วนำมากลั่นสกัดให้กลายเป็นผลวิเคราะห์อันชาญฉลาดสำหรับนำไปใช้ประโยชน์ในเชิงธุรกิจ ไม่ว่าจะเป็นการนำเสนอโมเดลทางธุรกิจรูปแบบใหม่ การยกระดับประสบการณ์การใช้งานอันแสนยอดเยี่ยมให้แก่ลูกค้า การเพิ่มมูลค่าให้แก่บริการของตน หรือการปรับปรุงกระบวนการเชิงธุรกิจภายในองค์กรให้ดียิ่งขึ้น อาจกล่าวได้ว่าการทำ Data Analytics ได้กลายเป็นหัวใจสำคัญของหลายๆ องค์กรเป็นที่เรียบร้อยแล้ว

นอกจากการนำข้อมูลไปประยุกต์ใช้ การเก็บข้อมูลยังเป็นพื้นฐานสำคัญด้านความมั่นคงปลอดภัยขององค์กรอีกด้วย ยกตัวอย่างเช่น การสำรองข้อมูลเพื่อป้องกันข้อมูลสูญหายหรือถูก Ransomware โจมตี การจัดเก็บข้อมูลวิดีโอจากกล้องวงจรปิดเพื่อบันทึกเหตุการณ์ที่ผิดปกติ เป็นต้น เหล่านี้ทำให้แพลตฟอร์มสำหรับจัดเก็บข้อมูลเป็นสิ่งที่ขาดไม่ได้ในยุคดิจิทัล

Credit: ShutterStock.com

Hitachi VSP G130 Storage คำตอบสุดท้ายที่ดีที่สุดสำหรับ SMB

สำหรับธุรกิจ SMB นั้น การลงทุนระบบจัดเก็บข้อมูลภายนอก (External Storage) ในรูปของ SAN เพื่อรองรับการเก็บข้อมูลขนาดใหญ่อาจเป็นการลงทุนที่สูงเกินไป ในฐานะผู้ให้บริการระบบคอมพิวเตอร์ชั้นนำ ACER ประเทศไทยได้นำเสนอ Hitachi Virtual Storage Platform (VSP) G130 Storage ซึ่งเป็นแพลตฟอร์มสำหรับจัดเก็บข้อมูลขนาดกระทัดรัดสำหรับธุรกิจ SMB โดยเฉพาะ สามารถจัดเก็บข้อมูลได้สูงสุดถึง 940 TB ในราคาเริ่มต้นเพียงหลักแสนบาท

Hitachi VSP G130 Storage เป็นอุปกรณ์ฮาร์ดแวร์ขนาด 2U รองรับการใส่ HDD ได้สูงสุด 96 ไดรฟ์ ความจุข้อมูลรวม 940 TB เชื่อมต่อด้วย Fiber Channel จำนวน 4 อินเทอร์เฟส ความเร็ว 16 Gbps มี Cache สูงสุด 32 GB และรองรับ RAID 1+0, RAID 5 และ RAID 6

เพิ่มประสิทธิภาพขึ้น 3 เท่า สนับสนุนการให้บริการ Private Cloud

Hitachi VSP G130 Storage มาพร้อมกับ Storage Virtualization Operating System RF (SVOS RF) ช่วยเพิ่มความเร็วในการอ่าน/เขียนข้อมูลและลดระยะเวลาในการตอบสนอง ที่สำคัญคือมีการออกแบบ Controller แบบ Symmetric Active-Active ซึ่งลดความซับซ้อนและต้นทุนการทำ Path Management ยกระดับการใช้งานภายใต้สภาวะแวดล้อมแบบ Virtualization ให้ดียิ่งขึ้น เหล่านี้ส่งผลให้ Hitachi VSP G130 Storage มีประสิทธิภาพดีกว่ารุ่นก่อนหน้าถึง 3 เท่า

สำหรับธุรกิจที่ต้องการใช้งาน Private Cloud นั้น Hitachi VSP G130 Storage รองรับ OpenStack Driver รวมไปถึงรองรับ Container ซึ่งช่วยให้ DevOps สามารถพัฒนา Cloud-native Applications ได้ง่ายยิ่งขึ้น นอกจากนี้ Hitachi VSP G130 Storage ยังมาพร้อมกับซอฟต์แวร์สำหรับบริหารจัดการระบบและทำ Local Replication ไปใช้ฟรีอีกด้วย

Credit: ShutterStock.com

โปรโมชันพิเศษ Hitachi VSP G130 Storage ในราคาเริ่มต้นเพียง 450,000 บาท

ACER ประเทศไทย ผู้จัดจำหน่ายผลิตภัณฑ์ของ Hitachi อย่างเป็นทางการในประเทศไทย ได้ออกโปรโมชันพิเศษสำหรับอุปกรณ์ Hitachi VSP G130 Storage รวม 3 รายการในราคาเริ่มต้น 450,000 บาท สำหรับธุรกิจ SMB ที่ต้องการวางระบบ Virtualization, CCTV และ Backup พร้อมรับประกันแบบ 24×7 เป็นระยะเวลา 3 ปีเต็ม โดยมีรายละเอียด ดังนี้

ผู้ที่สนใจสามารถติดต่อสอบถามรายละเอียดเพิ่มเติมเกี่ยวกับ Hitachi VSP G130 Storage ได้ที่อีเมล Nongluk.Samapiban@acer.com หรือโทร 0-2158-9888 ต่อ 186

from:https://www.techtalkthai.com/hitachi-vsp-g130-storage-by-acer-thailand/

เชิญร่วมงานสัมมนา AI & Big Data ประจำปี 2019 ที่จะเปิดประสบการณ์ของคุณ

งานสัมมนา 2 วัน ที่จะทำให้คุณเข้าใจพลังมหาศาลของ AI และ Big Data ในองค์กรเห็นตัวอย่างจริง ของการทำ AI แบบง่ายๆ ด้วยเทคโนโลยี ที่เพิ่มมูลค่าให้กับธุรกิจคุณ

หัวใจสำคัญของการทำ Digital Transformation คือการนำปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) มาประยุกต์ใช้ในองค์กร และองค์ประกอบสำคัญของ AI ก็คือการที่จะต้องมีข้อมูลขนาดใหญ่ (Big Data) แล้วใช้ Machine Learning มาเป็นอัลกอริทึมในการวิเคราะห์ข้อมูล ซึ่งความถูกต้องของ AI อยู่ที่การมีข้อมูลที่มากพอ และการใช้อัลกอริทึมอย่าง Deep Learning ที่สามารถจำลองโมเดลของ Neural Networks ที่ใหญ่ขึ้นได้ (โดยต้องมีระบบประมวลผลที่มีประสิทธิภาพมากขึ้น) ซึ่งถึงแม้ว่าเราจะสามารถพัฒนาโมเดลที่ซับซ้อนขึ้น แต่หากยังขาดข้อมูลที่ไม่มากพอหรือไม่มีระบบประมวลขนาดใหญ่ ก็ยากที่จะได้ AI ที่มีความถูกต้อง แม่นยำ และนำมาใช้งานได้อย่างเหมาะสม

AI คืออะไร จะเปลี่ยนแปลงองค์กรให้เป็นองค์กรแบบ AI ได้อย่างไร มาหาคำตอบกันได้ในงานสัมมนาเชิงปฎิบัติการครั้งนี้ ที่มีรูปแบบการสัมมนาที่แตกต่างกับงานทั่วๆไป โดยผู้ร่วมสัมมนาจะได้ฟังการบรรยายในวันแรกที่จะเน้นเรื่องราววิวัฒนาการของ AI ความหมายของ AI ประโยชน์ของ AI และความสัมพันธ์กับ Big Data รวมถึงแนวทางการเปลี่ยนองค์กรเข้าสู่ยุค AI ซึ่งเป็นการบรรยาย กึ่งอบรม พร้อมทั้งมีการสาธิตระบบ AI ต่างๆประกอบ จากนั้นในวันที่สองจะแบ่งเป็น 2 ห้องโดยห้องแรกจะเป็นการบรรยายในหัวข้อต่างๆทั้งด้าน AI และ Big Data และห้องที่สองจะเป็นการบรรยายกึ่งปฎิบัติการในการสร้างระบบ AIต่างๆในองค์กร ที่จะแสดงให้เห็นว่าการทำ AI ในปัจจุบันง่ายมากๆจนใครๆ ก็ทำได้

สุดท้ายผู้เข้าอบรมยังสามารถจะสัมผัสและทดลองกับระบบ AI จริงที่นำมาแสดงในงาน อาทิเช่น Smart Speaker, Smart Home, ChatBotหรือ Smart Vision

สามารถดูรายละเอียดเพิ่มเติมได้ที่ http://www.imcinstitute.com/ai2019

from:https://www.enterpriseitpro.net/seminar-ai-and-bigdata-2019/

NetApp เปิดตัว AFF C190 All Flash Storage รุ่นเล็ก ตอบโจทย์การใช้งานทั่วไปในราคาประหยัด

NetApp ได้ออกมาประกาศเปิดตัว All Flash Storage รุ่นใหม่ล่าสุด NetApp AFF C190 ซึ่งเป็นรุ่นเล็กสำหรับตอบโจทย์ของธุรกิจขนาดเล็กและขนาดกลางที่ต้องการ Storage ความเร็วสูงโดยเฉพาะ

Credit: NetApp

NetApp AFF C190 นี้ยังคงใช้ NetApp ONTAP สำหรับบริหารจัดการข้อมูลเช่นเคย โดยมีความสามารถหลากหลายเหมือนกับ All Flash Storage รุ่นใหญ่กว่าอย่างเช่นการรองรับทั้ง File Storage และ Block Storage ได้ในอุปกรณ์เดียว (รองรับ FC, FCoE, iSCSI, NFS, pNFS, SMB), ความสามารถในการเชื่อมต่อกับ Cloud, การลดพื้นที่ที่ใช้ในการจัดเก็บข้อมูล, การปกป้องข้อมูลให้มีความทนทานสูง และการเข้ารหัสข้อมูล และมีพื้นที่จัดเก็บข้อมูลได้สูงสุด 50TiB สำหรับ Effective Capacity จากการติดตั้ง SSD 24 ชุด

NetApp นั้นตั้งเป้าว่า NetApp AFF C190 นี้จะเป็นรุ่นที่ Partner สามารถทำการขายได้ง่ายดายและไม่ซับซ้อน จึงมีขั้นตอนในการสั่งซื้อที่ง่ายขึ้นกว่า Storage รุ่นก่อนๆ เป็นอย่างมาก โดยกลุ่มเป้าหมายนั้นก็คือธุรกิจขนาดเล็กและขนาดกลางที่ต้องการ All Flash Storage สำหรับรองรับ Business Application, Virtual Machine (VM), File System และการรองรับ Workload ที่หลากหลายได้ภายในระบบเดียว

สำหรับผู้ที่สนใจรายละเอียดเพิ่มเติม สามารถศึกษาข้อมูลเกี่ยวกับ NetApp AFF C190 ได้ที่ https://www.netapp.com/us/products/entry-level-aff.aspx ครับ

ที่มา: https://www.netapp.com/us/company/news/press-releases/news-rel-20190606-119495.aspx

from:https://www.techtalkthai.com/netapp-aff-c190-all-flash-storage-is-announced/