คลังเก็บป้ายกำกับ: บิ๊ก_ดาต้า

เชิญร่วมงานสัมมนา AI & Big Data ประจำปี 2019 ที่จะเปิดประสบการณ์ของคุณ

งานสัมมนา 2 วัน ที่จะทำให้คุณเข้าใจพลังมหาศาลของ AI และ Big Data ในองค์กรเห็นตัวอย่างจริง ของการทำ AI แบบง่ายๆ ด้วยเทคโนโลยี ที่เพิ่มมูลค่าให้กับธุรกิจคุณ

หัวใจสำคัญของการทำ Digital Transformation คือการนำปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) มาประยุกต์ใช้ในองค์กร และองค์ประกอบสำคัญของ AI ก็คือการที่จะต้องมีข้อมูลขนาดใหญ่ (Big Data) แล้วใช้ Machine Learning มาเป็นอัลกอริทึมในการวิเคราะห์ข้อมูล ซึ่งความถูกต้องของ AI อยู่ที่การมีข้อมูลที่มากพอ และการใช้อัลกอริทึมอย่าง Deep Learning ที่สามารถจำลองโมเดลของ Neural Networks ที่ใหญ่ขึ้นได้ (โดยต้องมีระบบประมวลผลที่มีประสิทธิภาพมากขึ้น) ซึ่งถึงแม้ว่าเราจะสามารถพัฒนาโมเดลที่ซับซ้อนขึ้น แต่หากยังขาดข้อมูลที่ไม่มากพอหรือไม่มีระบบประมวลขนาดใหญ่ ก็ยากที่จะได้ AI ที่มีความถูกต้อง แม่นยำ และนำมาใช้งานได้อย่างเหมาะสม

AI คืออะไร จะเปลี่ยนแปลงองค์กรให้เป็นองค์กรแบบ AI ได้อย่างไร มาหาคำตอบกันได้ในงานสัมมนาเชิงปฎิบัติการครั้งนี้ ที่มีรูปแบบการสัมมนาที่แตกต่างกับงานทั่วๆไป โดยผู้ร่วมสัมมนาจะได้ฟังการบรรยายในวันแรกที่จะเน้นเรื่องราววิวัฒนาการของ AI ความหมายของ AI ประโยชน์ของ AI และความสัมพันธ์กับ Big Data รวมถึงแนวทางการเปลี่ยนองค์กรเข้าสู่ยุค AI ซึ่งเป็นการบรรยาย กึ่งอบรม พร้อมทั้งมีการสาธิตระบบ AI ต่างๆประกอบ จากนั้นในวันที่สองจะแบ่งเป็น 2 ห้องโดยห้องแรกจะเป็นการบรรยายในหัวข้อต่างๆทั้งด้าน AI และ Big Data และห้องที่สองจะเป็นการบรรยายกึ่งปฎิบัติการในการสร้างระบบ AIต่างๆในองค์กร ที่จะแสดงให้เห็นว่าการทำ AI ในปัจจุบันง่ายมากๆจนใครๆ ก็ทำได้

สุดท้ายผู้เข้าอบรมยังสามารถจะสัมผัสและทดลองกับระบบ AI จริงที่นำมาแสดงในงาน อาทิเช่น Smart Speaker, Smart Home, ChatBotหรือ Smart Vision

สามารถดูรายละเอียดเพิ่มเติมได้ที่ http://www.imcinstitute.com/ai2019

from:https://www.enterpriseitpro.net/seminar-ai-and-bigdata-2019/

โฆษณา

7 ทักษะที่คนทำงานด้านดาต้าจำเป็นเรียนรู้และศึกษาเอาไว้

Data Analytic นับเป็นหนึ่งในงานดาวรุ่งพุ่งแรกในยุคนี้ ซึ่งนักวิทยาศาสตร์ข้อมูลที่ดีนั้นควรฝึกปรือสกิลที่จำเป็น โดยทักษะที่ควรค่าแก่การประดับบนเรซูเม่มีดังต่อไปนี้

1. ความสามารถในการจัดการข้อมูล ความสามารถในการจัดการข้อมูลดิบหรือข้อมูลที่ยังไม่สามารถนำมาใส่เป็นตารางในฐานข้อมูลได้ เช่น เสียงตอบรับของลูกค้า, คลิปเสียง, บล็อก, โพสต์บนโซเชียล, หรือแม้แต่วิดีโอ ซึ่งนักวิทยาศาสตร์ข้อมูลจำเป็นต้องรู้วิธีการใช้ซอฟต์แวร์สำหรับประมวลผลข้อมูลดิบเหล่านี้โดยเฉพาะ เช่น NoSQL, Microsoft HDI Insight, Polybase, Apache Hadoop, Presto ฯลฯ

2. มีความรู้ด้านคณิตศาสตร์และสถิติเป็นอย่างดี โดยจำเป็นต้องเข้าใจหลักการด้านสถิติทุกประเภท เช่น การจัดเรียงและกระจายข้อมูล การทดสอบความน่าเชื่อถือ รวมทั้งการทำนายข้อมูลในอนาคตโดยใช้หลักของแคลคูลัสและพีชคณิต

3. นำข้อมูลมานำเสนอเป็นเรื่องราวได้ อย่างการประมวลผลข้อมูลมาแสดงในเชิงกราฟิก เช่น กราฟและแผนภูมิรูปแบบต่างๆ

4. ทักษะการเขียนโปรแกรม เนื่องจากอาชีพนี้จำเป็นต้องใช้ซอฟต์แวร์ที่ต้องเขียนโค้ดเองเป็นส่วนใหญ่ โดยเฉพาะภาษา R และ Python ที่นิยมนำมาใช้ในงานวิเคราะห์ข้อมูล

5. การชอบความท้าทายและเอาชนะ อย่างการเข้าร่วมกิจกรรมแข่งการแฮ็กหรือ Hackathons อย่าง Hackerearthและ NMIMSรวมทั้งการเข้าสัมมนา และการแข่งขันอื่นๆ ที่เกี่ยวข้อง

6. การทำงานเป็นโปรเจ็กต์ โดยเฉพาะประสบการณ์เชิงปฏิบัติที่หน้างานจริง

7. วุฒิการศึกษาที่เกี่ยวข้อง บริษัทส่วนใหญ่ต้องการนักวิทยาศาสตร์ข้อมูลมีวุฒิระดับปริญญาโทในด้านวิทยาศาสตร์คอมพิวเตอร์, สถิติ, และวิทยาศาสตร์กายภาพ

ที่มา : imarticus.org

from:https://www.enterpriseitpro.net/7-skills-that-data-scientists-need-to-know/

หัวเว่ยคว้าอันดับ 1 แพลตฟอร์มบิ๊กดาต้าจากผลสำรวจ IDC MarketScape

จากรายงาน “ไอดีซี มาร์เก็ตสเคป: ข้อมูลวิเคราะห์ผู้จำหน่ายแพลตฟอร์มการบริหารจัดการบิ๊กดาต้าของจีน ประจำปี 2017 (IDC MarketScape: China Big Data Management Platform 2017 Vendor Assessment)” แพลตฟอร์ม FusionInsigh tของหัวเว่ยได้รับการจัดอันดับให้เป็นที่หนึ่งในกลุ่มผู้จำหน่ายแพลตฟอร์มบิ๊กดาต้าทั้งหมดในประเทศจีน จากเกณฑ์การประเมิน 3 ด้าน ดังนี้ ความสามารถในการทำงาน กลยุทธ์ในอนาคต และผลการดำเนินงานทางตลาด โดย FusionInsightมีความเป็นเลิศในทั้งสามด้านจากการใช้เทคโนโลยีชั้นนำ โครงสร้างทางระบบนิเวศที่ลงตัว และผลการดำเนินงานทางตลาดที่โดดเด่น

จากข้อมูลของไอดีซีตลาดบิ๊กดาต้าของจีนเริ่มให้ความสำคัญกับการติดตั้งระบบจัดการข้อมูล ซึ่งการจะเปลี่ยนแปลงระบบใหม่จำเป็นต้องมีการสร้างแพลตฟอร์มบิ๊กดาต้าแบบรวมให้ได้ก่อน ในการประเมินครั้งนี้ไอดีซีได้ทำการสำรวจผู้ให้บริการโซลูชั่นราว 20 ราย ผู้ใช้งาน 20 ราย และผู้จำหน่ายแพลตฟอร์มบิ๊กดาต้ารายใหญ่อีก 10 ราย โดยรายงานขั้นสุดท้ายได้ประเมินผู้จำหน่ายจากความสามารถในการทำงาน รวมไปถึงกลยุทธ์ในอนาคต เพื่อเป็นข้อมูลอ้างอิงสำหรับช่วยลูกค้าในการเลือกผลิตภัณฑ์

FusionInsight ของหัวเว่ยมีแพลตฟอร์มการวิเคราะห์ การคิวรี (ระบบคัดเลือกเฉพาะข้อมูลที่ต้องการ) และการจัดเก็บข้อมูลบิ๊กดาต้าสำหรับลูกค้าในหลากหลายอุตสาหกรรมนอกจากนี้ FusionInsightใช้เทคโนโลยีอันทันสมัยและเป็นทรัพย์สินทางปัญญาที่ประกอบขึ้นจากผลงานลิขสิทธิ์มากกว่า350 รายการอาทิ ใช้งานร่วมกับภาษา SQLได้อย่างสมบูรณ์, เทคโนโลยีคิวรีแบบอินเตอร์แอคทีฟ CarbonData, การประมวลผลข้อมูลเพื่อการตัดสินใจแบบเรียลไทม์ RTB และการประมวลผลข้อมูลแบบกราฟ Eywaแพลตฟอร์ม FusionInsight รองรับการถ่ายโอนข้อมูลระดับองค์กรแบบเก่า, คิวรีดาต้าแบบผสมผสาน, การตัดสินใจแบบเรียลไทม์, การวิเคราะห์ข้อมูลแบบหลายชั้นอย่างรวดเร็ว และวิเคราะห์ข้อมูลขนาดใหญ่ ช่วยให้องค์กรสามารถเพิ่มคุณค่าให้กับข้อมูลได้มากที่สุด และเปลี่ยนผ่านเข้าสู่ระบบดิจิทัลได้อย่างรวดเร็ว

มร. แมท หม่า ประธานบริหาร กลุ่มผลิตภัณฑ์ไอทีคลาวด์คอมพิวติ้งและแพลตฟอร์มบิ๊กดาต้า ของหัวเว่ย กล่าวว่า “ถือเป็นเกียรติอันยิ่งใหญ่สำหรับหัวเว่ยที่ได้รับการจัดอันดับให้เป็นที่หนึ่งจากไอดีซีแสดงให้เห็นว่าอุตสาหกรรมให้การยอมรับโซลูชั่นบิ๊กดาต้า FusionInsight ของหัวเว่ยเป็นอย่างดี บิ๊กดาต้าเป็นหนึ่งในแนวทางเชิงกลยุทธ์หลักของเรา และมีลูกค้าถึง 700 รายจากกว่า 40 ประเทศที่เลือกใช้โซลูชั่นบิ๊กดาต้าของเรา  หัวเว่ยมีวิสัยทัศน์ในอนาคตคือ ‘Making Enterprises More Intelligent’ ด้วยการช่วยลูกค้าใหม่ๆ บริหารจัดการข้อมูลและเร่งให้เกิดการเปลี่ยนผ่านสู่ความเป็นดิจิทัล”

ที่มา : ข่าว PR, Huawei

from:https://www.enterpriseitpro.net/archives/8621

[บทความ] 7 ปัจจัยสำคัญ ในการเลือกสตอเรจให้ระบบบิ๊กดาต้า

ระบบวิเคราะห์ฐานข้อมูลปริมาณมหาศาลหรือ Big Data นั้น มักมีคนสงสัยว่าดาต้านี่มันบิ๊กมากขนาดไหน แต่ข้อเท็จจริงนั้นสิ่งที่บิ๊กไม่ใช่แค่ปริมาณอย่างเดียว แต่ยังพ่วงความซับซ้อนของข้อมูลจากหลายที่มา ที่มักเป็นข้อมูลที่ไม่ได้ผ่านการเรียบเรียงอะไรมาก่อนเพื่อรอเข้าระบบวิเคราะห์ดึงประโยชน์ออกมาใช้ให้ได้มากที่สุด

ดังนั้น การกระจายความจุอย่างเดียว อาจทำให้ฐานข้อมูลที่มีกลายเป็นถังขยะขนาดบิ๊กแทนก็ได้ เราต้องพิจารณาถึงการจัดการข้อมูลควบคู่กันไป โดยเฉพาะในยุคใหม่นี้ที่ข้อมูล CRM ของลูกค้าสร้างความได้เปรียบในการแข่งขันอย่างมหาศาล รวมถึงกฎหมายใหม่อย่างในอียูที่บริษัทต้องปกป้องและบริหารจัดการข้อมูลลูกค้าให้เป็นระบบและมีความปลอดภัยเพียงพอ

อีกทั้งในแง่ของฝ่ายไอทีที่ยังคุ้นเคยกับความจุหลักเทอราไบต์ การก้าวขึ้นไปสู่หลักเพตาไบต์ก็ดูเป็นอะไรที่แพงและเพิ่มภาระอย่างมาก โดยเฉพาะในกรณีสตอเรจแบบ RAID แต่เทคโนโลยีปัจจุบันมีทางเลือกให้หลากหลายกว่าเดิมเยอะ โดยเฉพาะซอฟต์แวร์จัดการฐานข้อมูลแบบโอเพ่นซอร์สที่ไม่มีค่าใช้จ่าย

ทาง NetworkComputing.com จึงรวบรวมเอา 7 ปัจจัยสำคัญที่องค์กรควรพิจารณาในการวางระบบสตอเรจเพื่อนำ Big Data มาใช้ ดังต่อไปนี้

1. ขนาดและการเติบโต รวมทั้งการเคลื่อนไหวของข้อมูล
พยายามมองหาวิธีลดขนาดของข้อมูลที่บริหารจัดการอยู่ตลอดเวลา โดยเฉพาะการดูเรื่องข้อมูลที่หมดอายุ รวมทั้งข้อมูลบางกลุ่มที่สำคัญและหายาก ที่จำเป็นต้องเข้ารหัสและจัดเก็บนานเป็นพิเศษ ทั้งนี้อย่าลืมเรื่องของการเพิ่มขึ้นของความต้องการสตอเรจอย่างรวดเร็วและรุนแรง อย่างข้อมูลที่มีอายุสั้นนั้นอาจเหมาะกับบริการบนพับลิกคลาวด์ที่ยืดหยุ่นมากกว่า เป็นต้น ที่สำคัญต้องเปลี่ยนความคิดว่า บิ๊กดาต้าไม่ได้บิ๊กขนาด 100 PB เสมอไป องค์กรปัจจุบันมักใช้ความจุอยู่แค่ 100 TB – 10 PB เท่านั้น

2. บทบาทของอ๊อพเจ็กต์สตอเรจ
ที่สามารถรองรับอ๊อพเจ็กต์ที่มีขนาดแตกต่างกันได้ง่ายกว่า พร้อมโครงสร้างเมต้าดาต้าที่หลากหลายและยืดหยุ่นในการจัดการข้อมูลปริมาณมหาศาลได้ดี นอกจากนี้ยังถูกกว่าสตอเรจแบบ RAID ดั้งเดิมเสียอีก เนื่องจากมักใช้ซอฟต์แวร์แบบโอเพ่นซอร์สพร้อมฮาร์ดแวร์แบบ COTS ที่ไม่ผูกขาดด้วย

3. การจัดการวงจรชีวิตของข้อมูล
เป็นความท้าทายอย่างยิ่งในการจัดการข้อมูลที่เข้าออกจากสตอเรจ มากกว่าการเตรียมฐานข้อมูลไว้รองรับเสียอีก ลองพิจารณาอย่างการติดป้ายแท๊กข้อมูลที่หมดอายุบนซอฟต์แวร์สตอเรจของคุณ พร้อมตั้งโพลิซีทำลายข้อมูลหมดอายุเพื่อให้จัดการข้อมูลได้ง่ายขึ้น เป็นต้น

4. กฎหมายด้านการรักษาความเป็นส่วนตัวของข้อมูล
โดยเฉพาะกฎ GDPR ที่บังคับใช้ในยูโรโซน ซึ่งค่าปรับแพงมากถึง 4% ของรายได้องค์กรทั่วโลกเลยทีเดียว แถมยังมีผลไม่ว่าจะเก็บข้อมูลไว้ส่วนไหนของโลกอีกด้วย ซึ่งกฎหมายนร้แม้ส่วนหนึ่งจะเกี่ยวข้องกับผู้ผลิตสตอเรจ แต่ส่วนใหญ่เกี่ยวพันกับกระบวนการจัดการขององค์กรคุณเอง ระวังว่าบริการด้านการเข้ารหัสข้อมูลบนไดรฟ์ที่มีให้จากผู้ผลิตสตอเรจหรือผู้ให้บริการคลาวด์ มักไม่เพียงพอต่อมาตรฐานอย่าง HIPAA, SOX, หรือ GDPR เพราะคุณจำเป็นต้องเป็นเจ้าของคีย์เข้าและถอดรหัสในฐานะเจ้าของข้อมูลด้วย

storage

5. ไดรฟ์แบบ Solid-State
ทำให้ได้ขนาดจัดเก็บที่เล็กมากแต่จุสูงมากกว่าเดิม เช่นเซิร์ฟเวอร์ขนาด 1U ปัจจุบันก็สามารถจุ SSD ขนาด 1.2PB ได้สบายๆ แน่นอนว่าราคาเว่อร์วังพอสมควร แต่ถ้าชั่งข้อดีข้อเสียกับประสิทธิภาพที่จำเป็นต้องใช้แล้วคุ้มก็น่าสนใจมาก แต่ระวังในเรื่องของความก้าวหน้าทางเทคโนโลยีด้านนี้ที่เปลี่ยนแปลงเร็วมาก จนไม่น่าลงทุนกับ SSD มากเกินไป

6. การบีบอัดข้อมูล
ถ้าเป็นกรณีที่ต้องใช้สตอเรจที่ความจุน้อยกว่าเพื่อแลกกับประสิทธิภาพ เช่นการใช้ SSD 1 PB แทนดิสก์ธรรมดาแบบ 5 PB เพื่อความเร็ว การบีบอัดข้อมูลก็เป็นทางเลือกที่น่าสนใจ นอกจากนั้นยังช่วยลดปริมาณทราฟิกบนเครือข่ายได้ด้วย อย่างไรก็ดี กระบวนการบีบอัดและขยายข้อมูลก็ค่อนข้างใช้ทรัพยากรประมวลผลมากพอสมควรที่คุณต้องชั่งน้ำหนักให้ดี

Cloud storage

7. ทางเลือกในการใช้บริการคลาวด์
ถ้ามองว่าเรื่องฮาร์ดแวร์ที่เกี่ยวข้องเป็นเรื่องซับซ้อนและมีภาระในการจัดการหนักเกินไป อาจมองหาผู้ให้บริการคลาวด์ที่ทำหน้าที่ทั้งหมดแทนคุณ โดยเฉพาะผู้ให้บริการระดับท็อปสามอย่าง Amazon, Google, และไมโครซอฟท์ ที่ถือเป็นผู้นำด้านสถาปัตยกรรมใหม่รวมทั้งการบริหารจัดการด้านซอฟต์แวร์ แถมยังช่วยคุณควบคุมค่าใช้จ่ายโดยจ่ายตามปริมาณการใช้งานจริง และรับภาระช่วงที่ข้อมูลมีปริมาณพุ่งสูงผิดปกติได้ด้วย แต่ถ้าเทียบกับระบบภายในองค์กรตัวเองแล้ว อาจเสียเปรียบด้านการปรับแต่งที่ละเอียดอย่างทรัพยากรซีพียูและหน่วยความจำที่จัดให้แต่ละ Instance เป็นต้น

ที่มา : http://www.networkcomputing.com/storage/big-data-storage-7-key-factors/1380415337

from:https://www.enterpriseitpro.net/archives/8238

(ฟรี) งานสัมมนาด้านระบบไอทีสตอเรจแนวใหม่ PURE LIVE 2017 : The New Possible

คุณพร้อมที่จะเผชิญกับความท้าทายใหม่หรือยัง? พบกับเราในงาน Pure Live 2017

Pure Storage ได้จัดงานประจำปีที่ชื่อว่า Pure Live 2017  ที่จะให้ท่านได้เข้ามาเรียนรู้เทคโนโลยีที่น่าสนใจ พร้อมอัพเดตข้อมูลองค์กรที่ประสบความสำเร็จทางด้าน A.I., Big Data และ Cloud มีการบริหารจัดการข้อมูลให้มีความเป็นเลิศได้อย่างไร มาร่วมกันสัมผัสเทคโนโลยีแห่งอนาคต นั่นคือ all-flash ที่มาพร้อมกับเทคโนโลยี NVMe และร่วมกันค้นหาว่า มีเรื่องใดบ้างที่ cloud-based analytics สามารถช่วยเพิ่มศักยภาพทางการแข่งขันได้ นอกจากนี้คุณยังจะได้พบกับการทำ demo เชิงเทคนิค ซึ่งคุณสามารถนำเทคนิคดังกล่าวไปประยุกต์และยกระดับธุรกิจของคุณได้

พบกับเราได้ที่งาน Pure Live Bangkok เพื่อสัมผัสประสบการณ์และเรียนรู้การนำเอาข้อมูลของคุณมาสร้างคุณค่าให้เกิดประโยชน์สูงสุด

พบกับการแชร์ประสบการณ์ตรงจากองค์กรธุรกิจชั้นนำในการเพิ่มศักยภาพการแข่งขันด้วย A.I., Big Data และ Cloud

มาเรียนรู้กันว่า all-flash data centers นั้น สามารถบริหารจัดการได้ ไม่ว่าคุณจะอยู่ ณ ที่ใดก็ตาม พร้อมกับการเข้าถึงข้อมูลแบบ real-time และความสามารถที่จะเรียนรู้ด้วยตัวเองของระบบ เพื่อสร้างคุณค่าสูงสุดให้กับการลงทุนของคุณ

มาทำความเข้าใจกันว่า เทคโนโลยี NVMe มีศักยภาพเพียงพอที่จะกลายเป็นเทคโนโลยีผู้นำแห่งอุตสาหกรรมข้อมูลได้อย่างไร และคุณควรเตรียมความพร้อมในการรับมือกับสถานการณ์นี้อย่างไร

สถานที่จัดงาน
วันที่จัดงาน : 13 กรกฏาคม 2560
เวลา : 9.00 – 12.30 น. (พร้อมรับประทานกลางวันร่วมกัน)
สถานที่จัดงาน : รร. เจ ดับบลิว แมริออท กรุงเทพ ห้อง Salon A และ B ชั้น 3,
สอบถามข้อมูลได้ที่ : คุณณัชชา  ชูประดิษฐ์    โทร. 02-001-9973 โทรสาร. 02-277-5117  Email: event1@etpnews.comและลงทะเบียนได้ที่นี่ – http://www.purestorage.com/microsites/th/purelive-bangkok.html

 

Time Agenda
08.30 – 09.00 Registration ลงทะเบียน
09.00 – 09.15 Introduction on Evolution
กล่าวต้อนรับและเปิดงาน พร้อมบรรยาพิเศษ “นวัตกรรมการเปลี่ยนแปลงแห่งยุคสมัย”
By Mr.Michael Alp, VP, APJ Sales, Pure Storage
09.15- 10.15 NVME and Beyond
ทำความเข้าใจกับแนวคิดอินเทอร์เฟซในการต่อเชื่อมแบบใหม่ NVMe ที่จะเป็นอนาคต
By Mr.Jason Nadeau, Product Marketing, Pure Storage
10.15- 10.30 Break : พักรับประทานอาหารว่าง
10.30- 11.00 FlashBlade New Features
ตามไปดูเทคโนโลยีระบบแฟลชแบบเบลดที่ให้ความรวดเร็วและแข็งแกร่งกว่าใคร
By Mr.Jason Nadeau, Product Marketing, Pure Storage
11.00 – 11.30 Customer Keynote
กรณีศึกษาสำคัญ จากผู้ใช้งานจริงกับเทคโนโลยีด้านสตอเรจที่เหนือชั้น
By Mr.Nititum Kovitgoolkri, Deputy Director, True Information Technology Company Limited
11.30- 11.40 Lucky Draw : จับรางวัลแก่ผู้โชคดี
11.40- 12.00 Wrap Up : กล่าวสรุปพร้อมทั้งปิดงานอย่างเป็นทางการ
By Mr.Peter Liu, Regional Manager, Emerging Markets, Pure Storage 
12.00- 13.00 Lunch : รับประทานอาหารกลางวันร่วมกัน

ลงทะเบียนวันนี้ลุ้นรับ iPhone 8, Ricoh 360 และ Google Home ฟรีในงาน !!
สามารถลงทะเบียนได้ที่นี่ http://www.purestorage.com/microsites/th/purelive-bangkok.html

from:https://www.enterpriseitpro.net/archives/6829