คลังเก็บป้ายกำกับ: BIG_DATA

ข้อมูลเบื้องต้นที่คุณควรรู้เกี่ยวกับ Data Lake

น้ำนิ่งไหลลึก เป็นสุภาษิตที่ได้ยินกันมานาน ที่บรรยายถึงลักษณะของสิ่งที่เรียกว่า Data Lake ได้เป็นอย่างดี ตัว Data Lake นับเป็นแหล่งเก็บข้อมูลหรือสตอเรจที่เก็บข้อมูลดิบจำนวนมากในรูปแบบดั้งเดิมทิ้งไว้จนกว่าจะมีการร้องขอจากแอพพลิเคชั่น อย่างเช่นการวิเคราะห์เชิงพยากรณ์

ลักษณะที่เหมือนน้ำก็คือ Data Lake ดูเหมือนเป็นน้ำที่มืดและลึกลับอันเกิดจากความเข้าใจผิดเกี่ยวกับเทคโนโลยีนี้ ซึ่งความเข้าใจผิดบางอย่างอาจส่งผลสร้างความเสียหาย หรือถึงขนาดต้องล้มโปรเจ็กต์ได้เลยทีเดียว ดังนั้นจึงควรทำเข้าใจกับหลักการของ Data Lake ดังต่อไปนี้

เริ่มต้นจาก Data Lake และ Data Warehouse นั้นไม่เหมือนกัน โดย Data Warehouse จะเก็บข้อมูลที่ถูกโหลดมาจากระบบต้นกำเนิดตามเกณฑ์ที่กำหนดไว้ล่วงหน้า ขณะที่ Data Lake จะเก็บข้อมูลดิบที่ยังไม่ได้จัดการใดๆ ก่อนเอาเข้า Lake เพื่อให้ทีมงานที่หลากหลายภายในองค์กรนำข้อมูลไปวิเคราะห์ต่อได้

แม้จะนิยามต่างกัน แต่ทั้ง Data Lake และ Data Warehouse ก็สามารถทำงานร่วมกันในรูปโมเดลแบบไฮบริดจ์ได้ เพื่อเปิดให้บริษัทต่างๆ สตรีมข้อมูลเข้ามายัง Data Lakeแล้วย้ายไปยังซับเซ็ตที่เลือกไว้บนโครงสร้างที่เกี่ยวข้องต่อได้ทันที

เมื่อข้อมูลมีอายุผ่านถึงจุดหนึ่ง หรือถูกพิจารณาว่าไม่มีประโยชน์แล้ว ก็สามารถโยกข้อมูลกลับมายัง Data Lake ได้โดยอัตโนมัติเพื่อให้เก็บรักษาข้อมูลโดยมีค่าใช้จ่ายที่ต่ำกว่าในระยะยาว แต่ก็ไม่ควรมอง Data Lake เสมือนเป็นถังขยะดิจิตอล แม้จะสามารถจัดเก็บข้อมูลทั้งแบบ Structured, Unstructured, และ Semi-Structured ในรูปข้อมูลดิบ

เพราะการที่ข้อมูลไม่ได้ถูกประมวลผลหรือวิเคราะห์ก่อนนำเข้ามาใน Lake จึงควรบำรุงรักษาและอัพเดท Data Lake เป็นประจำ เพื่อให้ผู้ใช้ทุกคนรู้แหล่งข้อมูลใน Lake สำหรับการนำไปวิเคราะห์ได้อย่างเหมาะสม โดยสิ่งที่สำคัญมากที่สุดในการสร้าง Data Lake คืดขั้นตอนการเพิ่มข้อมูลพร้อมกับการทำให้แน่ใจว่าแคตตาล็อกได้รับการอัพเดทไปพร้อมกัน

ทั้งนี้ เพื่อให้แคตตาล็อกเป็นปัจจุบัน และเข้าถึงได้ตลอด มิฉะนั้นอาจทำให้กลุ่มข้อมูลที่เป็นประโยชน์สูญหายได้ ตัวแคตตาล็อกนี้จะช่วยให้นักวิเคราะห์จัดการแหล่งข้อมูล พร้อมทั้งวัตถุประสงค์การใช้งาน แหล่งกำเนิด และชื่อเจ้าของข้อมูลไว้เป็นหมวดหมู่

ที่มา : Networkcomputing

from:https://www.enterpriseitpro.net/things-you-need-to-know-about-data-lakes/

โฆษณา

เชิญร่วมงานสัมมนา AI & Big Data ประจำปี 2019 ที่จะเปิดประสบการณ์ของคุณ

งานสัมมนา 2 วัน ที่จะทำให้คุณเข้าใจพลังมหาศาลของ AI และ Big Data ในองค์กรเห็นตัวอย่างจริง ของการทำ AI แบบง่ายๆ ด้วยเทคโนโลยี ที่เพิ่มมูลค่าให้กับธุรกิจคุณ

หัวใจสำคัญของการทำ Digital Transformation คือการนำปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) มาประยุกต์ใช้ในองค์กร และองค์ประกอบสำคัญของ AI ก็คือการที่จะต้องมีข้อมูลขนาดใหญ่ (Big Data) แล้วใช้ Machine Learning มาเป็นอัลกอริทึมในการวิเคราะห์ข้อมูล ซึ่งความถูกต้องของ AI อยู่ที่การมีข้อมูลที่มากพอ และการใช้อัลกอริทึมอย่าง Deep Learning ที่สามารถจำลองโมเดลของ Neural Networks ที่ใหญ่ขึ้นได้ (โดยต้องมีระบบประมวลผลที่มีประสิทธิภาพมากขึ้น) ซึ่งถึงแม้ว่าเราจะสามารถพัฒนาโมเดลที่ซับซ้อนขึ้น แต่หากยังขาดข้อมูลที่ไม่มากพอหรือไม่มีระบบประมวลขนาดใหญ่ ก็ยากที่จะได้ AI ที่มีความถูกต้อง แม่นยำ และนำมาใช้งานได้อย่างเหมาะสม

AI คืออะไร จะเปลี่ยนแปลงองค์กรให้เป็นองค์กรแบบ AI ได้อย่างไร มาหาคำตอบกันได้ในงานสัมมนาเชิงปฎิบัติการครั้งนี้ ที่มีรูปแบบการสัมมนาที่แตกต่างกับงานทั่วๆไป โดยผู้ร่วมสัมมนาจะได้ฟังการบรรยายในวันแรกที่จะเน้นเรื่องราววิวัฒนาการของ AI ความหมายของ AI ประโยชน์ของ AI และความสัมพันธ์กับ Big Data รวมถึงแนวทางการเปลี่ยนองค์กรเข้าสู่ยุค AI ซึ่งเป็นการบรรยาย กึ่งอบรม พร้อมทั้งมีการสาธิตระบบ AI ต่างๆประกอบ จากนั้นในวันที่สองจะแบ่งเป็น 2 ห้องโดยห้องแรกจะเป็นการบรรยายในหัวข้อต่างๆทั้งด้าน AI และ Big Data และห้องที่สองจะเป็นการบรรยายกึ่งปฎิบัติการในการสร้างระบบ AIต่างๆในองค์กร ที่จะแสดงให้เห็นว่าการทำ AI ในปัจจุบันง่ายมากๆจนใครๆ ก็ทำได้

สุดท้ายผู้เข้าอบรมยังสามารถจะสัมผัสและทดลองกับระบบ AI จริงที่นำมาแสดงในงาน อาทิเช่น Smart Speaker, Smart Home, ChatBotหรือ Smart Vision

สามารถดูรายละเอียดเพิ่มเติมได้ที่ http://www.imcinstitute.com/ai2019

from:https://www.enterpriseitpro.net/seminar-ai-and-bigdata-2019/

AI & Big Data 2019 โดยสถาบัน IMC เปิดให้สมัครลงทะเบียนแล้ว

งานสัมมนา 2 วันที่จะทำให้คุณเข้าใจพลังมหาศาลของ AI และ Big Data ในองค์กร เห็นตัวอย่างจริงของการทำ AI แบบง่ายๆ ด้วยเทคโนโลยีที่เพิ่มมูลค่าให้กับธุรกิจคุณ

หัวใจสำคัญของการทำ Digital Transformation คือการนำปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) มาประยุกต์ใช้ในองค์กร และองค์ประกอบสำคัญของ AI ก็คือการที่จะต้องมีข้อมูลขนาดใหญ่ (Big Data) แล้วใช้ Machine Learning มาเป็นอัลกอริทึมในการวิเคราะห์ข้อมูล ซึ่งความถูกต้องของ AI อยู่ที่การมีข้อมูลที่มากพอ และการใช้อัลกอริธึมอย่าง Deep Learning ที่สามารถจำลองโมเดลของ Neural Networks ที่ใหญ่ขึ้นได้  (โดยต้องมีระบบประมวลผลที่มีประสิทธิภาพมากขึ้น) ซึ่งถึงแม้ว่าเราจะสามารถพัฒนาโมเดลที่ซับซ้อนขึ้น แต่หากยังขาดข้อมูลที่ไม่มากพอหรือไม่มีระบบประมวลขนาดใหญ่ ก็ยากที่จะได้ AI ที่มีความถูกต้อง แม่นยำ และนำมาใช้งานได้อย่างเหมาะสม

AI คืออะไร จะเปลี่ยนแปลงองค์กรให้เป็นองค์กรแบบ AI ได้อย่างไร  มาหาคำตอบกันได้ในงานสัมมนาเชิงปฎิบัติการครั้งนี้ ที่มีรูปแบบการสัมมนาที่แตกต่างกับงานทั่วๆไป โดยผู้ร่วมสัมมนาจะได้ฟังการบรรยายในวันแรกที่จะเน้นเรื่องราววิวัฒนาการของ AI ความหมายของ AI ประโยชน์ของ AI และความสัมพันธ์กับ Big Data รวมถึงแนวทางการเปลี่ยนองค์กรเข้าสู่ยุค AI ซึ่งเป็นการบรรยาย กึ่งอบรม พร้อมทั้งมีการสาธิตระบบ AI ต่างๆประกอบ  จากนั้นในวันที่สองจะแบ่งเป็น 2 ห้อง โดยห้องแรกจะเป็นการบรรยายในหัวข้อต่างๆทั้งด้าน AI และ Big Data  และห้องที่สองจะเป็นการบรรยายกึ่งปฎิบัติการในการสร้างระบบ AI ต่างๆในองค์กร ที่จะแสดงให้เห็นว่าการทำ AI ในปัจจุบันง่ายมากๆจนใครๆ ก็ทำได้

สุดท้ายผู้เข้าอบรมยังสามารถจะสัมผัสและทดลองกับระบบ AI  จริงที่นำมาแสดงในงาน อาทิเช่น Smart Speaker, Smart Home, ChatBot หรือ Smart Vision



สามารถดูรายละเอียดเพิ่มเติมได้ที่ http://www.imcinstitute.com/ai2019

from:https://www.techtalkthai.com/ai-and-big-data-2019-by-imc/

หมดยุค Hadoop? บริษัท MapR อาจต้องปลดคน-ปิดสำนักงานใหญ่ หากระดมทุนเพิ่มไม่ทัน

MapR Technologies หนึ่งในบริษัทที่พัฒนาซอฟต์แวร์ด้าน Big Data (อิงจาก Hadoop/Spark แต่เพิ่มฟีเจอร์ของตัวเองลงไป) เริ่มออกอาการไม่ค่อยดี หลังบริษัทแจ้งต่อสำนักงานแรงงานของรัฐแคลิฟอร์เนียว่า อาจต้องปลดพนักงานออก 122 คน และปิดสำนักงานใหญ่ที่เมือง Santa Clara หากบริษัทไม่สามารถหาเงินทุนก้อนใหม่ได้ทันวันที่ 14 มิถุนายนนี้

MapR แจ้งว่าก่อนหน้านี้เจรจากับนักลงทุนรายหนึ่ง แต่เมื่อผลประกอบการไตรมาสล่าสุดของบริษัทออกมาแย่ (บริษัทอยู่นอกตลาดหลักทรัพย์ จึงไม่เผยข้อมูลผลประกอบการต่อสาธารณะ) ทำให้นักลงทุนตัดสินใจถอนตัวออกไป ตอนนี้บริษัทกำลังเจรจากับนักลงทุนรายใหม่อยู่

หลังเรื่องนี้เป็นข่าว MapR ก็ชี้แจงผ่านบล็อกว่า ต้องปลดคนเพราะเปลี่ยนวิธีการขายจากบริษัทขายเองโดยตรง มาเป็นการขายโดยผ่านช่องทางของคนอื่น (indirect sales) ทำให้ต้องปลดพนักงานในส่วนที่เกี่ยวข้องกับการขาย บริษัทยืนยันว่าไม่ได้ปลดพนักงานที่เกี่ยวกับการพัฒนาผลิตภัณฑ์ และยังซัพพอร์ตและให้บริการลูกค้าตามปกติ ส่วนเรื่องการระดมทุนหรือการขายกิจการ จะแถลงอีกครั้งเมื่อเสร็จสิ้นกระบวนการแล้ว

No Description

บริษัทสาย Big Data โดยเฉพาะที่อิงกับ Hadoop เคยเป็นดาวรุ่งในวงการสตาร์ตอัพอยู่พักหนึ่ง บริษัทเหล่านี้นำ Hadoop และซอฟต์แวร์ที่เกี่ยวข้องมารวมเป็นดิสโทรของตัวเอง โดยเพิ่มฟีเจอร์เฉพาะสำหรับตลาดองค์กรเข้ามา อย่างไรก็ตาม ช่วงหลัง บริการคลาวด์ยักษ์ใหญ่ทั้ง AWS, Azure, Google Cloud ก็มีบริการด้าน Big Data ของตัวเอง (ทั้งที่อิงกับ Hadoop และไม่ใช่ เช่น Google BigQuery) ทำให้ตลาดลูกค้าองค์กรที่เคยซื้อดิสโทร Hadoop เชิงพาณิชย์ลดลงไป

เมื่อปลายปีที่แล้ว คู่แข่งของ MapR คือ Hortonworks และ Cloudera ประกาศควบรวมกิจการกัน (บริษัทใหม่จะชื่อ Cloudera) ด้วยเหตุผลเดียวกันว่า การแข่งขันในตลาด Hadoop สูง และอาจไม่มีพื้นที่พอสำหรับผู้เล่น 3 รายในท้องตลาด จึงต้องควบรวมกันเพื่อลดค่าใช้จ่ายและเพิ่มอำนาจต่อรองกับลูกค้า (วิเคราะห์ Cloudera ควบรวม HortonWorks พี่น้องตระกูล Hadoop ที่กลับมาอยู่ด้วยกันอีกครั้ง)

ที่มา – Silcon Angle, Next Platform, MapR, ภาพจาก MapR Facebook

Topics: 

from:https://www.blognone.com/node/110080

7 ใบเซอร์ด้าน Data Analytics ที่ควรค่าแก่การครอบครอง

งานด้านการวิเคราะห์ทั้งข้อมูลธรรมดาและบิ๊กดาต้านั้นได้กลายเป็นเส้นเลือดใหญ่สำคัญของการดำเนินธุรกิจให้ประสบความสำเร็จ ซึ่งความท้าทายที่ต้องเผชิญนั้นนอกจากการเลือกเทคโนโลยีให้เหมาะสมแล้ว ยังต้องสร้างทีมงานที่มีทักษะที่ช่วยผลักดันการทำบิ๊กดาต้าด้วย

จึงไม่แปลกใจที่ความต้องการทั้งทักษะ และใบประกาศรับรองทักษะเกี่ยวกับบิ๊กดาต้าจะเพิ่มขึ้นอย่างรวดเร็ว ซึ่งถ้าคุณเองต้องการสร้างมูลค่าในสายอาชีพไอทีให้ถึงที่สุดแล้ว ใบเซอร์ด้านบิ๊กดาต้าก็ถือเป็นทางเลือกที่ดีมากทีเดียว ซึ่งสุดยอด 7 ใบเซอร์ด้าน Data Analytics และ Big Data มีดังนี้

• Certification of Professional Achievement in Data Sciences เป็นใบเซอร์ที่เน้นการพัฒนาการใช้งานบิ๊กดาต้าด้วยทักษะด้านวิทยาศาสตร์ข้อมูลพื้นฐาน โดยตลอดทั้งโปรแกรมประกอบด้วยเรื่องอัลกอริทึม ความน่าจะเป็นและสถิติ แมชชีนเลิร์นนิ่ง และการวิเคราะห์ข้อมูลเชิงสำรวจ

• Certified Analytics Professional เป็นใบเซอร์เกี่ยวกับการวิเคราะห์ทั่วไป ที่แสดงถึงความเข้าใจที่ครอบคลุมตลอดกระบวนการวิเคราะห์

• Cloudera Certified Associate (CCA) Data Analyst นักพัฒนาด้าน SQL ที่ได้ใบเซอร์นี้จะเป็นการประกันว่ามีทักษะด้านการวิเคราะห์แกนหลักที่สามารถโหลด แปลง และสร้างโมเดลข้อมูล Hadoop เพื่อหาความสัมพันธ์ได้

• EMC Proven Professional Data Scientist Associate (EMCDSA) เป็นใบเซอร์ที่แสดงถึงความสามารถในการมีส่วนร่วมในฐานะสมาชิกทีมงานด้านวิทยาศาสตร์ข้อมูลในโปรเจ็กต์บิ๊กดาต้า

• MapR Certified Data Analyst เป็นการยืนยันความสามารถในการวิเคราะห์ชุดข้อมูลขนาดใหญ่ด้วยเครื่องมือที่หลากหลาย เช่น Apache Hive, Apache Pig, และ Apache Drill

• Microsoft Certified Solutions Expert (MCSE): Data Management and Analytics แสดงถึงทักษะที่หลากหลายในด้านการบริหารจัดการ SQL การสร้างโซลูชั่นข้อมูลระดับองค์กร และการยกระดับข้อมูล Business Intelligence (BI)

• SAS Certified Data Scientist Using SAS 9 เป็นใบเซอร์ที่แสดงถึงการที่สามารถควบคุมและได้การมองเห็นเชิงลึกจากบิ๊กดาต้า ผ่านเครื่องมือทั้งของ SAS และโอเพ่นซอร์สที่หลากหลาย

ที่มา : CIO

from:https://www.enterpriseitpro.net/7-data-analytics-certifications-that-will-pay-off/

พบ 4 โซลูชั่นด้านเครือข่ายในงาน Huawei Southeast Asia IP Club Carnival 2019

Digital Transformation เป็นสิ่งที่กำลังจะพลิกโฉมหน้าของโลก รวมทั้งเทคโนโลยีใหม่ๆ หลายชนิดไม่ว่าจะเป็นเทคโนโลยี ปัญญาประดิษฐ์ หรือ AI และ Big Data ซึ่งเป็นส่วนสำคัญอย่างยิ่งในโลกของเครือข่ายยุคใหม่ โดยในงาน HUAWEI IP Club Carnival ครั้งนี้ ทุกท่านจะได้เห็นแพลตฟอร์มอัจฉริยะและมีความเป็นแบบเปิดมากขึ้น

งานครั้งนี้ยังนับเป็นการรวบรวมเอาแขกระดับวีไอพีกว่า 200 ท่าน รวมถึงผู้เชี่ยวชาญด้านเทคโนโลยีเครือข่ายจากในภูมิภาคเอเชียตะวันออกเฉียงใต้ มาเป็นหนึ่งเดียวกันในงาน – คุณพร้อมหรือไม่ที่จะมาเก็บเกี่ยวข้อมูลต่างๆ ไม่ว่าจะเป็นแนวโน้มของเทคโนโลยีเครือข่ายยุคใหม่, โอกาสใหม่ๆ และได้เห็นถึงมุมมองดีๆ ที่มีต่อ Digital Transformation ในปัจจุบัน

ในงานนี้หัวเว่ยเตรียมที่จะประกาศเปิดตัวโซลูชั่นและผลิตภัณฑ์ที่เป็นนวัตกรรมใหม่ด้านเน็ตเวิร์กที่พัฒนาขึ้นโดยหัวเว่ย พร้อมทั้งแขกคนพิเศษของเราเตรียมที่จะมามอบประสบการณ์ต่างๆ ในประเด็น อาทิ :

– หัวข้อบรรยายในเชิงเทคนิคที่ร้อนแรงที่สุดแห่งยุค
– ผู้เชี่ยวชาญดด้านเน็ตเวิร์กที่ทรงอิทธิพลที่สุดของหัวเว่ย
– ร่วมพูดคุยแและแบ่งปันประสบการณ์ตรงจากวิทยากรระดับโลก
– รวมเยี่ยมชมศูนย์ Huawei Solution Experience Center, Openlab และ Demo Site ของหัวเว่ย

รายละเอียดงาน
วัน-เวลา : 30 – 31 พ.ค. 2562
สถานที่ : Webcast ในวันที่ 30 พ.ค. เวลา 9:00-12:30 (GMT+7)
ลงทะเบียน – คลิกลงทะเบียน

กำหนดการ

วิทยากรผู้บรรยาย

โซลูชั่นต่างๆ ในวันงาน

กรณีศึกษาที่น่าสนใจ

สามารถลงทะเบียน Webcast ได้ฟรีที่นี่ 

from:https://www.enterpriseitpro.net/huawei-southeast-asia-ip-club-carnival-2019/

[Guest Post] Big Data เทคโนโลยีติดปาก จะเข้ามาสอดรับกับธุรกิจในทุกอุตสาหกรรมได้อย่างไร?

ข้อมูลสำหรับการทำ Big Data & Analytics นั้น หลายองค์กรมีข้อมูลพวกนี้อยู่แล้ว อาจจะกระจัดกระจายกันไป บางบริษัทรู้ว่ามีข้อมูลมาก แต่ไม่รู้ว่าจะต้องจัดเก็บและจัดการอย่างไร ไปจนถึงจะนำข้อมูลเหล่านั้น ไปต่อยอดสร้างประโยชน์ได้อย่างไรบ้าง และต้องเจอกับปัญหาอะไรบ้าง…

Big Data ต้องมีเท่าไหร่ถึงจะเรียกว่า Big Data และมีแบบไหนบ้าง ?

คำว่า “Big Data” ไม่มีการกำหนดปริมาณที่แน่ชัด หากมีข้อมูลน้อย แต่มีคุณภาพมาก ก็สามารถนำไปต่อยอดงานต่างๆ ให้ตรงกับวัตถุประสงค์ได้ ยิ่งมีปริมาณมาก และมีคุณภาพก็จะนำไปใช้งานได้ ถูกต้องแม่นยำขึ้น

‘Big Data’ คือ แหล่งเก็บข้อมูลที่มีขนาดใหญ่ มีหลายแบบ แบบหนึ่งเรียกว่า Data Lake ไว้เก็บข้อมูลดิบ (Raw Data) แตกต่างจาก Data Warehouses ที่เราเคยได้ยิน ซึ่ง Data Warehouses จะมีข้อจำกัดใช้งานแบบ Single Schema คือการจัดรูปแบบข้อมูล เพื่อใช้กับงาน งานเดียวเท่านั้น ข้อมูลจะถูกจัดรูปแบบก่อนเก็บลง Storage เพื่อนำไปทำ Analytic ต่อไป ต่างจาก Data Lake ที่เก็บข้อมูลดิบทั้งหมดทุกประเภทลง Storage แล้วค่อยนำมาสร้าง schema หลายแบบได้พร้อมกัน เรียกว่า Schema-less และนำไปต่อยอดใช้งานหลายระบบพร้อมๆ กันได้ ทำให้เราสร้างระบบได้หลากหลาย และรวดเร็วมากกว่าการทำ Data Warehouses,

Data Lake นั้น เก็บข้อมูลทั้งที่เป็นข้อมูลที่มีโครงสร้างชัดเจน (Structured Data) เช่น Database ,ข้อมูลกึ่งมีโครงสร้าง (Semi-Structured Data) เช่น JSON data, XML, HTML หรือ RDF และไม่มีโครงสร้าง (Unstructured Data) เช่น Documents, ภาพ, วีดีโอ, โซเชียลมีเดีย, Digital surveillance หรือ Sensors Data โดยข้อมูลเหล่านี้ต้องการซอฟต์แวร์ที่รองรับการจัดการหรือการวิเคราะห์ได้อย่างมีประสิทธิภาพ เพื่อการประมวลผลและนำไปใช้ประโยชน์ได้แบบเรียลไทม์ต่อไป

Big Data เทคโนโลยีติดปาก จะเข้ามาสอดรับกับธุรกิจในทุกอุตสาหกรรมได้อย่างไร?

Big Data กับ Media & Entertainment

อีกหนึ่งอุตสาหกรรมระบบภาพและ VDO ที่ใหญ่ที่สุด คงหนีไม่พ้นระบบ Media & Entertainment ที่มีขั้นตอนการเชื่อมต่อกับหลายๆระบบ ซึ่งจะต้องเข้าถึงข้อมูลได้จากหลายแอบพลิเคชั่นและมีการใช้งานข้อมูลจากแหล่งเดียวกัน ตัวอย่างระบบที่รู้จักกันทั่วไปอย่าง MAM (Media Asset Management)/ PAM (Production Asset Management) คือระบบที่ใช้ Software มาบริหารจัดการทรัพย์สินที่เป็นสื่อดิจิตอล(Media file)ในรูปแบบต่างๆ ตามเงื่อนไข หรือ Workflow และยังครอบคลุมถึงการจัดการระดับองค์กร รูปแบบสื่อดิจิตอล เน้นไปทางด้านวีดิโอ+เสียง

“ยกตัวอย่างเช่น ฝ่ายผลิตรายการ 1) ถ่ายฟุตเทจรายการ 2) โหลดไฟล์ไปเก็บไว้ใน Server (Data Ingest) 3) แชร์ไฟล์ทุกคนที่มีส่วนเกี่ยวข้องกับการผลิต (Share Storage) เช่นส่วนตัดต่อ (NLE.) ส่วนงานสนับสนุนงานเขียนบทสำหรับรายงานข่าว (NRCS) 4) โปรดิวเซอร์ สามารถเข้าถึงไฟล์ เลือกรูปแบบไฟล์ที่ตนต้องการมาใช้งาน รวมไปถึงขั้นตอนในการตรวจสอบ(Censor) การค้นหาวีดิโอคลิปทำได้อย่างรวดเร็ว (Search) ย่นระยะเวลาในการทำงาน” เมื่อทำงานเสร็จ จัดทำข้อมูลรายละเอียดของไฟล์ (Cataloging & Data Tagging) เก็บไฟล์รายการเข้าระบบ (Archive) จัดตารางออกอากาศ (BMS) จากไฟล์รายการที่ทำเสร็จเรียบร้อยพร้อมออกอากาศ (Automation Playout) จากตัวอย่างข้างต้น มีทั้ง Client/ Editor/ Viewer /Automation systems และ Business Process แถมยังมีส่วน SDI – VDO access และข้อมูลนำเข้าระบบจาก Media Contents ต่างๆ ทุกระบบมีการเชื่อมต่อกัน ใช้งานข้อมูลร่วมกัน จากนั้นนำไปประมวลผลหรือดึงข้อมูลดิบไปต่อยอดงานต่อไป ซึ่งแต่ละงานก็มีขนาดใหญ่มาก ตามคุณภาพของไฟล์ จึงต้องจัดเตรียมข้อมูลและระบบให้สอดคล้องกับงานที่ทำด้วย

Big Data ในการตลาด [Digital Marketing] : เสนอข้อมูลตรงกลุ่มเป้าหมาย เนื้อหาข้อมูลตรงใจลูกค้า

สำหรับธุรกิจที่ต้องการความรวดเร็ว ตรงกลุ่มเป้าหมาย จะใช้ข้อมูลลูกค้ามาทำ Big Data ก็จะรู้พฤติกรรมเชิงลึกของลูกค้า ทำให้เข้าใจลูกค้ามากขึ้น สามารถนำไปวางแผนการตลาด ช่องทางการจัดจำหน่าย จัด Promotions ตรงตามกลุ่ม และช่วยให้ขยายฐานลูกค้าได้อย่างรวดเร็ว หรือนำข้อมูลไปพัฒนาสินค้าหรือบริการให้มีประสิทธิภาพยิ่งขึ้น และยังใช้วิเคราะห์แนวโน้มที่อาจจะเกิดขึ้นได้ในอนาคต

Big Data Industrial IoT : เทคโนโลยีที่สนับสนุนการทำงานของโรงงานแปรรูปอาหาร

การทำ Closed Loop Quality Control : โรงงานแปรรูปอาหารส่วนมากมักจะใช้การควบคุมคุณภาพแบบระบบอัตโนมัติเพื่อประมวลข้อมูลที่ได้ มีการสร้างระบบที่มีเซนเซอร์ตรวจจับอย่างใกล้ชิดและละเอียดในทุกขั้นตอนถือเป็นสิ่งจำเป็นหากต้องการควบคุมคุณภาพ เพื่อตรวจสอบความ เปลี่ยนแปลงให้เจอเสียก่อนที่จะสายเกินไป …โดยข้อมูล Sensors ต่างๆ ถูก generate ขึ้นทุกๆ วันและถูกเก็บไว้ที่ระบบ Big Data เพื่อประมวลผลก่อนส่ง alert/alarm ให้ผู้ดูแลทราบ ก่อนอุปกรณ์จะมีปัญหาและส่งผลต่อระบบการผลิตหรือสามารถนำมาใช้เพื่อการปรับปรุง maintenance ระบบได้ด้วย

การทำ Planning and Scheduling : เมื่อลูกค้ามีความต้องการสินค้า Make-to-Stock มากขึ้น สำหรับห้างร้าน ที่จะต้องมีการ stock สินค้า ผู้ผลิตอาหารแปรรูปมีความจำเป็นที่จะต้องวางแผนและจัดการล่วงหน้า เพื่อเตรียมตัวรับงานที่มีความท้าทาย โดยเฉพาะสินค้าที่มีอายุจัดวางขายต่ำ การใช้เครื่องมืออัจฉริยะ จะสามารถช่วยในการจัดการทรัพยากรที่ต้องใช้ได้อย่างเหมาะสม

ตัวอย่าง โรงงานผลิตอาหารกระป๋องที่ใช้เทคโนโลยี Industrial IoT

ซึ่งมีเครื่องทำความร้อนหรือหม้อต้มน้ำก็จะมีระบบตรวจวัดอุณหภูมิและควบคุมความร้อน ระบบการแจ้งเตือนอัตโนมัติหากมีภาวะเสี่ยงที่จะเกิดอันตราย ระบบเตือนเมื่อมีอุปกรณ์เสื่อมสภาพ เชื่อมโยงไปยังคลังสินค้า ระบบจัดเก็บข้อมูลจำนวนสินค้าที่ผลิตได้ในแต่ละวัน แต่ละเดือน จำนวนสินค้าคงคลัง ไปจนถึงการบริหารจัดการคลังสินค้า การขนส่งโลจิสติกส์ ซึ่งทั้งระบบนี้จะสามารถสื่อสาร ควบคุม ตรวจสอบได้ผ่านเครือข่ายอินเทอร์เน็ต และแน่นอนว่า อาศัยเทคโนโลยี Big Data ในการวิเคราะห์ คาดการณ์ และส่งต่อข้อมูลให้แก่ผู้ควบคุมระบบหรือผู้จัดการโรงงานรับทราบ ซึ่งนอกจาก Industrial IoT จะช่วยให้ระบบการผลิตสะดวกรวดเร็ว ตรวจสอบได้แบบเรียลไทม์แล้ว หากติดขัดก็สามารถแก้ปัญหาได้อย่างทันท่วงที และยังช่วยดูแลความปลอดภัยทั้งชีวิตและทรัพย์สินได้อีกทางหนึ่งด้วย

Big Data การทำงานร่วมกันระหว่างมนุษย์และเทคโนโลยี

เราสามารถพูดได้ว่า Big Data และ AI เป็นชุดของเทคโนโลยีสมัยใหม่ที่น่าทึ่ง ช่วยลดความเสี่ยงที่อาจจะเกิดกับมนุษย์ โดยใช้หุ่นยนต์เข้ามาช่วยและเพิ่มความเร็วในการผลิต งาน Big Data และ AI ถือเป็นยักษ์ใหญ่ที่จะเข้ามาช่วยทางด้านนี้ได้เป็นอย่างดี โดยนักวิทยาศาสตร์ด้านข้อมูลหรือ บริษัท ขนาดใหญ่อื่น ๆ หลายองค์กรพิจารณาว่า Big Data และ AI จะนำมาซึ่งการพัฒนา สินค้า บริการ เทคโนโลยีใหม่ๆ มาสู่องค์กรของพวกเขาได้

…ด้วยเหตุนี้เองในอนาคต ไม่ว่าเทคโนโลยีจะพัฒนาไปอย่างไร ระบบก็ยังจะคงต้องการ การสนับสนุนของมนุษย์ เพราะมนุษย์คงไม่สามารถวิเคราะห์ข้อมูลนั้นได้ด้วยตัวเองทั้งหมด และระบบเองก็คงไม่สามารถปฏิบัติการเองโดยไม่มีการป้อนข้อมูลได้ การผสมผสานการทำงานร่วมกันจะยิ่งทำให้ผลลัพธ์การทำงานเป็นไปอย่างมีประสิทธิภาพมากยิ่งขึ้นไปอีก

ปัญหาสำคัญที่ไม่สามารถนำข้อมูลที่มีไปใช้ได้อย่างสะดวก

ปัญหานั้นมาจากการจัดเก็บข้อมูลอย่างไม่มีระเบียบหรือไม่เป็นแบบแผนเดียวกัน เนื่องจากจำนวนข้อมูลที่มีมากขึ้นโดยเฉพาะ Unstructured Data ที่ไม่มีการจัดการโดยเครื่องมือ Data Management Platform (DMP) ที่จะเข้ามาช่วยทำให้ข้อมูลต่างๆ เป็นแพลตฟอร์มเดียวกัน ง่ายต่อการนำไปวิเคราะห์หรือใช้งานต่อ รวมทั้งต้องจัดการทั้งข้อมูลเก่าที่มีอยู่เดิม และคำนึงถึงข้อมูลใหม่ๆ ที่จะเข้ามาในอนาคตเพื่อให้พร้อมสำหรับการไปใช้งาน เพราะข้อมูลที่จัดเก็บโดยไม่มีประสิทธิภาพ มีโอกาสให้การวิเคราะห์หรือคาดการณ์ผิดพลาดและส่งผลเสียอย่างมหาศาลให้แก่ธุรกิจได้

เมื่อเห็นแล้วว่า Big Data สำคัญต่อโครงสร้างทั้งหมด เพื่อความยืดหยุ่นต่อการเชื่อมต่อและพัฒนาของเทคโนโลยีที่เกิดอย่างรวดเร็ว ทางไอบีเอ็ม มีการพัฒนา Solution ที่สำหรับจัดเก็บข้อมูลมหาศาล ที่ถูกพูดถึงกันมากและใช้งานอย่างแพร่หลายแล้วในหลายองค์กร คือกลุ่มของ Software Defined Storage อย่าง IBM Spectrum Scale ที่เป็นระบบจัดเก็บไฟล์แบบ general parallel file systems (GPFS) ออกแบบเพื่องานจัดเก็บไฟล์จำนวนมากโดยเฉพาะ รองรับการเชื่อมต่อได้หลากหลาย protocols และยังสามารถเชื่อมต่อ จัดการ storage ได้หลากหลายทั้งแบบ Flash, SSD, Disk, Tape, Object Storage, Cloud ภายใน system เดียวกัน ทำให้ง่ายและลดค่าใช้จ่ายในการจัดเก็บข้อมูลลง เพราะภายใน Spectrum Scale สามารถตั้งค่ากำหนด Policy ในการเคลื่อนย้ายข้อมูลไปยัง Storage ที่เหมาะสมได้โดยอัตโนมัติตามเวลาที่ต้องการ เรียกว่า “Information Lifecycle Management (ILM) policies” ยังมีประสิทธิภาพในการค้นหาข้อมูลของ Metadata ในระดับล้านไฟล์ ได้ในเวลาน้อยกว่าหนึ่งนาที และระบบที่ใช้งานผ่าน IBM Spectrum Scale นี้รองรับ Application ต่างๆ ให้สามารถเข้าถึงข้อมูลเหล่านี้ได้หลากหลายทั้งแบบ Shared Native, NFS, SMB, POXIS, Compute Farm, OpenStack [Cinder,Swift, S3, Glance]

ข้อมูลเพิ่มเติม IBM Spectrum Scale: https://www.youtube.com/watch?v=prYbCLTODCw#action=share

การป้องกันข้อมูลของระบบ สามารถทำงานร่วมกับ ระบบ Native Encryption และ Security Key System Management (SKM) ได้ด้วย เพื่อทำ encryption data ก่อนจะลงไปยัง Disk และยังมีฟังก์ชั่น Secure Deletion ป้องกับการลบข้อมูล สามารถตั้งค่าได้เพื่อความปลอดภัยได้ ส่วนการ Protection Data โดยการทำ protection แบบ 2 copies วิธีการนี้จะช่วยเพิ่มพื้นที่จัดเก็บข้อมูลให้เพิ่มขึ้นและข้อมูลยังคงปลอดภัยเช่นเดิม ต่างจากการใช้ Freeware บางตัว ที่ใช้ในการทำ File System เช่นกัน แต่มีการ protection data ถึง 3 copies ที่จะทำให้ใช้เครื่อง data node ในปริมาณมาก เพื่อให้ได้ usable ตามต้องการ ส่งผลให้ค่าใช้จ่ายโดยรวมของระบบมีราคาสูงขึ้น แม้จะเป็น Freeware ก็ตาม กลับต้องเสียค่าใช้จ่ายส่วน Hardware ที่สูง แต่ใช้งานได้น้อย ส่วนของ Freeware ก็ถือเป็นเครื่องมือที่ดี แต่ก็มาพร้อมการทำงานที่ยุ่งยากและซับซ้อน ซึ่งในบ้างครั้งอาจจะไม่ได้เหมาะที่จะใช้งานกับทุกองค์กร หากลูกค้าต้องการเชื่อมต่อหรือย้ายระบบมาใช้งาน IBM Spectrum Scale ทางไอบีเอ็ม มี Free Tool ของไอบีเอ็ม ที่สามารถเชื่อมต่อกับระบบเดิมใช้งานร่วมกันหรือใช้ย้ายข้อมูล (Data migration) มายังระบบใหม่ได้ง่ายอีกด้วย

มุมของ Server ที่จะนำมาสร้าง File System ใช้งานกับ Spectrum Scale สามารถรองรับได้หลากหลาย platform ทั้ง Intel x86 Server และ IBM Power Systems ทำให้ลูกค้าสามารถเริ่มต้นระบบได้ที่ 1-2 node เท่านั้น หากลูกค้าไม่ต้องการเพิ่ม server บ่อยครั้ง เมื่อเครื่อง Intel server ที่มีอยู่นั้น รองรับ workload ได้ไม่มากนัก และลูกค้าต้องการจะได้ performance ของระบบที่สูงขึ้น เพื่อประหยัดงบประมาณทางด้านการจัดซื้อและดูแลระบบโดยรวม ทางลูกค้าสามารถเลือกใช้ IBM Power Systems LC model ได้ ซึ่งความสามารถของเครื่องมีความเร็วของ CPU มากกว่า x86 ถึง 4เท่า จึงช่วยให้ลูกค้าสามารถเลือกใช้ server ในปริมาณที่น้อยลง ได้ประสิทธิภาพที่สูงขึ้น รองรับการใช้งานระบบของ Big Data หรือเหมาะกับงานที่มี workload ปริมาณมากและ IBM Power System ยังสามารถใช้งานร่วมกับ IBM Spectrum Scale ได้ดีอีกด้วย สามารถอ่านข้อมูลเพิ่มเติม ได้ที่ >>> https://www.ibm.com/us-en/marketplace/power-system-lc921-and-lc922

ทั้งหมดนี้ เป็นเพียงบางส่วนของข้อมูลเท่านั้น ที่เกี่ยวกับเทคโนโลยีที่กำลังถูกพูดถึงอย่างแพร่หลาย อย่าง Big Data เพื่อเป็นแนวทางสำหรับการนำไปปรับใช้ภายในองค์กร ของทุกอุตสาหกรรม หากต้องการที่ปรึกษาทางด้านเทคโนโลยีหรือสนใจด้านการทำระบบ สามารถติดต่อทาง IBM Thailand และทาง Computer Union มีทีมงาน ที่พร้อมให้คำปรึกษาสำหรับทุกท่านอย่างครบถ้วน

“การนำเทคโนโลยี Big Data Analytic เข้ามาร่วมการตัดสินใจ เพื่อให้เกิดผลลัพธ์ที่ถูกต้อง แม่นยำตามวัตถุประสงค์ที่ต้องการ หากเราเข้าใจและมองเห็นปัญหานั้นแล้ว Big Data ก็จะช่วยทำให้เราแก้ไขปัญหาได้อย่างชัดเจนมากขึ้น แต่ถ้ายังมองไม่เห็นปัญหา Big Data อาจจะเป็นหนึ่งในเครื่องมือที่ช่วยทำให้เรามองเห็นปัญหาที่เกิดได้ชัดเจนมากขึ้น เนื่องจากการประมวลผลต่าง ๆ เกิดจากข้อมูลจริงที่เกิดขึ้นจากพฤติกรรมจริง ภายใจองค์กรหรือภายในระบบ ให้องค์กรสามารถเดินทางไปสู่เป้าหมายได้อย่างมั่นใจ”

ติดต่อสอบถามเพิ่มเติม บริษัท คอมพิวเตอร์ยูเนี่ยน จำกัด
mail : cu_mkt@cu.co.th หรือโทร 02 311 6881 #7151, 7156

เขียนโดย :

ปรียานุช เปล่งวาจา
IBM IT/Specialist
IBM Thailand Co.,Ltd

ธรา มะลัยจันทร์
System Engineer
Computer Union

ชานนทร์ เรือนจรัสศรี
Presales SW Specialist
Computer Union

from:https://www.techtalkthai.com/how-big-data-help-businesses-in-many-industries-by-computer-union/