AI คือหัวใจสำคัญของการทำ Digital Transform และข้อมูลคือองค์ประกอบหลักของ AI

วันก่อนผมไปเวทีเสวนาในงานประชุมของกลุ่ม DTGO ในหัวข้อ AI in the new era ร่วมกับกูรูหลายๆท่านในวงการไอทีเมืองไทย เราทุกคนเห็นพ้องต้องกันว่ายุคนี้เป็นยุคของปัญญาประดิษฐ์ (AI) และ AI จะเข้ามาเปลี่ยนแปลงองค์กรในหลายๆด้าน แต่ปัญหาหนึ่งที่เป็นคำถามน่าสนใจก็คือว่าอะไรที่อาจเป็นอุปสรรคทำให้ AI  ไม่เป็นไปตามที่คาดหวัง คำตอบที่ผมให้ก็คือการขาดข้อมูลขนาดใหญ่

อย่างที่ผมเคยเขียนไว้ในบทความก่อนว่า องค์ประกอบสำคัญของ AI ก็คือการที่จะต้องมีข้อมูลขนาดใหญ่ (Big Data) แล้วใช้ Machine Learning มาเป็นอัลกอริทึมในการวิเคราะห์ข้อมูล (ดูบทความได้ที่ การเตรียมเทคโนโลยีและโครงสร้างพื้นฐานขององค์กรเพื่อรองรับ AI) ซึ่งความถูกต้องของ AI อยู่ที่การมีข้อมูลที่มากพอ และการใช้อัลกอริทึมอย่าง Deep Learning ที่สามารถจะจำลองโมเดลของ Neural Networks ที่ใหญ่ขึ้นได้  (โดยต้องมีระบบประมวลผลที่มีประสิทธิภาพที่มากขึ้น) ดังแสดงในรูปที่ 1 ซึ่งถึงแม้ว่าเราจะสามารถพัฒนาโมเดลที่ซับซ้อนขึ้น แต่หากยังขาดข้อมูลที่มากพอหรือไม่มีระบบประมวลขนาดใหญ่ก็ยากที่จะได้ AI  ที่มีความถูกต้องที่ดีพอใช้งาน

Screenshot 2019-02-06 09.53.29

รูปที่ 1 แสดงความสัมพันธ์ของขนาดข้อมูล ขนาดของโมเดล กับความถูกต้องของ AI [จาก Data Analytics and Artificial Intelligence in the era of Digital Transformation, Google]

และถ้าเราพิจารณาการทำ AI ในช่วงเวลาต่างๆ ที่ทาง Dr. Kai-Fu Lee  ได้เขียนไว้ในหนังสือ AI Superpowers: China, Silicon Valley, and the New World Order ว่าแบ่งออกเป็น  4 คลื่นดังรูปที่ 2 กล่าวคือ

  • คลื่นที่ 1 เริ่มต้นในปี 1998 ยุคของ  Internet AI คือการทำ AI จากข้อมูลที่อยู่ในบริษัทอินเตอร์เน็ตต่างๆเช่น Google, Amazon, Facebook, Alibaba ซึ่งในกลุ่มบริษัทที่มีผู้ใช้งานมากกว่าก็จะมีข้อมูลมากกว่าจะได้เปรียบ และก้มีแนวโน้มที่ให้เห็นว่าบริษัทในประเทศจีนที่มีผู้ใช้จำนวนมากเช่นการใช้มือถือ การใช้  E-commerce เริ่มจะมีความแม่นยำที่ดีกว่าบริษัทในประเทศอื่นๆ
  • คลื่นที่ 2  เริ่มต้นในปี 2004 ยุคของ  Business AI คือการทำ AI จากข้อมูลบริษัทที่ทำธุรกิจทั่วไปเช่น บริษัทด้านการเงิน ร้านค้าปลีก หน่วยงานภาครัฐ ซึงกรณีนี้บริษัทจะต้องมีข้อมูลของธุรกรรมต่างๆที่สะสมมามากพอ และความแม่นยำในการทำ AI ก็อาจยังมี Factor อื่นๆจากภายนอกที่ต้องเข้ามาพิจารณาอีกมากมายนอกเหนือจากข้อมูลภายในองค์กร เช่นด้านการเมือง ด้านสังคม ด้านเศรษฐกิจ
  • คลื่นที่ 3  เริ่มต้นในปี 2011 ยุคของ  Perception AI คือการทำให้ AI มองเห็น ได้ยิน หรือพูดได้ เช่นการทำ Face recognition, speech recognition หรือ Natural language processing ซึ่งความถูกต้องของ AI จะใช้ข้อมูลมาตรฐานที่มีขนาดใหญ่ และความสามารถในการสร้างอัลกอริทึมที่มีโมเดลที่ดีและมีขนาดใหญ่ ซึ่งในปัจจุบันบริษัทที่มีระบบประมวลผลขนาดใหญ่อย่าง Google, Amazon, Microsoft,  Alibaba หรือ Huawei สามารถที่จะพัฒนาทำให้ AI ทำเรื่องเหล่านี้ได้ดีขึ้นมากจนบางครั้งเก่งกว่ามนุษย์
  • คลื่นที่ 4  เริ่มต้นในปี 2015 ยุคของ  Autonomous AI คือการทำให้ AI เคลื่อนที่ได้โดยอัตโนมัติ เช่นรถยนต์ไร้คนขับ หรือโดรนอัตโนมัติ ซึ่งบริษัทต่างๆเช่น Teslo, Uber หรือ Waymo ต่างๆก็เร่งพัฒนาโดยการสร้างฐานข้อมูลขนาดใหญ่และพัฒนาอัลกอริทึมโมเดลแข่งกัน ซึ่งในอนาคตก็จะเห็นระบบนี้ที่ดีขึ้นเรื่อยๆ

Screenshot 2019-02-06 10.02.53

รูปที่ 2 ยุคต่างๆของ AI [จาก AI Frontiers : The Era of Artificial Intelligence, Dr. Kai-Fu Lee]

จากที่กล่าวมาจะเห็นว่าถ้าธุรกิจอยากจะทำ AI ซึ่งก็เป็นปัจจัยที่สำคัญที่สุดในการทำ Digital Transformation  ธุรกิจเหล่านั้นก็จะต้องมีข้อมูลขนาดใหญ่ ถึงจะได้เปรียบคู่แข่ง บริษัทอย่าง Netflix, Uber, Agoda หรือ Alibaba มีจุดเด่นคือเป็นบริษัทที่มีข้อมูลขนาดใหญ่ และสามารถนำข้อมูลเหล่านั้นมาเพื่อที่จะทำปัญญาประดิษฐ์ มาทำ Data Analytics เพื่อให้เข้าใจลูกค้าและแนวโน้มต่างๆได้ดีขึ้น ดังนั้นก่อนที่บริษัทจะคิดว่าเราจะทำ AI  อะไร สิ่งแรกที่จำเป็นอย่างยิ่งคือการมีกลยุทธ์ด้านข้อมูล การรวบรวมข้อมูลจากแหล่งต่างๆเพื่อมาสร้าง Data Platform ที่สามารถนำไปวิเคราะห์ต่อไปได้ ซึ่งผมจะเขียนเพิ่มเติมในตอนถัดไปว่าเราจะเอาข้อมูลมาจากไหน

Screenshot 2019-02-06 10.26.29

รูปที่  3 การรวบรวมข้อมูลสร้าง Data Platform [จาก Data Analytics and Artificial Intelligence in the era of Digital Transformation, Google]

ธนชาติ นุ่มนนท์

IMC Institute

 

การเตรียมเทคโนโลยีและโครงสร้างพื้นฐานขององค์กรเพื่อรองรับ AI

ทุกองค์กรพูดถึง AI (ปัญญาประดิษฐ์) ว่าเป็นแนวโน้มเทคโนโลยีที่จะเข้ามาเปลี่ยนโลกและธุรกิจ บ้างก็เป็นกังวลกับอนาคตของธุรกิจและอุตสาหกรรม บางหน่วยงานที่มีศักยภาพก็เริ่มเตรียมตัวทั้งการเตรียมโครงสร้างพื้นฐานและบุคลากร AI เป็นเรื่องของการนำข้อมูลมาใช้ในการวิเคราะห์ คาดการณ์และพยากรณ์ในเรื่องต่างๆ ซึ่งก็เป็นสิ่งที่มนุษย์ทำอยู่เป็นประจำ แต่ด้วยความสามารถของคอมพิวเตอร์ประกอบกับการใช้ข้อมูลขนาดใหญ่ก็เลยทำให้ทำได้รวดเร็วและมีความแม่นยำกว่ามนุษย์ ดังนั้นงานยากๆที่แต่ก่อนทำไม่ได้จึงสามารถทำได้ดีขึ้นในวันนี้ การประบุกต์ใช้ AI จะประกอบด้วยหลายๆด้านทั้งการวิเคราะห์ข้อมูล ด้านการฟัง ด้านการมองเห็น ด้านภาษา หรือด้านระบบผู้เชี่ยวชาญ ซึ่งองค์ประกอบสำคัญของ AI ก็คือการที่จะต้องมีข้อมูลขนาดใหญ่ (Big Data) แล้วใช้ Machine Learning มาเป็นอัลกอริทึมในการวิเคราะห์ข้อมูลแล้ว ยังต้องมีคอมพิวเตอร์ที่สามารถประมวลผลข้อมูลได้อย่างรวดเร็วด้วย โดยรูปที่ 1 ได้แสดงให้เห็นถึงความสัมพันธ์ของ AI, Big Data และ Machine Learning

 

screenshot 2019-01-14 13.34.15

รูปที่  1 ความสัมพันธ์ของ AI, Big Data และ Machine Learning

จริงๆแล้ว AI ไม่ใช่เรื่องใหม่แต่ที่เริ่มมากล่าวถึงมากขึ้นในตอนนี้ก็เพราะว่าเทคโนโลยีอย่าง Mobile, Social Media และ Internet of Things  (IoT) ทำให้เราสามารถเก็บข้อมูลได้มากขึ้น ทุกที่ ทุกเวลา และทุกอุปกรณ์ ข้อมูลก็มีขนาดใหญ่ขึ้นก็ยิ่งทำให้ AI มีความแม่นยำขึ้น ประกอบกับการมีระบบ Cloud computing ทำให้เราสามารถหาทรัพยากรคอมพิวเตอร์ขนาดใหญ่มาประมวลผลข้อมูลมหาศาลได้ง่ายขึ้น

การเตรียมตัวสำหรับการทำ AI องค์กรจะต้องพิจารณาเริ่มต้นจากความต้องการธุรกืจ ไม่ใช่เริ่มจากด้านเทคโนโลยี  ต้องเข้าใจวัตถุประสงค์และประโยชน์ที่จะนำ AI มาประยุกต์ใช้ในองค์กร หลังจากนั้นจึงพิจารณาด้านโครงสร้างพิ้นฐานสำหรับการทำ AI ซึ่งองค์ประกอบด้านเทคโนโลยีที่สำคัญมีสองส่วนคือ ด้านโครงสร้างพื้นฐานด้านข้อมูลขนาดใหญ่ และเทคโนโลยีด้านการวิเคราะห์ข้อมูลอย่าง Machine Learning และ Deep Learning  การเตรียมโครงสร้างพิ้นฐาน Big Data ผมก็คงจะไม่กล่าวถึงในบทความนี้เพราะได้เขียนไว้บ่อยๆในเรื่องของ Data Lake, Hadoop และ  Cloud Storage

อัลกอริทึมที่ใช้ใน AI ที่มักจะกล่าวถึงคือ Machine Learning ซึ่งก็มีการพัฒนามายาวนานโดยมีการประยุกต์ใช้ในด้านต่างๆอาทิเช่น การทำ Classification, Clustering, Recomendation, Personalization หรือ การทำ Fraud detection นอกจากนี้ยังมีอัลกอริทึมอีกกลุ่มหนึ่งคือ Deep Learningโที่มีความสามารถดีกว่า Machine Learning แบบเดิมๆดยได้ตัดเรื่องของการทำ Feature Engineer ออกเลยทำให้ AI สามารถเรียนรู้จากข้อมูลขนาดใหญ่ได้ดีขึ้นและมีประสิทธิภาพมากขึ้น เลยทำให้ในปัจจุบันมีการนำ Deep learning ในการประยุกต์ใช้งานด้านต่างๆอาทิเช่น Image recognition, Speech Recognition, Language หรือ  Self driving car

การเตรียมเทคโนโลยีด้านอัลกอริทีมเหล่านี้จะต้องเลือกเครื่องมือในการพัฒนา (Toolkit) และเตรียมระบบคอมพิวเตอร์ขนาดใหญ่สำหรับการประมวลผล ซึ่งเมื่อพูดถึงเครื่องมือในการพัฒนาเราอาจต้องใช้เครื่องมือต่างๆอาทิเช่น

  • Machine Learning Toolkit
    • SAS, R, MATLAB, Python (scikit-learn), Spark, Anaconda
  • Deep Learning Toolkit
    • TensorFlow, MXNet, PyTorch, Caffe, CTNK

นอกจากนี้การใช้อัลกอรึทีมโดยเฉพาะในขั้นตอนการทำ Data Training จำเป็นต้องมีระบบคอมพิวเตอร์ขนาดใหญ่ในการประมวลผล ซึ่งองค์กรอาจจำเป็นต้องเตรียมเครื่องคอมพิวเตอร์ในระบบ On-Premise หรืออาจใช้เครื่อง Virtual Server บนระบบ Public cloud เพื่อลดค่าใช้จ่ายในการลงทุนเบื้องต้น แต่หากโจทย์ AI เป็นปัญหาทั่วๆไปที่มีการทำ Data Training มาแล้ว เช่นการทำ Face Recognition, Speech Recognition หรือ Chat Bot องค์กรก็อาจสามารถที่จะใช้ APIs สำเร็จรูปที่ผู้ให้บริการ Public Cloud ค่ายต่างๆได้จัดเตรียมไว้เช่น Vision API ของ Google Cloud Platform  หรือ Recommendation API ของ Microsoft Azure ดังแสดงในรูปที่ 2 ที่เป็นการสรุปเปรียบเทียบบริการ AI Cloud  ของค่ายต่างๆ แต่การใช้ API เหล่านี้ก็อาจมีจุดด้อยในเรื่องของ Vendor Lock-in

49938364_2261204387459828_3708624111711289344_n

รูปที่ 2 เปรียบเทียบ API Services ของ Public Cloud Provider ต่างๆ

กล่าวโดยสรุปการเตรียมโครงสร้างพื้นฐานสำหรับองค์กรในการทำ AI อาจจะต้องครอบคลุมถึงเทคโนโลยีในการเก็บข้อมูลอย่าง Data Lake, Toolkit ในการพัฒนาอัลกอริทึมทางด้าน Machine Learning หรือ Deep Learning  และระบบคอมพิวเตอร์ขนาดใหญ่สำหรับการประมวลผล ซึ่งทั้งหมดที่กล่าวมาอาจใช้บริการของ  Public cloud เพื่อลดค่าใช้จ่ายในการลงทุนเบื้องต้น

ธนชาติ นุ่มนนท์

IMC Institute

 

 

 

ยุคของ Citizen Data Scientist กำลังมา

Screenshot 2019-01-02 10.49.57

เรามักจะได้ยินว่าอาชีพหนึ่งที่เป็นที่ต้องการในยุคนี้คือ Data Scientist (นักวิทยาศาสตร์ข้อมูล) ซึ่งเป็นผู้ที่จะนำอัลกอริทึมทางด้าน Machine Learning มาใช้ในการวิเคราะห์ข้อมูล Data Scientist จะต้องมีความรู้ทางด้านคณิตศาสตร์ การพัฒนาโปรแกรม และองค์ความรู้ทางธุรกิจที่จะใช้ในการวิเคราะห์ข้อมูล อาชีพนี้เป็นที่ต้องการของบริษัทใหญ่ๆจำนวนมาก โดยเฉพาะบริษัทเทคโนโลยีอย่าง Amazon, Google, NetFlix หรือ Uber แม้แต่ในบ้านเราเองก็มีความพยายามที่จะหานักวิทยาศาสตร์ข้อมูลที่มีจบปริญญาโทหรือเอก หรือมีประสบการณ์ในการทำงานด้านนี้ในต่างประเทศเข้ามาทำงาน

บางสถาบันในบ้านเราก็เปิดหลักสูตรระดับปริญญาตรีด้าน Data Scientist ซึ่งก็น่าจะเป็นสาขาที่เรียกยากเพราะผู้ที่จะจบการศึกษาด้านนี้และออกมาทำงานได้ดี ก็ควรจะต้องมีความเชี่ยวชาญด้านคณิตศาสตร์ในระดับสูง มีความสามารถที่จะพัฒนาโมเดลทางคณิตศาสตร์และเข้าใจอัลกอริทึมต่างๆได้เป็นอย่างดี ซึ่งหลักสูตรส่วนใหญ่ในบ้านเราก็อาจจะสอนเน้นไปทางการพัฒนาโปรแกรมหรือไม่ก็ใช้เครื่องมือในการวิเคราะห์ข้อมูลอย่าง Data Visualisation หรือ  Business Intelligent เสียมากกว่า

ดังนั้นจะเห็นได้ว่าการหา Data Scientist  หรือแม้แต่การพัฒนา Data Scientist  ดีๆมาซักคนหนึ่งจึงเป็นเรื่องที่ยาก และทำให้อาชีพนี้ยังขาดแคลนบุคลากร แต่เมื่อไม่กี่ปีที่ผ่านมาบริษัทวิจัย Gartner ก็ได้นิยามคำว่า  Citizen Data Scientist ขึ้นมาโดยระบุว่า “เป็นผู้ที่ใช้โมเดลในการทำ Predictive หรือ prescriptive analytics ในการวิเคราะห์ข้อมูล แต่ไม่ได้เน้นศาสตร์ทางด้านคณิตศาสตร์ กล่าวคือใช้เครื่องมือสำเร็จรูปมาในการวิเคาระห์ข้อมูล โดยทำหน้าที่เสมือนผู้ที่เชื่อมโยงงานของ Business User ที่ต้องการวิเคราะห์ข้อมูลเอง กับ  Data Scientist ทีมีความสามารถด้านการทำ Analytics  ขั้นสูง”

ด้วยเครื่องมือที่ดีในปัจจุบันทำให้เราสามารถที่จะจัดการข้อมูลได้อย่างอัตโนมัติในหลายๆด้านอาทิเช่น

  • Augmented data preparation คือการใช้ Machine Learning  ในการจัดการเตรียมข้อมูลต่างๆได้อย่างอัตโนมัติเช่น การทำ data profiling หรือการปรับปรุงคุณภาพของข้อมูล
  • Augmented data discovery คือการที่ Citizen data scientists สามารถใช้ machine learning ได้อย่างอัตโนมัติในการ ค้นหา ความสัมพันธ์, Pattern หรือ คาดการณ์ข้อมูลได้โดยไม่ต้องสร้างโมเดลคณิตศาสตร์หรือเขียนอัลกอริทึมใดๆ

ทั้งนี้เครื่องมือเหล่านี้มักจะมี visualization tools ในลักษณะ Drag and drop หรือการใช้ภาษาทั่วไปในการสอบถามข้อมูล (natural-language query)  โดยไม่ต้องเขียนโปรแกรม

Gartner ได้กำหนดให้เทคโนโลยีอย่าง Augmented Analytics เป็นหนึ่งในแนวโน้มเทคโนโลยีที่น่าจับตามองในปี 2019 และคาดการณ์ว่าจำนวน citizen data scientists จะเพิ่มขึ้นรวดเร็วกว่า data scientists  ปกติถึง 5 เท่าในปี 2020 และคาดการณ์ว่าการทำ Adavanced Analytics ในปีนี้จะถูกสร้างมาจาก citizen data scientist มากกว่า data scientist ปกติ โดย 40% ของงาน Data Science จะกลายเป็นระบบอัตโตมัติที่ถูกสร้างมาจากเครื่องมือที่ดีขึ้น

ตารางที่ 1  เปรียบเทียบบทบาทหน้าที่ต่างๆ

Screenshot 2019-01-02 11.13.41

ซึ่งหากเราจะสรุปบทบาทหน้าของ Citizen data scientist, Business User และ Data scientist ก็อาจพอสรุปคร่าวๆได้ดังตารางที่ 1 และสรุปท้ายผมขอยกตัวอย่างเครื่องมือในการทำ Augmented Analytics บางตัวที่ Gartner  ระบุไว้เพื่อให้เห็นกันดังภาพข้างล่างนี้

ธนชาติ นุ่มนนท์

IMC Institute

Screenshot 2019-01-02 10.54.58

Screenshot 2019-01-02 10.55.10

 

 

งานสัมมนา IT Trends 2019 ของสถาบันไอเอ็มซี Putting Digital Transformation to Work

Screenshot 2018-10-22 13.30.30

IMC Institute จัดงานสัมมนา IT Trends มาต่อเนื่องกันทุกปี ทุกครั้งจะเชิญวิทยากรผู้ทรงคุณวุฒิในประเทศมายี่สิบกว่าท่านเพื่อจะ Update ในปีถัดไปว่าแนวโน้มด้านไอทีของบ้านเราจะมีเทคโนโลยีและความเคลื่อนไหวต่างๆของอุตสาหกรรมด้านใดที่สำคัญ ในปีนี้ทาง IMC Institute ก็จัดงานนี้ร่วมกับทาง บริษัท Optimus (Thailand) เป็นปีที่หก โดยกำหนดจัดงานขึ้นในวันที่  12-13 ธันวาคม 2561 ที่โรงแรมสวิสโซเทล เลอ คองคอร์ด  โดยได้เชิญวิทยากรมาทั้งหมด 35 ท่านโดยตั้งเป็นหัวข้อว่า Putting Digital Transformation to Work ทั้งนี้จะเน้นเรื่องของแนวโน้มด้านเทคโนโลยีสารสนเทศที่จะมีผลกระทบต่อ Digital Transformation ขององค์กร (ดูรายละเอียดเพิ่มเติมได้ที่ www.imcinstitute.com/IT-Trends-2019)

ทั้งนี้เมื่อพิจารณาดู Gartner IT Strategic Trends 2019 เราอาจไม่เห็นความแตกต่างกับปีที่ผ่านมาๆมากนัก โดยจะแบ่งเป็นสามด้านเช่นเดิมคือ Intelligent, Digital และ Mesh แต่เนื้อหาโดยละเอียดจะเห็นประเด็นที่น่าสนใจเพิ่มเติมในบ้างด้านเช่น Intelligent จะกล่าวถึง augmented analytics และ AI-driven development ที่จะทำให้การพัฒนา AI เป็นไปได้ง่ายและอัตโนมัติมากขึ้น นอกจากนั้นก็ยังเน้นเรื่องของ   Empowered edge และ Immersive technologies ในกลุ่มของ Digital  และยังกล่าวถึง Smart spaces อย่างเช่น Smart city ซึ่งจะเห็นสภาพแวดล้อมที่ผสมกันกับโลก Physical ปัจจุบันกับโลกดิจิทัล สุดท้ายก็ชี้เห็นถึง Quantum computing ที่กำลังเข้ามาซึ่งจะทำให้การประมวลผลต่างๆได้อย่างรวดเร็วมหาศาล รวมถึงเรื่องของ Digital ethics and privacy ที่กำลังกลายเป็นเรื่องสำคัญอย่างยิ่ง

PR_499538_Top_10_Technology_Trends_for_2019_Infographic

จาก IT Trends ที่กล่าวมาทำให้ทีมงานของ  IMC Institute และ Optimus (Thailand) มีความเห็นร่วมกันว่า IT Trends อาจเปลี่ยนแปลงไม่มากนักแต่สิ่งสำคัญคือองค์กรจะต้องนำการเปลี่ยนแปลงมาใช้ในองค์กรให้ได้ ต้องเข้าใจให้ได้ว่า IT Trends ที่เข้ามาจะมีผลกระทบกับองค์กรอย่างไร เช่นการเข้ามาของ AI ทั้งในเรื่องของ Autonomous things หรือ Development Tools จะทำให้เกิดการเปลี่ยนแปลงอย่างไร ดังนั้นเราจึงกำหนด Theme ในปีนี้ให้เป็นหัวข้อ Putting Digital Transformation to Work โดยการสัมมนาสองวัน ในวันแรกจะเชิญวิทยากรหลายๆท่านมาบรรยายให้เห็นการเปลี่ยนแปลงรวมถึงแนวโน้มเทคโนโลยีในปีหน้าอาทิเช่น

  • คุณธันยวัชร์ ไชยตระกูลชัย: ผู้เชี่ยวชาญด้านการตลาด บรรยายหัวข้อ  Digital Transformation is Faster than We Expected
  • ดร.มนู อรดีดลเชษฐ์ บรรยายหัวข้อ IT Trends & Digital Transformation
  • ดร.พันธุ์อาจ ชัยรัตน์ ผู้อำนวยการสำนักงานนวัตกรรมแห่งชาติ (องค์การมหาชน) จะมาบรรยายหัวข้อ Innovation & Digital Transformation
  • พันเอก ดร.เศรษฐพงค์ มะลิสุวรรณ บรรยายหัวข้อ  Digital Disruption
  • ดร.พีรเดช ณ น่าน Digital Futurist & CIO World Business Columnist บรรยายหัวข้อ  5G & Digital Transformation
  • ผศ. ดร. เด่นพงษ์ สุดภักดี: รองอธิการบดีฝ่ายวิชาการและสื่อสารองค์กร มหาวิทยาลัยขอนแก่นบรรยายหัวข้อ  IT Trends disrupt Government Sector
  • ผศ.ดร.จิรพันธ์ แดงเดช CTO, Merlin’s Solutions International บรรยายหัวข้อ AI & Digital Transformation

สำหรับวันที่สอง เราจะแบ่งห้องการบรรยายเป็นสามห้องและมีวิทยากรร่วมบรรยายประมาณ 30 ท่านโดยมี Track ต่างๆอาทิเช่น

  • Smart Media/Communication Track
  • Smart FSI Track
  • Future Technology Track
  • Smart Manufacturing Track
  • Smart Government Track

ท่านที่สนใจรายละเอียดการสัมมนาก็ลองสอบถามข้อมูลเพิ่มเติมได้ที่ 087-593-7974 หรือ contact@imcinstitute.com

ธนชาติ นุ่มนนท์

IMC Institute

 

ภาพเปรียบเทียบ Big Data Architecture โดยใช้ Hadoop กับการใช้ Public Cloud ของ Google, AWS หรือ Azure

Screenshot 2018-10-22 13.30.30

ผมเคยเขียนบทความหลายๆครั้งชี้ให้เห็นว่าการทำ Big Data จำเป็นที่จะต้องมี Data Lake  ที่ทำงานร่วมกับ Database/Data warehouse และต้องมี Data Processing Tool และ Data Visualisation Tool ดังตัวอย่างสถาปัตยกรรมโดยย่อในรูปที่ 1  ทั้งนี้ Hadoop จะเป็นเทคโนโลยีที่หน่วยงานส่วนใหญ่จะลงทุนในการทำ Data Lake เพราะมีราคาในเก็บข้อมูลที่ต่ำเมื่อเทียบกับเทคโนโลยี On-Premise อื่นๆ และก็มีระบบนิเวศน์ที่มีซอฟต์แวร์อื่นๆอาทิเช่นการดึงข้อมูลหรือการประมวลผลข้อมูล

Screenshot 2018-10-21 16.55.08

รูปที่ 1 สถาปัตยกรรมเทคโนโลยี Big Data แบบย่อ

เพื่อให้เห็นภาพการออกแบบสถาปัตยกรรม Big Data โดยใช้เทคโนโลยี Hadoop ผมขอยกตัวอย่างระบบสถาปัตยกรรมข้อมูลแบบดังเดิม ( Traditional data architecture) ในรูปที่ 2 ซึ่งหน่วยงานอาจมีระบบฐานข้อมูลที่หลากหลายท้ง RDBMS และ NoSQL โดยอาจมี Data warehouse ที่จะทำหน้าที่รวบรวมข้อมูลแล้วแสดงผลผ่านมายัง Visualisation Tools  ต่างๆ ซึ่งหากเราจะพัฒนาระบบนี้ให้เป็นสถาปัตยกรรม Big Data แบบ On-Premise โดยใช้ Hadoop เป็น Data Lake เราก็อาจได้ระบบต่างๆดังรูปที่ 3 โดยรายละเอียดของการทำงานซอฟต์แวร์แต่ละตัว (Hadoop HDFS, Spark, Kafka และอื่นๆ) ผมขอไม่กล่าวซ้ำ เพราะได้เคยเขียนไว้หลายครั้งในบล็อก thanachart.org

Screenshot 2018-10-22 12.44.28

รูปที่ 2 ตัวอย่างสถาปัตยกรรมข้อมูลแบบดังเดิม

Screenshot 2018-10-22 12.43.33

รูปที่ 3 ตัวอย่างสถาปัตยกรรม Big Data แบบ On-Premise โดยใช้ Hadoop 

แต่การจะลงทุนระบบ On-Premise โดยใช้เทคโนโลยี Hadoop และซอฟต์แวร์ต่างๆในรูปที่ 3 จะมีต้นทุนที่ค่อนข้างสูงมาก ผมเคยเขียนบทความแนะนำให้ไปเริ่มต้นโดยใช้ Public cloud ที่ราคาจะถูกกว่ากันมาก (อ่านบทความเรื่องนี้เพิ่มเติมได้ที่ Big Data as a Service แนวทางการทำโครงการ Big Data ที่ไม่ต้องลงทุนโครงสร้างพื้นฐาน) ซึ่งในบทความนี้ผมเลยตั้งที่จะทำตารางสรุปเปรียบเทียบการใช้บริการ Public Cloud รายใหญ่ต่างๆ กับเทคโนโลยีที่เป็น On-Premise โดยแสดงให้เห็นว่าบริการอะไรที่จะเข้าทดแทนระบบแบบ On-Premise ตามตารางที่ 1 และรูปที่ 4-6 ก็จะสรุปเป็นภาพบริการของ Cloud Provider ทั้งสามราย ซึ่งรายละเอียดของบริการแต่ละอย่างขอให้ไปศึกษาเพิ่มเติมจากผู้ให้บริการหรือหลักสูตรต่างๆทั้งใน YouTube หรือของ IMC Institute

ธนชาติ นุ่มนนท์

IMC Institute

ตารางที่ 1 เปรียบเทียบเทคโนโลยี On-Promise กับบริการต่างๆของ Public Cloud

Screenshot 2018-10-21 17.27.41

Screenshot 2018-10-22 12.44.10

รูปที่ 4 ตัวอย่างสถาปัตยกรรม Big Data โดยใช้ AWS แทนที่ระบบ On-Premise

Screenshot 2018-10-22 12.43.52

รูปที่ 5 ตัวอย่างสถาปัตยกรรม Big Data โดยใช้ Google Cloud Platform แทนที่ระบบ On-Premise

Screenshot 2018-10-22 12.44.48

รูปที่ 6 ตัวอย่างสถาปัตยกรรม Big Data โดยใช้ Microsoft Azureแทนที่ระบบ On-Premise

ถึงเวลาที่ต้องเข้าใจความหมาย Big Data อย่างแท้จริง ก่อนที่เราจะสูญเสียศักยภาพการแข่งขัน

Screenshot 2018-10-22 13.30.30

ช่วงนี้ทุกภาคส่วนในประเทศเราจะพูดถึงเทคโนโลยี Big Data บ่อยมาก บางครั้งก็บอกว่าหน่วยงานตัวเองกำลังทำ Big Data  บ้างก็บอกว่าเก็บข้อมูลเป็น  Big Data บ้างก็บอกว่าต้องวิเคราะห์ข้อมูลโดยใช้ Big Data ผมว่าผู้บริหารบ้านเราเล่นกับเทอม Big Data มากเกินไป โดยไม่เข้าใจความหมายที่แท้จริง และส่วนมากไม่ได้นำมาใช้ประโยชน์อย่างแท้จริง กลายเป็นว่าใช้ข้อมูลเล็กน้อยเพียงผิวเผินและไม่สนใจที่จะศึกษาความหมาย การใช้ Big Data อย่างแท้จริงเลยทำให้บ้างครั้งบ้านเราสูญเสียโอกาสไปอย่างมาก ก็เพียงเพราะว่าเราต้องการแค่สร้างภาพและตอบโจทย์เพียงแค่ว่า ฉันได้ทำ Big Data แล้วทั้งๆที่ก็อาจเป็นแค่ข้อมูลเล็กๆธรรมดาๆและก็อาจทำรายงาน หรือทำ Business Intelligence  สรุปข้อมูลออกมากโดยไม่มีการทำ Analytics  วิเคราะห์ข้อมูลขนาดใหญ่เพื่อสร้างศักยภาพการแข่งขันให้หน่วยงานแต่อย่างใด

ผมคงไม่อธิบายความหมายของ Big Data มากนัก เพราะตัวเองก็เคยเขียนแนะนำความหมายมาหลายๆครั้ง ไม่ว่าจะเป็น 3Vs อย่าง Volume, Velocity และ Variety หรือเราจะเพิ่มเรื่องของ Varacity เข้าไปอีก โดยถ้าสนใจจะลองดูความหมายก็อาจกลับไปอ่านบทความเก่าๆของผมได้ที่ Big Data และเทคโนโลยี Hadoop กับการพัฒนาองค์กรด้านการวิเคราะห์ข้อมูล และผมก็เคยพยายามจะชี้ให้เห็นว่าถ้าเรามองถึง Big Data เรามักจะเห็นข้อมูลอยู่สี่ประเภทดังรูปที่ 1 ก็คือ

  • Social media data
  • Mobile data
  • Internet of things data
  • Transactional data

Screenshot 2018-10-20 12.36.37

รูปที่ 1 ประเภทข้อมูลของ  Big Data

(อ่านรายละเอียดเพิ่มเติมได้ในบทความ   การวิเคราะห์พฤติกรรมลูกค้าควรมีข้อมูลธุรกรรมขนาดใหญ่ของลูกค้าแต่ละราย)

คุณลักษณะที่สำคัญสุดประการหนึ่งของข้อมูลแบบ Big Data คือต้องมี Velocity เข้ามา การจะวิเคราะห์ข้อมูลขนาดใหญ่ได้ดีและมีความแม่นยำขึ้นต้องมีข้อมูลที่เข้ามาอย่างต่อเนื่องและทันสมัย อาทิเช่นถ้ามีข้อมูล CRM ที่เก็บย้อนหลังไว้นานๆ แม้จะมีจำนวนลูกค้าเป็นล้านแต่ก็อาจจะไม่ทันสมัยเพราะข้อมูลลูกค้าก็อาจไม่ถูก update เช่นเบอร์โทรศัพท์ ที่อยู่ อาชีพ หรือแม้แต่ชื่อก็อาจเปลี่ยนไป แต่ในทางตรงข้ามถ้าเรามีข้อมูลธุรกรรมที่เข้ามาอย่างต่อเนื่องเช่นข้อมูลมาซื้อสินค้ากับเรา เราจะเข้าใจข้อมูลลูกค้ามากขึ้น อาจเห็นพฤติกรรมของเขาไว้ไปสาขาไหนอยู่ที่ใด ดังนั้นผมเลยเคยเขียนบอกไว้ว่า หลักการสำคัญของ Big Data Analytics ก็คือการที่เราสามารถเก็บข้อมูล Transactional data ให้มากที่สุดและมีรายละเอียดมากที่สุดเท่าที่ทำได้ (อ่านรายละเอียดเพิ่มเติมได้ในบทความ Big data ต้องเริ่มต้นจากการวิเคราะห์ Transactional data ไม่ใช่เล่นกับ summary data)

ดังนั้นถ้าเราต้องการจะสร้างศักยภาพการแข่งขันขององค์กรด้วย Big Data เราคงต้องวางกลยุทธ์ให้องค์กรมีข้อมูลในสี่ประเภทที่ผมกล่าวไว้ข้างต้น แต่คำถามที่ท้าท้ายก็คือว่าเราจะหาข้อมูลเหล่านั้นมาได้อย่างไร ซึ่งหากเราสามารถทำได้ก็จะทำ Big Data Analytics ที่แท้จริงได้ เมื่อวานนี้ผมไปบรรยายให้กระทรวงการท่องเที่ยวและกีฬาและพยายามยกตัวอย่างการใช้  Big Data ในการท่องเที่ยว โดยอาจมีโจทย์ต่างๆที่น่าสนใจดังนี้

  • การใช้เพื่อการวางแผนของภาครัฐในการกำหนดนโยบาย กำหนดเส้นทางการท่องเที่ยว หรือแม้แต่การวางแผนการบริการรถสาธารณะ
  • การเข้าใจพฤติกรรมการท่องเที่ยว
  • การทำ Personalisation ให้นักท่องเที่ยว

ซึ่งจากโจทย์ที่ยกมา ผมก็ชี้ให้เห็นว่าเราไม่สามารถที่จะทำได้โดยได้ข้อมูลแค่จำนวนนักท่องเที่ยวรายวเดือนหรือหรือวันที่เป็นข้อมูลสรุป แต่เราต้องมีข้อมูลต่างๆเช่น

  • ข้อมูลจาก Social Media ที่อาจเป็นการ Tag ตำแหน่งที่อยู่ หรือรูปถ่าย จะต้องมีข้อมูลป้อนเข้ามาในแต่ละวินาทีเป็นจำนวนมาก
  • ข้อมูลจาก Telecom ที่จะเห็นข้อมูลของนักท่องเที่ยวเป็นวินาทีว่าอยู่ที่ไหน เป็นต้น
  • ข้อมูลจาก IoT ที่ในอนาคตอาจมีข้อมูลจาก CCTV ที่เห็นจำนวนนักท่องเที่ยวในแต่ละที่อยู่ตลอดเวลา
  • ข้อมูล Transaction  เช่นข้อมูลจากการจองโรงแรม ข้อมูลการเดินทางจากสายการบิน การรถไฟ หรือการท่าอากาศยาย ซึ่งข้อมูลเหล่านี้ต้องเป็นข้อมูลดิบที่ให้เห็นเป็นนาที หรือเป็นรายธุรกรรม ไม่ใช่ข้อมูลสรุป

จากข้อมูลเหล่านี้เราก็อาจมาทำการวิเคราะห์ในเรื่องต่างๆได้เช่น

  • พฤติกรรมการเดินทางของนักท่องเที่ยวว่าจะเดินทางจากจุดไหนไปยังที่ใดต่อ
  • ตำแหน่งไหนมีคนเยี่ยมชมมากน้อยเพียงใด ในช่วงเวลาใด และอนาคตควรทำอย่างไร
  • วิธีการเดินทางของนักเที่ยวเช่นมาจุดนี้โดยเครื่องบิน หรือรถไฟ หรือรถยนต์
  • การทำ  Segementation นักท่องเที่ยวตามอายุ สัญชาติ เป็นต้น

จากที่กล่าวมาทั้งหมดจะเห็นได้ว่าเมื่อพูดถึง Big Data จะไม่ใช่ข้อมูลสรุป แต่จะต้องมีข้อมูลขนาดใหญ่ที่แท้จริงโดยเฉพาะข้อมูลธุรกรรมในการวิเคราะห์ ในปัจจุบันบางอุตสาหกรรมเริ่มมีความน่ากลัวที่ต่างชาติเข้าเก็บข้อมูลธุรกรรมเหล่านี้ไปหมด โดยที่หน่วยงานในประเทศเรากลับไม่ให้ความสำคัญ และไม่เข้าใจว่าข้อมูลเหล่านั้นมีความสำคัญยิ่งในการที่จะทำ Big Data ที่แท้จริง สุดท้ายเราก็จะสูญเสียศักยภาพการแข่งขันไป

ธนชาติ นุ่มนนท์

IMC Institute

 

การวิเคราะห์ธุรกิจที่ทำให้เกิด Disruption

Screenshot 2018-10-22 13.30.30

ผมได้เรียนหลักสูตรออนไลน์ Digital Strategies for Business: Leading The Next-Generation Enterprise ของ Columbia Business School Executive Education ซึ่งเป็นหลักสูตรที่นำเนื้อหาส่วนใหญ่มาจากหนังสือ Digital Transformation Playbook Rethink Your Business for the Digital Age ของ David L. Rogers และก็พบว่ามีหลายๆหัวข้อที่น่าสนใจในเรื่องของ Digital Transformation และหนึ่งในนั้นก็คือเรื่องของ Disruptive Business Model

โดยเนื่อหาได้กล่าวถึงทฤษฎี Disruption ของ Clayton Christensen ว่า Business disruption คือการที่อุตสาหกรรมปัจจุบันกำลังถูกผู้ท้าชิง (Challenger) เข้ามานำเสนอสิ่งที่ให้คุณค่ากับลูกค้าในรูปแบบใหม่ๆโดยที่ผู้เล่นรายเดิม (Incumbent) ที่อยู่ในอุตสาหกรรมไม่สามารถที่แข่งขันได้โดยตรง ทั้งนี้ Disruption มักจะเริ่มจากการที่ผู้ท้าจริงจะนำเสนอสินค้าหรือบริการที่มีนวัตกรรมใหม่ๆให้กับลูกค้าที่ผู้เล่นรายเดิมไม่ค่อยสนใจ จากนั้นเมื่อสินค้าหรือบริการถูกพัฒนาให้ดีขึ้นเรื่อยๆโดยอาจมีเครือข่ายมากขึ้น ลูกค้าส่วนใหญ่ของผู้เล่นรายเดิมก็จะค่อยๆเปลี่ยนมาใช้สินค้าหรือบริการของผู้ท้าชิง จนในที่สุดผู้เล่นรายเดิมก็จะหายไป

แต่อย่างไรก็ตามนวัตกรรมทุกอย่างอาจไม่ได้หมายความจะทำให้เกิด Disruption เช่นการทำสินค้าใหม่ๆที่รายเดิมอาจเลียนแบบได้ หรือการลดราคาแข่งกันหรือนำเสนอสินค้าที่ราคาถูกกว่าซึ่งรายเดิมก็อาจเลียนแบบได้ ดังนั้นสิ่งสำคัญอันหนึ่งของ Disruption คือต้องมีกำแพงที่จะป้องกันการเลียนแบบ (Barrier of imitation) จากผู้เล่นรายเดิมด้วย ซึ่งทาง David L. Rogers ระบุไว้ว่าทฤษฎีของ Disruption ผู้ท้าชิงจะต้องมีคุณค่าที่มีความแตกต่างจากผู้เล่นรายเดิมอยู่สองด้านคือ

  • Value Proposition Differential คือคุณค่าทีจะให้ลูกค้าที่ดีกว่าอาทิเช่น ราคา การเข้าถึง ความง่ายต่อการใช้งาน Personalization หรือ การมีระบบ Social network ของสินค้าหรือบริการที่ทำให้ลูกค้าอยากเปลี่ยนมาใช้งานอย่างยิ่งยวด
  • Value Network Differential คือเครือข่ายที่ทำให้นำเสนอคุณค่าที่กว่าข้างต้นให้กับลูกค้าได้ เช่นอาจมีช่องทางที่ดีกว่า มีเครือข่ายผู้ใช้จำนวนมาก มีทรัพย์สินทางปัญญา หรือมีข้อมูลขนาดใหญ่ ซึ่งเครือข่ายเหล่านี้จะเป็นกำแพงที่ป้องกันไม่ให้ผู้เล่นรายอื่นๆเลียนแบบคุณค่าที่นำเสนอให้กับลูกค้าโดยง่าย

ตัวอย่างเช่นเมื่อ iPhone เข้ามาในฐานะของผู้ท้าชิง แข่งกับรายเดิมอย่าง  Nokia  เราจะสังเกตได้ว่า  iPhone จะมี Value Proposition และ Value Network  ที่แตกต่างออกไปดังนี้

  • Value Proposition  มีรูปทรงในการออกแบบทีดีกว่า, ใช้งานง่ายกว่า, มี Application  ให้ใช้งาน,  รวมหลายๆอย่างเข้ามาด้วยกันเช่น การฟังเพลง ส่งอีเมล แผนที เป็นต้น
  • Value Network มี ทีมงานในการออกแบบที่มีความสามารถ, มีเครือข่ายนักพัฒนา Application, มี iTunes และ App Store, มีการร่วมมือกับ  Telecom Operator ในการที่จะให้บริการ Data package

Screenshot 2018-10-15 20.22.10

ซึ่งการวิเคราะห์ว่าธุรกิจใหม่ใดจะทำให้เกิด  Disruption เราก็ควรที่จะมาวิเคราะห์ Value Propostion  และ Value Network ต่างๆโดยใช้ Disruptive business model map ตามรูปข้างบนนี้ แล้วต้องทดสอบคำถามสองอย่าง (Two-Part Test) ว่า Value Proposition จะทำให้เกิดการเปลี่ยนแปลงทางคุณค่ายิ่งยวดหรือไม่ และทดสอบว่า Value network จะทำให้ผู้เล่นรายอื่นๆไม่สามารถเลียนแบบได้หรือไม่ ถ้าสองคำตอบนี้เป็นจริงก็มีโอกาสที่ธุรกิจใหม่นั้นมีโอกาสทำให้เกิด Disruption ได้

ธนชาติ นุ่มนนท์

IMC Institute