IMC Institute ให้ทุนอบรม Big Data Certification 120 ชม.สองทุน

 

IMC Institute  จะเปิดหลักสูตร Big Data Certification ที่เรียนเข้มข้น 120 ชั่วโมง วันพฤหัสบดีตอนเย็น 18.00-21.00 และวันเสาร์ทั้งวันรุ่นที่ 3 โดยเริ่มสอนตั้งแต่วันที่ 17 มีนาคม 2559 หลักสูตรเปิดมาแล้วสองรุ่น รุ่นหนึ่งเรียน 30 คนในปีที่แล้ว โดยมีอาจารย์สอนร่วมกันหลายท่าน ทั้งเรื่องของหลักการ  Big Data การใช้เทคโนโลยีต่างๆ ทั้ง Hadoop, NoSQL, Big Data on Cloud, BI Tool การประมวลผลในรูปแบบต่างๆ เรียนรู้เรื่อง Machine Learning

IMC Institute มองเห็นความสำคัญของการพัฒนาบุคลากร Big Data ในบ้านเราและได้จัดอบรมและกิจกรรมสัมมนาทางด้านนี้ อย่างต่อเนื่อง มีทั้งฟรีสัมมนา หลักสูตรราคาที่เหมาะสม การจัด Big Data User Group การจัดอบรมแบบฟรีในลักษณะ Big Data Challenge การให้ทุนบุคลากรในภาคส่วนต่างๆ การจัด Train the Trainer ให้กับอาจารย์สถาบันอุดมศึกษา แม้ IMC Institute จะเป็นหน่วยงานเอกชนแต่ก็ตระหนักถึงความรับผิดชอบที่จะต้องช่วยพัฒนาบุคลากรด้านไอทีของประเทศซึ่งบางครั้งจำเป็นต้องช่วยหน่วยงานของรัฐในการทำ จึงได้ทำกิจกรรมต่างๆเหล่านี้ ทั้งนี้ในรอบ  3 ปีที่ผ่านมา IMC Institute ได้จัดอบรมหลักสูตรด้าน Big Data จำนวน 60  ครั้ง จัดฟรีสัมมนา/กิจกรรมจำนวน 8 ครั้งโดยมีผู้มาร่วมทั้งสิ้น 1,735 ราย

download (3)

การพัฒนาอาจารย์อุดมศึกษาเรื่องของ Big Data ทางสถาบันไอเอ็มซีเคยจัด Train the Trainer มาแล้วสองรุ่น โดยเก็บค่าเรียนเพียง 5,500 บาทเพื่อให้เพียงพอกับค่าเช่าห้องอบรมและค่าอาหารในเวลา 5  วัน โดยงานทั้งสองก็เป็นการใช้เงินของสถาบันเองในการทำงาน และปีนี้ก็ตั้งใจจะจัดหลักสูตร Train the Trainers อีกครั้งในเดือนกรกฎาคม อาจารย์ท่านใดสนใจก็โปรดติดตามข้อมูลอบรมนี้ที่จะประกาศเร็วๆนี้

สำหรับหลักสูตร  Big Data Certification  ในสองรุ่นที่ผ่านมา ทาง  IMC Institute ให้ทุนอบรมฟรีมาแล้วรุ่นละสองทุน โดยรุ่นแรกให้กับอาจารย์สถาบันอุดมศึกษาสองท่านและรุ่นที่สองให้กับหน่วยงานภาครัฐสองท่าน นอกจากนี้ทางสำนักงานรัฐบาลอิเล็กทรอนิกส์ก็ได้มอบทุนมาให้กับบุคลากรภาครัฐทั้งสองรุ่น โดยรุ่นแรกมีจำนวน  10 คนและรุ่นที่  2  จำนวน  5 คน

ในหลักสูตร Big Data Certification รุ่นที่สามนี้เรามีการปรับปรุงเนื้อหาเล็กน้อย โดยจะเน้นให้มีการทำ  Mini-Project และมีการติดตั้งระบบจริงบน Cloud Server มากขึ้น มีการสอนระบบประมวลผลใหม่ที่เน้น Spark และ R มีการนำเครื่องมือใหม่ๆเช่น  Tableau  เข้ามา โดยสิ่งที่ตั้งใจจะอบรมมีเครื่องมือหลักๆดังนี้

  • Hadoop Distribution: Apache, Cloudera  และ  Amazon EMR
  • NoSQL: Cassandra, Mongo DB และ HBase
  • Visualisation Tools: Tableau  และ Microsoft SQL Server
  • Big Data Processing: MapReduce, Spark, Hive, Pig, R และ Impala
  • Big Data Ingestion: Sqoop  และ Flume
  • Machine Learning: Microsoft Azure ML , R และ Spark MLib
  • Cloud Platform: Amazon Web Services และ Microsoft Azure

ผู้สนใจสามารถที่จะหาดูรายละเอียดข้อมูลได้ที่ www.imcinstitute.com/bigdatacert

สำหรับหลักสูตร Big Data Certification  รุ่นนี้ทาง IMC Institute  ตั้งใจจะมอบทุนอบรมฟรีให้กับอาจารย์สถาบันอุดมศึกษาอีก  2  ท่าน เหตุผลที่เราพยายามเน้นมอบให้กับอาจารย์เพราะคิดว่าอาจารย์สามารถที่จะนำความรู้ไปสอนนักศึกษาต่อและขยายผลได้ โดยได้กำหนดคุณสมบัติไว้ดังนี้

  • เป็นอาจารย์สอนในระดับอุดมศึกษาในสถาบันของรัฐหรือเอกชน
  • มีอายุตั้งแต่ 28 ปีขึ้นไป
  • ต้องสามารถมาเรียนได้อย่างน้อยร้อยละ 85 ของการเรียน
  • สามารถที่จะนำไปสอนหรือทำงานวิจัยต่อไปได้

ทั้งนี้ IMC Institute อยากให้ผู้ที่สนใจเขียนประวัติและแรงจูงใจที่อยากเรียนหลักสูตร Big Data Certification ส่งอีเมลมาที่ contact@imcinstitute.com  ภายในวันที่  5 มีนาคม 2559  และถ้า IMC Institute จะขออนุญาตเชิญผู้ที่ผ่านการคัดเลือกรอบแรกมาสัมภาษณ์ระหว่างวันที่ 6-10 มีนาคม และจะประกาศผลในวันที่  11  มีนาคม 2559

ธนชาติ นุ่มนนท์

IMC Institute

กุมภาพันธ์ 2559

 

 

 

Data Lake: Redefine Data WareHouse

 

วันที่ 3  มีนาคมนี้ทาง IMC Institute จะจัดฟรีสัมมนา Big Data User Group 1/2016 โดยครั้งนี้เป็น Theme  เรื่อง Data Lake: Redefine Data WareHouse ซึ่งงานนี้ได้รับการสนับสนุนจาก  Hitachi Data Systems และบริษัท Vintcom โดยมีสำนักงานรัฐบาลอิเล็กทรอนิกส์ (องค์กรมหาชน) หรือ EGA มาร่วมจัดงาน

เมื่อถึงหลักการของการพัฒนาระบบข้อมูล ในอดีตเราก็จะนึกถึงการทำ DataBase ตามด้วยการทำ Data WareHouse จนบางครั้งบางคนคิดไปว่าเราต้องทำโปรเจ็ค Data WareHouse เพื่อที่จะจัดระเบียบข้อมูลในหน่วยงาน ทำ Data Cleansing และ Data Governance ต่างๆก่อนที่จะทำโครงการ Big Data ซึ่งรูปแบบในการทำ Data WareHouse โดยมากมักจะมีขั้นตอนต่างๆคือ

  • การออกแบบระบบจาก Top Down หรือ  Bottom Up
  • กำหนด  Data Model
  • Extract Transform Load (ETL)
  • การทำ Data Governance
  • จัดหา BI Tool สำหรับ Data WareHouse
  • จัดทำรายงาน

ขั้นตอนการทำ Data WareHouse จะเป็นรูปแบบเดิมที่เน้นข้อมูลที่เป็น Structure แล้วจึงทำการดึงข้อมูลมาวิเคราะห์  (Structure -> Ingest -> Analyse)  โดยจะต้องใช้ทรัพยากรที่มีความจุจำกัดและไม่มีความหลากหลาย แต่ในโลกของ Big Data ข้อมูลจะมีความหลากหลาย จะมีจำนวนเข้ามามหาศาลและเพิ่มขึ้นอย่างไม่จำกัด ดังนั้น เราจำเป็นจะต้องเปลี่ยนหลักการเป็น การดึงข้อมูลหลากหลายชนิดทำการวิเคราะห์แล้วจึงทำการเก็บจ้อมูล (Ingest -> Analyse -> Structure)

หลักการที่กล่าวใหม่ข้างต้นคือ Data Lake ซึ่งเป็นเรื่องใหม่ในโลกของ Big Data ที่ใช้ในปัจจุบัน ซึ่งจะประกอบไปด้วย Component ต่างๆดังรูปที่ 1 และเหตุที่หลักการเปลี่ยนแปลงไปก็เพราะเทคโนโลยี Big Data ใหม่ได้ช่วยทำให้สิ่งต่างๆเหล่านี้ทำได้ดังรูปที่ 2 อาทิเช่น

  • เทคโนโลยีการเก็บข้อมูล Unstructure ขนาดใหญ่อย่าง Hadoop HDFS, Amazon S3 หรือ NoSQL
  • เทคโนโลยีในการประมวลผลข้อมูลอย่าง MapReduce, Hive, Spaek, Impala
  • เทคโนโลยีในการทำ Data Acquisition อย่าง KafKa, Sqoop, Flume
  • เทคโนโลยีในการแสดงผลข้อมูลใหม่อย่าง  Pentaho BI, Tableau

Screenshot 2016-02-21 08.45.13.png

รูปที่ 1 Data Lake Components [Source: Building the Enterprise Data Lake: A look at architecture,  Mark Madsen]

Screenshot 2016-02-21 08.26.19

รูปที่ 2 หลักการของ  Data Lake

ความแตกต่างระหว่าง Data Lake เมื่อเทียบกับ Data WareHouse ที่สำคัญมีดังนี้

  • Data Lake จะเก็บข้อมูลทั้งหมด
  • Data Lake สนับสนุนข้อมูลทุกชนิดไม่แค่ข้อมูลแบบ Structure
  • Data Lake มีเพื่อให้ผู้ใช้ทุกประเภทสามารถใช้งานได้
  • Data Lake สามารถติดตั้งได้ง่ายและเปลี่ยแปลงได้เร็ว
  • Data Lake จะประมวลและวิเคราะห์ข้อมูลได้รวดเร็วกว่า

ซึ่งทาง  AWS ก็สรุปความแตกต่างระหว่าง Data Lake และ Data WareHouse ไว้ดังรูปที่ 3

Screenshot 2016-02-21 08.31.58

รูปที่ 3 Data Lake v.s Data WareHouse

สำหรับรายละเอียดทั้งหมดคงได้มาฟังกันในงานสัมมนาวันที่ 3 มีนาคมนี้ แต่ต้องขอบอกว่าตอนนี้ที่นั่งเต็มและปิดรับลงทะเบียนแล้ว

ธนชาติ นุ่มมนท์

IMC Institute

กุมภาพันธ์ 2559

ความต้องการบุคลากรทางด้าน Big Data

 

Big Data เป็นเรื่องที่กล่าวขานกันอย่างมากในปัจจุบัน และอาจเป็นเทคโนโลยีไอทีเพียงไม่กี่อย่างที่กล่าวกันมากในวงการธุรกิจ กลุ่มผู้บริหารเริ่มเห็นความสำคัญของการนำข้อมูลขนาดใหญ่มาวิเคราะห์หรือคาดการณ์แนวโน้มของธุรกิจ เรื่อง Big Data ยังเป็นเรื่องใหม่ คนจำนวนมากย้งไม่เข้าใจเรื่องนี้อย่างแท้จริง มันเหมือนศัพท์ขั้นเทพที่ทุกคนอยากกล่าวถึงแต่ก็ย้งไม่เข้าใจอย่างแท้จริง เรื่องบุคลากรก็เป็นอีกเรื่อง บางหน่วยงานพอมีคำว่า Big Data ผู้บริหารก็เริ่มบอกว่าต้องการ Data Scientist ทั้งๆที่ยังไม่รู้ว่าจะกำหนด Job Description ในองค์กรให้เขาอย่างไร หรือจำเป็นแค่ไหนที่เราต้องการบุคลากรด้านนี้ในองค์กร

คำถามที่มักจะเจอก็คือเราจะเริ่มต้นทำ Big Data อย่างไร เราต้องการบุคลากรอย่างไร ทักษะเปลี่ยนไปจากเดิมมากน้อยอย่างไร เราต้องการ Data Scientist ในองค์กรเพื่อทำ Big Data  จริงหรือ? คำถามเหล่านี้ไม่มีคำตอบที่ชัดเจน แต่มันก็ขึ้นอยู่กับระดับความต้องการใช้งาน Big Data ขององค์กร แต่ที่แน่ๆทักษะของบุคลากรในยุคใหม่ที่มีเทคโนโลยี Big Data จะเปลี่ยนแปลงจากสมัยเดิมที่เรื่องแต่เรื่องของ RDBMS ในมุมมองของผมงานทางด้าน Big Data น่าจะแบ่งบุคลากรด้านต่างๆได้ดังนี้

  • Chief Data Officer  ในอดีตเราอาจมีผู้บริหารสูงสุดด้านไอที แต่แนวโน้มเราอาจต้องการผู้บริหารสูงสุดด้านข้อมูล ที่มีอำนาจในการดูแลข้อมูลภายในและภายนอกองค์กร การนำข้อมูลไปใช้งาน การบริหารจัดการเทคโนโลยีสารสนเทศด้านข้อมูล การออกแบบสถาปัตยกรรม การดูแลเรื่องคุณภาพข้อมูล และอาจรวมไปถึงทรัพย์สินทางปัญญาที่อาจเกิดขึ้น จากข้อมูลหรืออัลกอริทึกจากการวิเคราะห์คาดการณ์ข้อมูล
  • Big Data Architect เทคโนโลยีด้านข้อมูลเปลี่ยนไปจากเดิมมากที่แต่ก่อนอาจพูดถึงแค่ RDBMS หรือ Data WareHouse แต่ในปัจจุบันทุกองค์กรจะต้องปรับโครงสร้างพื้นฐานด้านข้อมูลและอาจต้องนำเทคโนโลยีใหม่เข้ามาใช้งานทั้ง Hadoop, NoSQL, Storage หรือ แม้แต่  Cloud Service ซึ่งเทคโนโลยีเหล่านี้ยังมีบริการหรือเทคโนโลยีเสริมต่างๆที่หลากหลาย อาทิเช่น Data Ingestion อย่าง KafKa, Sqoop  หรือ Flume หรือเทคโนโลยีด้านประมวลผลเช่น Spark, Impala หรือเทคโนโลยีการทำ Visualisation ดังจะเห็นได้จากรูปที่ 1 ที่แสดง Big Data Landscape ที่ประกอบด้วยเทคโนโลยีต่างในปัจจุบัน ซึ่งเราจำเป็นต้องการ IT Architect ที่เข้าใจการออกแบบระบบที่รองรับเทคโนโลยีหลากหลายเหล่านี้ได้
  • Big Data Engineer/Administrator งานอีกด้านหนึ่งที่จำเป็นคือคนที่มีความสามารถในการติดตั้งระบบ Big Data ต่างๆเช่น Hadoop, RDBMS, NoSQL รวมถึงการ Monitor  และการทำ Performance Tuning  ซึ่งงานแบบนี้อาจต้องการทักษะคนที่เข้าใจระบบปฎิบัติการ มีความสามารถที่จะเป็นผู้ดูแลระบบเหมือน  System Admin  แต่บุคลากรแต่ละรายอาจไม่สามารถดูแลทุกระบบได้เพราะแต่ละระบบต้องการทักษะที่ต่างกัน
  • Big Data Developerในอดีตงานนี้อาจหมายถึงคนที่จะมาช่วยพัฒนา SQL เพื่อจะเรียกดูข้อมูลจาก DataBase แต่ปัจจุบันระบบประมวลผลขนาดใหญ่ต้องการทักษะด้าน Programming มากขึ้นและมีเทคโนโลยีที่หลากหลายมากขึ้นทั้ง MapReduce, Spark, Hive, Pig หรือ Impala แต่ละเทคโนโลยีก็ต้องการทักษะที่ต่างกัน ดังนั้นก็มีแนวโน้มที่องค์กรต้องการบุคลากรด้านนี้จำนวนมากและแต่ละคนอาจทำงานใช้เทคโนโลยีคนละด้านกัน
  • Big Data Analyst หมายถึงนักวิเคราะห์ข้อมูลที่อาจรวมไปถึงการนำข้อมูลมาแสดงผล โดยใช้ Visualisation Tool ที่หลากหลาย โดยในปัจจุบันอาจต้องดึงข้อมูลมาจาก Data Lake และใช้ Tool ใหม่ๆ บางครั้งบุคลากรด้านนี้อาจไม่ได้เก่งด้านการพัฒนาโปรแกรมนัก แต่จะต้องรู้ว่าจะวิเคราะห์ข้อมูลอะไร และมีทักษะในการผลที่ได้มาแสดงให้คนทั่วไปเข้าใจ คนกลุ่มนี้ควรมีพื้นฐานด้านสถิติและรู้ด้านธุรกิจ
  • Data Scientist  ตำแหน่งงานที่ดูน่าสนใจที่สุดในปัจจุบัน แต่ก็ใช่ว่าทุกองค์กรต้องการ เพราะบุคลากรด้านนี้จำเป็นถ้าเราต้องการวิเคราะห์ข้อมูลโดยเฉพาะในลักษณะ Predictive Analytics บุคลากรด้านนี้ต้องรู้เรื่องของ  Algorithm อาจต้องเก่งด้านคณิตศาสตร์ เข้าใจเรื่อง  Machine Learning และต้องมีความเข้าใจด้านธุรกิจที่ต้องการวิเคราะห์ โดยมากคนเก่งทางด้านนี้น่าจะจบปริญญาโทหรือเอกด้านคณิตศาตร์, Computer Science หรือ  Computer Engineering มา

matt_turck_big_data_landscape_v11

รูปที่  1 Big Data Landscape 2016

จากที่กล่าวมาทั้งหมดจะเห็นว่า ในอนาคตองค์กรยังมีความต้องการบุคลากรด้านนี้ที่หลากหลาย และยังมีความต้องการอีกจำนวนมาก ผมคิดว่าถึงเวลาที่หน่วยงานต่างๆต้องมาวางแผนการพัฒนาบุคลากรด้านนี้ร่วมกัน เท่าที่ทราบทาง สำนักงานการอุดมศึกษาก็มีการตั้งอนุกรรมการดูหลักสูตรทั่วประเทศเพื่อพัฒนาคนทางด้านนี้ และได้ให้ผมเข้าร่วม แต่ก็ยังขับเคลื่อนกันช้าอยู่ ถึงเวลาที่เราคงต้องรีบเร่งแล้วครับ

ธนชาติ นุ่มนนท์

IMC Institute

กุมภาพันธ์ 2559

Hadoop Distribution ต่างๆสำหรับการทดลองใช้งาน

 

เทคโนโลยีด้าน Big Data โดยเฉพาะ Hadoop เป็นเรื่องที่คนให้ความสนใจอย่างมาก และเริ่มมีการคาดการณ์กันว่าในอนาคตองค์กรต่างๆแทบทุกแห่งก็จะต้องมีการใช้งานระบบ Hadoop ในต่างประเทศให้ความสำคัญกับการอบรมด้านนี้มาก ซึ่งทางผมเองภายใต้สถาบันไอเอ็มซีก็ได้จัดการอบรมเทคโนโลยีให้กับผู้เข้าอบรมจำนวนมากในรอบสามปีที่ผ่านมาโดยมีจำนวนมากหนึ่งพันคน และสามารถที่จะ Download Slide การอบรมด้านนี้ของทางสถาบันได้ที่ www.slideshare.net/imcinstitute

hadoop-distributions

ประเด็นสำคัญเรื่องหนึ่งที่มักจะถูกถามจากผู้เข้าอบรมว่า เราสามารถที่จะหา Hadoop Cluster จากไหนมาทดลองเล่น จริงๆเราสามารถจะฝึกใช้ Hadoop ได้โดยติดตั้งระบบต่างๆดังนี้

1) การใช้ Hadoop Sandbox

Distribution หลายรายเช่น Cloudera, Hortonworks หรือ MapR จะมี Hadoop Sandbox ให้เราทำลองใช้งานได้ แต่ระบบนี้จะเป็นเครื่องเพียงเครื่องเดียวที่มี Image ให้เรารันผ่าน Virtual Box, VMWare หรือ KVM โดยเราอาจต้อง Download Image ขนาดใหญ่ประมาณ 4-6 GByte ลงมาเก็บไว้ก่อน ทั้งนี้เราสามารถจะ Download Image ของ Hadoop Distribution ต่างๆได้ที่นี้

นอกจากนี้ล่าสุด Cloudera  ยังสามารถรันผ่าน Docker โดยมีขั้นตอนการติดตั้ง Docker Image ดังนี้ >> การติดตั้ง Cloudera Quickstart บน  Docker

2) การติดตั้ง Hadoop Cluster เอง

เรายังสามารถที่จะติดตั้ง Apache Hadoop Cluster  ได้เอง  ซึ่งวิธีนี้จะต่างกับการใช้ Sandbox เพราะสามารถใช้งานได้จรีง และผมเองได้เคยเขียนแบบฝึกหัดให้ทดลองติดตั้งในหลายๆระบบดังนี้

นอกจากนี้ผมยังมีแบบฝึกหัดให้ติดตั้ง  Cloudera Cluster บน Amazon EC2 ซึ่งจะมีขั้นตอนการติดตั้งดังนี้ >> แบบฝึกหัดติดตั้ง Cloudera Cluster

3) การใช้ Hadoop as a Service

กรณีนี้เป็นการใช้ Hadoop Service ที่อยู่บน Cloud  แบบนี้เหมาะที่จะใช้ในการประมวลผล แต่ไม่เหมาะจะใช้เก็ยข้อมูลบน  HDFS เนื่องจากระบบ Hadoop as a Service จะไม่สามารถ Stop ได้ และมีค่าใช้จ่ายต่อชั่วโมงค่อนข้างสูง จึงเหมาะกับใช้ในการประมวลผลข้อมูลขนาดใหญ่ที่อยู่ใน Cloud Storage หรือข้อมูลบนอินเตอร์เน็ตแบบชั่วควาร

ผมเองมีแบบฝึกหัดทีให้ทดลองใช้ Hadoop แบบนี้สองระบบตือ

ผมหวังว่าบทความสั้นๆที่เขียนมานี้ คงเป็นจุดเริ่มต้นให้ทุกท่านได้เรี่มใช้  Hadoop  ได้ วันนี้ไม่ใช่แค่มาศึกษาว่าอะไรคือ Hadoop แต่มันถึงเวลาที่ต้องลงมือปฎิบัตืแล้ว มิฉะนั้นเราคงก้าวตามเรื่อง Big Data ไม่ทัน

ธนชาติ นุ่มนนท์

IMC Institute

กุมภาพันธ์ 2559

 

 

 

 

ความเห็นของผมต่อร่างแผนพัฒนาดิจิทัลเศรษฐกิจและสังคม

12662638_601498169997527_5577768699898697495_n

ผมได้มีโอกาสอ่านร่างแผนพัฒนาดิจิทัลเศรษฐกิจและสังคมของกระทรวงเทคโนโลยีสารสนเทศและการสื่อสารที่ผ่านคณะกรรมการ Digital Economy ไปเมื่อวันจันทร์ที่ 8 กุมภาพันธ์ 2559 ที่ผ่านมาและทีมงานก็ได้จัให้มีประชาพิจารณ์สำหรับภาคเอกชนเมื่อวันจันทร์ที่ผ่านมา ทั้งนี้เอกสารรายละเอียดของแผนสามารถดาวน์โหลดได้ที่ http://www.digitalthailand.in.th/

ทั้งนี้ในตัวร่างได้กำหนดยุทธศาสตร์ไว้ 6 ด้านคือ

  • ยุทธศาสตร์ที่ 1: พัฒนาโครงสร้างพื้นฐานดิจิทัลประสิทธิภาพสูงให้ครอบคลุมทั่วประเทศ
  • ยุทธศาสตร์ที่ 2: ขับเคลื่อนเศรษฐกิจด้วยเทคโนโลยีดิจิทัล
  • ยุทธศาสตร์ที่ 3: สร้างสังคมคุณภาพด้วยเทคโนโลยีดิจิทัล
  • ยุทธศาสตร์ที่ 4: ปรับเปลี่ยนภาครัฐสู่การเป็นรัฐบาลดิจิทัล
  • ยุทธศาสตร์ที่ 5: พัฒนากาลังคนให้พร้อมเข้าสู่ยุคเศรษฐกิจและสังคมดิจิทัล
  • ยุทธศาสตร์ที่ 6: สร้างความเชื่อมั่นในการใช้เทคโนโลยีดิจิทัล
และได้กำหนดภูมิทัศน์ดิจิทัลของไทยในระยะ20 ปีที่จะขับเคลื่อนจาก Digital Foundation สู่ Global Digital Leadership  ดังรูปที่ 1
Screenshot 2016-02-16 09.19.38
รูปที่  1 ภูมิทัศน์ดิจิทัลของไทยในระยะ20 ปี

แผนพัฒนานี้เป็นแผนที่เขียนได้ดีเช่นเดียวกับแผน IT 2010 และ IT 2020 ของกระทรวงไอซีทีเคยได้รับการอนุมัติ ซึ่งถ้าเรามองต่อจะเห็นว่าทุกครั้งที่เราจัดทำแผน เราจะได้แผนงานที่ดีและเป็นที่น่าชื่นชมแต่ปัญหาของประเทศเราคือแผนขาดการนำไปปฎิบัติจริงๆเพราะไม่มีแผนปฎิบัติ.ไม่มีการจัดสรรงบประมาณตามแผน และหน่วยงานอื่นๆมักไม่ให้ความร่วมมือ ที่ซ้ำร้ายไปกว่านั้นคือมักจะเปลี่ยนหรือเขียนแผนใหม่เมื่อเปลี่ยนรัฐบาล แผนเลยขาดความต่อเนื่องและหน่วยงานน้อยอย่างมากที่ได้มีการปฎิบัติตามแผน เช่นเดียวกันแผนฉบับนี้ก็ไม่มีใครสามารถยืนยันได้หรอกครับว่ารัฐบาลใหม่เข้ามาจะทำตามแผนนี้หรือไม่โดยจะไม่มีแผนใหม่ ดังจะเห็นได้ว่าล่าสุดแม้แต่สื่อบางฉบับก็มีการเปรียบเทียบแผนชุดนี้กับแผนของรัฐมนตรีท่านที่พ้นจากตำแหน่งไปทั้งที่มันก็คือเรื่องเดียวกัน แต่ในความคิดของสื่อหรือประชาชนจำนวนหนึ่งมองว่ามันเป็นแผนของรัฐมนตรีของรัฐบาลชุดนี้แต่ไม่ใช่ยุทธศาสตตร์ชาติก็เพราะมันมีบทเรียนให้ศึกษาว่าแผนส่วนใหญ่จะเปลี่ยนไปเมื่อเปลี่ยนรัฐบาล สรุปหน่วยงานของรัฐก็จะวนอยู่กับการเขียนแผนที่ไม่มีการปฎิบัติ จนบางครั้งเกิดคำถามว่าแล้วทำไมเราต้องเขียนแผนอะไรมากมาย เอาสั้นๆพอสังเขปพอแล้วมี Action ลงมือปฎิบัติจริงจังจะดีกว่า

แต่ถ้าย้อนกลับมาดูแผนนี้ ก็คงมีประเด็นที่น่าสนใจคือ แผนครอบคลุมคำว่าดิจิทัลกว้างไปแทบทุกเรื่อง โดยขาดการ Focus ว่าเราจะเน้นด้านดิจิทัลใดอย่างไร จะเป็นผู้บริโภคที่นำเทคโนโลยีมาใช้อย่างชาญฉลาดหรือจะมุ่งเน้นเป็นผู้ผลิตของโลกที่ต้องให้คำสัญกับการวิจัยและพัฒนา หรือจะมุ่งเน้นเทคโนโลยีในด้านใดที่จะเป็นจุดเด่นของบ้านเราเช่น จะทำ Digital Content, E-Commerce, Big Data, Cloud Computing หรือ IoT แต่ดูเหมือนว่าเราจะแตะไปทุกเรื่องแบบขาดแผนการที่ดี

แผนขาดการพูดถึง ค่านิยมหรือเอกลักษณ์ที่เป็น Core Value ของบ้านเรา การที่ไม่มีค่านิยมมันก็ไม่สามารถจะกำหนดทิศทางด้านดิจทัลได้ เช่นอะไรคือ Core Value  ของประชาชนด้านดิจิทัล เราจะมองว่าประชากรจะเป็นผู้บริโภคที่มีคุณค่าที่จะเข้าสู่สังคมแห่งการแบ่งปันหรือเราจะมองว่าเป็นผู้ผลิต หรือ Core Value ของภาคราชการที่จะปรับเปลี่ยนสู่การนำดิจิทัลมาบริการประชาชน ลดระบบเจ้าขุนมูลนายแบบเดิม ประชาชนสามารถเข้าหาข้าราชการชั้นผู้ใหญ่ผ่านการสื่อสารดิจิทัลหรือไม่ มันเหมือนกับที่รัฐบาลพยายามกำหนดค่านิยม 12  ประการ แต่นั้นคือค่านิยมของประชาชนไทย แต่อะไรคือค่านิยมหรือเอกลักษณ์ด้านดิจทัลของบ้านเรา

ประเด็นถัดมาแผนนี้ยังขาดความชัดเจนเรื่องการพัฒนาบุคลากรว่าจะสอดคล้องกับแผนปฏิรูปการศึกษาของประเทศอย่างไร เราไม่ได้ประเมินว่าบุคลากรของบ้านเราเข้มแข็งแค่ไหนเรามีช่องว่างเทียบกับต่างประเทศอย่างไร เราควรจะสร้างบุคลากรที่มีความเชี่ยวชาญทางด้านไหน และมีความเป็นไปได้มากน้อยแค่ไหนที่เราจะก้าวสู่การเป็น Global Digital Leadership ในอีก20ปีข้างหน้าในเมื่อเราไม่มีการพูดถึงการศึกษาด้านดิจิทัลในระดับประถมศึกษาหรือมัธยมศึกษาขนาดที่ประเทศที่เป็นผุ้นำด้านดิจิทัลโลกอย่างสหรัฐอเมริกาประกาศนโยบาย Computer Science forAll สำหรับนักเรียนทั่วประเทศ ทุ่มเงินนับแสนล้านเหรียญ ถึงแม้ว่าในแผนจะระบุไว้ยุทธศาสตร์ที่ 4 ข้อ 2.2 ว่าจะ2.2 เพิ่มปริมาณและคุณภาพของบุคลากรที่มีความเชี่ยวชาญทางด้านดิจิทัล แต่ดูแล้วยากมากถ้าเราไม่ไปโยงกับการศึกษาขั้นพื้นฐานที่เราล้มเหลวด้านวิทยาศาตร์และเทคโนโลยี เราต้องสร้างตั้งแต่เด็กเล็กใช้เวลา  15-20  ปี แต่ในแผนกลับมองว่าใช้เวลาเพียง  1 ปี 6 เดือนจะสามารถทำให้บุคลากรของเราด้านนี้เป็นที่ยอมรับทั้งในและต่างประเทศซึ่งแทบจะเป็นไปไม่ได้เลย

อีกเรื่องที่ไม่ได้กล่าวมากในแผนเลยคือเรื่องวิจัยและพัฒนาดิจิทัล (R&D)  ผมยังมองไม่เห็นว่าประเทศจะเป็นผู้นำด้านนี้ได้อย่างไรถ้าเราขาดแผน  R&D ที่จะต้องเชื่อมโยงกับกระทรวงวิทยาศาสตร์ กระทรวงศึกษาธิการและหน่วยงานอื่นๆ แต่ในแผนมีการกล่าวสั้นๆเรื่องนี้เพียงเล็กน้อยเช่นในยุทธศาสตร์ที่ 2 ซึ่งกล่าวถึงการจัดให้มีทุนสนับสนุนงานนวัตกรรมบริการขนาดใหญ่ที่เป็นบริการพื้นฐาน ถ้าเราจะสร้างเศรษฐกิจดิจิทัลอย่างแท้จริง เรื่อง R&D ควรจะแยกมาเป็นยุทธศาสตร์เฉพาะหนึ่งด้านและมีการทำอย่างจริงจัง และต้องเป็นงบที่สูงมาก

สุดท้ายพูดถึงกลไกการขับเคลื่อนแผนนี้ ผมยังมองไม่ออกว่าการจะเปลี่ยนกระทรวงไอซีทีให้เป็นกระทรวงดิจิทัลเพื่อพัฒนาเศรษฐกิจและสังคม และมีการจัดตั้งหน่วยงานใหม่ 2 หน่วยงานคือ สำนักงานคณะกรรมการดิจิทัลเพื่อเศรษฐกิจและสังคมแห่งชาติ และสำนักงานส่งเสริมเศรษฐกิจดิจิทัล จะมาช่วยกำหนดนโยบายต่างๆเหล่านี้สำเร็จได้อย่างไร เพราะที่ผ่านมากระทรวงไอซีทีก็ขาดบุคลากรที่เข้มแข็งเข้าใจและทันในโลกเทคโนโลยีดิจิทัล กระทรวงแทบไม่มีอำนาจสั่งงานหรือขอความร่วมมือจากหน่วยงานอื่นๆนัก ส่วนหนึ่งก็เพราะกระทรวงอาจขาดบทบาทของผู้นำทางความคิดที่เป็นที่ยอมรับให้หน่วยงานอื่นๆเชื่อถือและทำตาม แม้จะมีความพยายามจะตั้งหน่วยงานใหม่อีกสองหน่วย ถ้ายังเป็นรูปแบบราชการต้องใช้คนเก่าๆในระบบราชการมาทำงานก็ไม่ต่างจากเดิม ที่สำคัญที่สุดภาคราชการนั้นละครับที่ยังไม่เป็นดิจิทัล ถ้าเราจะทำ Digital Economy จริงๆให้สำเร็จ สอดคล้องกับแผนปฎิรูปประเทศ 20 ปีของรัฐบาลพลเอกประยุทธ์ มันถึงเวลาที่ต้องปฎิวัติระบบราชการครับ ต้องปรับเปลี่ยนกรมกองต่างๆ อาจต้องมีการตั้งกระทรวงต่างๆใหม่เหมือนกับสมัยรัชกาลที่ 5 ละครับ เผลอๆเราอาจต้องมีกระทรวงแห่งอนาคตเช่นเดียวกับบางประเทศ และกระทรวงก็ต้องปรับเปลี่ยนให้ง่ายตามยุคตามสมัย นั้นละครับถึงจะเปลี่ยนประเทศเราสู่  Digital Economy ได้

ธนชาติ นุ่มนนท์
นายกสมาคมเทคโนโลยีสารสนเทศไทย
ผู้อำนวยการ IMC Institute

(ความคิดเห็นนี้เป็นความเห็นส่วนตัวนะครับ)

การประมวลผล Big Data ควรใช้เทคโนโลยีไหนดี?

 

องค์ประกอบที่สำคัญที่สุดอีกอันหนึ่งการทำ Big Data คือการประมวลผลข้อมูลจากแหล่งข้อมูลขนาดใหญ่ต่างๆ ทั้งนี้การประมวลผลข้อมูลที่เก็บอยู่สามารถแบ่งออกได้ 4 รูปแบบคือ

  • Interactive analysis
  • Batch analysis
  • Real time analysis
  • Machine Learning

โดยควรจะมีเทคโนโลยีสองกลุ่มคือ การประมวลผลโดยใช้เทคโนโลยี Hadoop จากข้อมูลใน HDFS และการประมวลผลโดยใช้เทคโนโลยี Spark โดยอาจมีข้อมูลจากแหล่งต่างๆ

การประมวลผลโดยใช้ Hadoop

โดยปกติ Hadoop จะใช้เทคโนโลยีอย่าง MapReduce ในการประมวลผลข้อมูลใน HDFS แต่ทั้งนี้เนื่องจาก MapReduce เป็นเทคโนโลยีที่ทำงานแบบ Batch และต้องพัฒนาโปรแกรมด้วยภาษาต่างๆ อาทิเช่น  Java ในการประมวลผล จึงทำให้ MapReduce ได้รับความนิยมน้อยลงและมีแนวโน้มว่าจะถูกแทนที่ด้วยเทคโนโลยี Spark  วันนี้เราอาจไม่ต้องเน้นการประมวลผลผ่านบริการ MapReduce มากนักแต่ควรให้บริการเทคโนโลยีประมวลสำหรับ Hadoop ที่เป็นภาษาคล้าย SQL  โดยแนะนำให้บริการเทคโนโลยีต่างๆ คือ Hive  เป็นเทคโนโลยีที่ใช้ภาษา Hive QL ลักษณะ SQL โดย Hive จะทำหน้าที่ในการแปล SQL like ให้มาเป็น MapReduce แล้วก็ทำการรันแบบ Batch

  • Impala เป็นเครื่องมือที่คล้ายกับ Hive แต่เขียนด้วยภาษา C++ และติดต่อกับข้อมูล HDFS ตรงโดยไม่ต้องผ่าน MapReduce ซึ่งจะทำงานแบบ Interactive
  • Pig เป็นเครื่องมือคล้ายๆ กับ Hive ที่ช่วยให้ประมวลผลข้อมูลโดยไม่ต้องเขียนโปรแกรม Map/Reduce ซึ่ง Pig จะใช้โปรแกรมภาษา script ง่ายๆที่เรียกว่า Pig Latin แทน ทั้งนี้จะทำงานแบบ Batch

การประมวลผลโดยใช้ Spark

Spark  เป็นเทคโนโลยีในการประมวลข้อมูลขนาดใหญ่ โดยสามารถจะประมวลผลข้อมูลทั้งที่อยู่ใน HDFS หรือแหล่งอื่นๆ อาทิเช่น Cloud Storage, NoSQL, RDBMS ดังแสดงในรูปที่ 1 ทั้งนี้ Spark สามารถทำงานแบบ  Standalone หรือจะทำงานบน Hadoop Cluster  ผ่าน YARN ก็ได้ โดยจะทำงานแบบ Interactive โดยมีการระบุว่า Spark สามารถประมวลผลบน  Hadoop ได้เร็วกว่า MapReduce อย่างน้อย 10 เท่า ซึ่ง Spark มีบริการประมวลผลแบบต่างๆ ดังนี้

Screenshot 2016-02-11 08.30.57

รูปที่ 1 ระบบประมวลผลของ Apache Spark

  • Spark core ก็คือระบบประมวลผลโดยผ่าน API ซึ่งให้ผู้ใช้บริการสามารถเลือกใช้ภาษา Java, Scala, Python หรือ R
  • Spark streaming สำหรับการประมวลผลแบบ Realtime  Streaming
  • Spark SQL สำหรับการประมวลผลที่ใช้ภาษาคล้ายกับ SQL
  • MLlib  สำหรับการประมวลที่เป็นแบบ Machine Learning

ทั้งนี้เราสามารถที่จะสรุปเปรียบเทียบเทคโนโลยีการประมวลผลข้อมูลต่างๆ ได้ดังนี้

Screenshot 2016-02-11 08.31.06

ธนชาติ นุ่มนนท์

IMC Institute

กุมภาพันธ์ 2559

การปฎิวัติอุตสาหกรรมคลื่นที่สี่ ถึงเวลาที่ต้องเร่งปฎิรูปคนปฎิรูปการศึกษาบ้านเรา

12687806_599383603542317_5600153161347254731_n

เมื่อเร็วๆ นี้  World Economic Forum ได้ลงบทความเรื่อง “13 signs the fourth industrial revolution is almost here” ซึ่งระบุว่าตอนนี้เรามีสัญญาณต่างๆ หลายอย่างที่ทำให้เห็นว่าการปฏิวัติอุตสาหกรรมครั้งที่สี่กำลังใกล้มาถึงแล้ว ทั้งนี้เราเคยมีการปฎิวัติอุตสาหกรรมครั้งใหญ่มาแล้วสามครั้งคือ

  • ครั้งแรก ในช่วงปี 1784 เมื่อการคิดค้นเครื่องจักรไอน้ำทำให้เกิดโรงงานการผลิตสินค้าและมีระบบการขนส่งที่ดีขึ้น
  • ครั้งที่สองในช่วงปี 1870 เมื่อมีการคิดค้นไฟฟ้าและเกิดโรงงาน ที่สามารถผลิตสินค้าได้จำนวนมาก
  • ครั้งที่สามในช่วงปี 1969 เมื่อมีการนำเทคโนโลยีสารสนเทศ ที่ทำให้ระบบต่างๆ มีการทำงานได้รวดเร็ว โดยอัตโนมัติได้มากขึ้น

การปฏิวัติอุตสาหกรรมแต่ละครั้งทำให้เกิดการเปลี่ยนแปลงรูปแบบการผลิต การทำงาน การเคลื่อนย้ายการทำงาน และหากที่ใดปรับตัวไม่ทัน ก็อาจต้องเลิกกิจการและทำให้คนบางอาชีพต้องตกงาน การปฏิวัติแต่ละครั้งอาจมีช่วงเวลาที่นานและแต่ละครั้งก็ไม่เหมือนกัน

ในปัจจุบัน มีสัญญาณชี้ให้เห็นว่าเรากำลังเข้าสู่การปฏิวัติอุตสาหกรรมครั้งใหม่ มันคงเป็นเรื่องของข้อมูล หุ่นยนต์ และการวิเคราะห์และคาดการณ์ข้อมูลต่างๆ โดยพิจารณาจากปัจจัยต่างๆ ที่สำคัญอาทิเช่น

  • ผู้คนเข้าสู่โลกดิจิทัลมากขึ้น
  • เรามีมือถือที่มีความสามารถยิ่งกว่า Supercomputer ในอดีต
  • เรามีอุปกรณ์สวมใส่ที่เชื่อมต่ออินเตอร์เน็ต (Wearable Devices)
  • เราก้าวเข้าสู่ยุค Ubiquitous computing
  • Storage ในการเก็บข้อมูลมีราคาถูกลงมาก จนมีการคาดการณ์ว่าในปี 2025 ข้อมูลที่เราเก็บเกือบ 90% จะอยู่ Storage ที่มีขนาดไม่จำกัดและฟรี
  • อุปกรณ์ IoT จะมีใช้อย่างแพร่หลาย และในทศวรรษหน้าจะมีอุปกรณ์เซ็นเซอร์ที่ต่อกับอินเตอร์เน็ตมากกว่าหนึ่งล้านล้านชิ้น
  • เราจะมีการใช้ Big Data  วิเคราะห์ข้อมูล
  • บ้านจะเปลี่ยนเป็นบ้านอัจฉริยะ (Smart Home) และก้าวสู่เมืองอัจฉริยะ (Smart City)
  • หุ่นยนต์จะมาทำงานแทนเราในหลายๆ ด้าน
  • สกุลเงินดิจิทัลเริ่มมีการใช้อย่างแพร่หลายขึ้น ซึ่งเราจะเห็นได้จากสัญญาณว่าบางประเทศอย่างสวีเดนก็พยายามเลิกใช้เงินสดแล้ว
  • เครื่องพิมพ์สามมิติจะมีการใช้งานมากขึ้น
  • เรากำลังเข้าสู่ยุค Sharing Economy

Screenshot 2016-02-08 08.57.00

รูปที่ 1 ผลการสอบถามของ WEF

นอกจากนี้ทาง WEF ยังได้ทำการสอบถามความเห็นผู้เชี่ยวชาญด้านเทคโนโลยีและผู้บริหารต่างๆจำนวน 800 รายในความเป็นไปได้ในเรื่องของเทคโนโลยีที่จะเข้ามาในปี  2025  หรืออีก 10 ปีข้างหน้าดังรูปที่ 1 จะเห็นว่าผู้เชี่ยวชาญจำนวนมากมีความเชื่อในเทคโนโลยีว่าจะมาแทนที่อนาคตอาทิเช่น

  • คนเกือบ 10% จะสวมใส่เสื้อผ้าที่ต่ออินเตอร์เน็ต
  • จะมีหุ่นยนต์ทำงานแทนเภสัชกร
  • จะมีรถยนต์ที่ผลิตจากเครื่องพิมพ์สามมติ
  • สินค้าอุปโภคบริโภคกว่า 5%จะถูกผลิตจากเครื่องพิมพ์สามมติ
  • ประชากรโลกกว่า 90% จะเชื่อมต่ออินเตอร์เน็ตสม่ำเสมอ
  • รถกว่า 10% บนถนนในสหรัฐอเมริกาจะเป็นแบบไร้คนขับ

ตัวอย่างที่ยกมาให้เห็นน่าสนใจเพราะมันจะทำให้งานหลายๆอย่างเปลี่ยนไป ตอนนี้ทางสหรัฐอเมริกาเริ่มมีการศึกษาและเชื่อกันว่างานมากกว่าครึ่งหนึ่งสามารถถูกแทนที่ด้วยหุ่นยนต์ และต้องเร่งพัฒนาคนให้มีทักษะที่มากขึ้นกว่าเดิม ลองคิดดูว่าแค่เรื่องเครื่องพิมพ์สามมิติถ้าสามารถใช้สินค้าอุปโภคบริโภคได้ ฐานการผลิตก็จะย้ายออกไปสู่ประเทศและหน่วยงานที่มีนวัตกรรม ไม่ต้องพึ่งพาแรงงานในการผลิตราคาถูก

ถึงเวลาหรือยังที่เราต้องเร่งคิดเรื่องนี้จริงจัง ปฎิรูปคนปฎิรูปการศึกษาบ้านเรา เพื่อรองรับการเปลี่ยนแปลงของอุตสาหกรรมในอนาคต

ธนชาติ นุ่มนนท์

สถาบันไอเอ็มซี