Friday, August 30

Big data เป็นอะไรได้บ้าง

ย่อเรื่องจากงานเขียนเดิม


Tuesday, August 27

Network Log มีความสำคัญอย่างไร

Network Log มีความสำคัญอย่างไร ?

เมื่อพูดถึง Log files หลายคนคงเข้าใจว่าต้องนำ Log จากเครื่องแม่ข่าย (Server) เพื่อโยนเข้ามาเก็บส่วนกลาง ผ่านเทคโนโลยี Centralized Log management ไม่ว่าเป็น Log ที่เกิดจากระบบ System ในเครื่อง หรือ Log ที่เกิดจาก Application
(Log files คือการเก็บบันทึกข้อมูลที่เกิดขึ้น)

ยกตัวอย่าง หากในองค์กรหนึ่งมีการตั้ง AD Server (Active Directory) เพื่อเป็น AAAและA
Authentication คือ การระบุตัวตน เพื่อใช้ยืนยันตัวตน ของผู้ใช้งานภายในองค์กร เช่น การ Login เข้าระบบเครือข่าย Login เพื่อยืนยันตัวตนในการเข้าถึงระบบงาน ยืนยันและระบุตัวตนสำหรับการใช้งานอินเทอร์เน็ต เป็นต้น

Authorization คือ การกำหนดสิทธิในการเข้าถึง Application เข้าถึงระบบ เข้าถึงไฟล์ และเข้าถึงข้อมูล เป็นต้น

Accounting คือ รายชื่อผู้ใช้งานที่มีการสร้างขึ้นจากผู้ดูแลระบบ ส่วนใหญ่เป็นรายชื่อพนักงานในองค์กร

และ A ตัวสุดท้ายคือ Auditing เป็นการตรวจสอบ Log ที่เกิดขึ้น ส่วนใหญ่แล้วก็จะเป็น Log ที่เกิดจาก Authentication, Authorization และ Accounting ของเครื่อง Active Directory Server นี้แหละ

และยังมี Application Log ที่สำคัญ อื่นๆ ที่นิยมนำมาเก็บ บน Log Management ก็เช่น Log Web Server, Log Mail Server, Log DHCP/DNS Server, Log จาก Files Sharing, Log ระบบที่สร้างขึ้นจากแอพลิเคชั่นในองค์กร เช่นระบบ ERP ระบบบัญชี เป็นต้น ซึ่งหากเก็บหมดนี้ก็ถือใช้พื้นที่ในการเก็บจำนวนมาก และหากเก็บหมดได้ นี้แหละคือ Big data ที่ทุกองค์กรมีอยู่ใกล้ตัวที่สุด เป็นข้อมูลภายในองค์กร ซึ่งรัฐบาลจากทำ Big data แต่ไม่รู้จะเริ่มอย่างไง อยากให้มาดูในส่วนนี้จะเริ่มต้นได้ (สำหรับหน่วยงานที่ไม่มีข้อสาธารณะจำนวนมากและต่อเนื่อง)


Big data ส่วนนี้มิใช่ข้อมูลที่แสดงต่อสาธารณะ แต่มีประโยชน์ต่อหน่วยงานมาก ช่วยให้รอดพ้นจากภัยไซเบอร์ได้ อันเนื่องมาจากการมองเห็น และรู้เท่าทันขึ้น จาก Log files

Log มาจากเครื่อง ส่งมาเก็บจะพบปัญหาได้หากเกิดความผิดพลาดในระบบเช่นไวรัสลงที่เครื่องแม่ข่าย (Server) ที่กล่าวมาทั้งหมดเหล่านี้ไม่ว่าจะเป็นเครื่อง AD Server, Files sharing server, และ Web Server การส่ง Log มาเก็บที่ Centralized Log management อาจจะมีความผิดพลาด เช่น ไวรัสคอมพิวเตอร์ บางชนิดอาจทำลาย Log ลบ Log ทำให้ไม่มี Log ส่งมาเก็บที่ส่วนกลาง ไม่สามารถหา ร่องรอยการโจมตีได้

Log ที่มาจาก Network นั้นสำคัญ ?
หากเกิดกรณีดังกล่าว เช่นไวรัสเข้าไปลบ Log ในเครื่อง Server เราจะทำอย่างไร
ผมจึงจะขอเวลาเขียนบทความนี้เพื่อทำความเข้าใจ ดังนี้

Log Network ประกอบด้วย
1) Log ที่มาจากอุปกรณ์ Network เช่น Log Firewall, Log Router, Log Switch หลายองค์กรทำการส่ง Log เฉพาะ Log Firewall เพื่อ เข้า Centralized Log management เพราะตัวอื่นๆ จะมีปริมาณข้อมูลเยอะและมีเหตุการณ์ที่ซ้ำซ้อน ดังนั้นหากติดตั้ง Firewall แบบถูกวิธี Log Firewall ถือว่าเป็นประโยชน์มาก
แต่ด้วยว่า Firewall มีหลายระดับ ระดับที่ราคาแพง (หลักแสนขึ้นถึงหลักหลายล้าน) จะมีครบ

ส่วน Firewall ทั่วไป อย่างน้อยจะเห็น Log ที่ได้จะเห็น การสื่อสาร ต้นทาง (IP Source/ Source Port) และ ปลายทาง (IP Destination/ Destination Port) และ Protocol สถานะการเชื่อมต่อ

Firewall ที่เป็นระดับ Application Firewall ก็จะเพิ่มเติมการมองเห็น Application ที่ใช้งาน Bandwidth ที่ใช้งาน เช่น มองเห็น Protocol ที่สำคัญ เช่น HTTP, SMTP, DNS, DHCP, FTP, SSH เป็นต้น ซึ่งหากรู้จัก และ Application ที่สื่อสารบน Protocol เหล่านี้ เช่น Skyp, Facebook, Line, Gmail เป็นต้น แต่ไม่ได้หมายถึงว่าเห็นข้อความ เนื้อ content ผู้ส่งและผู้รับได้ เห็นเพียงรู้ว่าใช้ Application อะไร Bandwidth เท่าไหร่ ลักษณะการสื่อสารเท่านั้น

Firewall ในระดับ NextGen ก็จะป้องกันภัยคุกคามที่มาทางระบบเครือข่าย และ Application ได้ด้วย
แต่ทั้งนี้ Log ที่มาจาก Firewall ส่งมาเก็บ ก็ใช่ว่าจะสมบูรณ์ เพราะไม่สามารถมองเห็น Log Network ภายในองค์กรได้

Log Network ที่เกิดขึ้นในองค์กร การแชร์ไฟล์ map drive, Log ที่มากับกล้องวงจรปิด CCTV ที่ติดภายในอาคาร Log ที่เกิดจากการควบคุมเครื่องจักรในโรงงานอุตสาหกรรม, Log ที่เกิดจากแพร่ไวรัสภายในเครือข่าย LAN เป้นต้น

การที่ Firewall จะมองเห็นได้ทั้งหมดเป็นไปไม่ได้

ดังนั้นแบบที่ 2 ที่จะกล่าวถึงคือการสำเนาข้อมูลผ่านระบบเครือข่ายคอมพิวเตอร์ หรือเรียกว่า Mirror traffic จึงเกิดขึ้น สำหรับผมชอบวิธีนี้ที่สุดเพราะผลกระทบน้อยและ Log ที่ได้รับมามีประโยชน์ ไม่สามารถถูกแก้ไขจากไวรัสคอมพิวเตอร์ได้ เห็นอย่างไร บอกอย่างนั้น ตามที่เคยกล่าวว่า "Log files ไม่เคยโกหกเรา"

2) Log Network ที่ได้จากการสำเนาข้อมูล
(Mirror traffic)
หากระบบเครือข่ายในองค์กรของเรามีขนาดใหญ่ อาจมีการแบ่งโซนระบบเครือข่ายออกเป็น โซนสำหรับเครื่องแม่ข่ายสำคัญ โซนผู้ใช้งานภายในองค์กร โซน WiFi โซนตามแผนกงาน เป็นต้น ก็ทำการสำเนาข้อมูลแต่ละส่วนมาเพื่อเก็บบันทึกเป็น Log Network ได้
ด้วยวิธีนี้ มีหลายโปรแกรมที่มองเห็นและแกะ Protocol ที่สำคัญ เช่น
Log AD ที่เกิดจาก Kerberos สำหรับใช้ Active Directory จะได้ใกล้เคียงกับ Log ที่เก็บในเครื่อง AD Server สามารถมองเห็นทาง Network ได้เช่นกัน

Log Web Server มีความใกล้เคียง access.log หรือเทียบเท่ากัน จากที่มาจากเครื่องแม่ข่าย
Log Files share ที่ผ่าน Protocol Netbios และ SMB ก็เห็นเช่นเดียวกัน ใกล้เคียงจาก Log จากเครื่องแม่ข่ายส่งมา

Log Remote ไม่ว่าเป็น Remote Desktop, VPN, SSH, FTP ก็มองเห็น และใกล้เคียงกับ Log ที่มาจากเครื่องแม่ข่ายส่งมา ซึ่งไวรัสตัวใหม่ ที่พึ่งเกิดขึ้นก็ใช้ช่องโหว่ของ RDP โดยส่วนใหญ่แล้วหาได้น้อยมากที่ใครจะโยน Log RDP มาเก็บ ส่วนใหญ่จะได้จาก Network Log นี้แหละหากไม่มี Network Log อย่าหวังว่าจะได้ข้อมูลและลักษณะการติดต่อสื่อสาร


ภาพLog RDP เมื่อจัดทำสถิติ ผ่าน command line ที่มองเห็นผ่าน Network Log เช่นกัน

Log การระบุตัวตน ที่เกิดจาก Radius Protocol ก็มองเห็น และใกล้เคียงกับ Log ที่มาจากเครื่องแม่ข่ายส่งมา

ดังนั้นแบบที่ 2 ประหยัดงบกว่าแน่ และได้สิ่งที่เพียงพอแล้วสำหรับผู้ดูแลระบบเครือข่าย

ผมจึงอยากจะเขียนไว้เพื่อสร้างความเข้าใจ ซึ่งทั้งหมดที่เขียนมาล้วนมาจากประสบการณ์ทั้งสิ้น

"Log files ไม่เคยโกหกเรา"

Nontawatt S
27/08/62

Thursday, July 18

Digital balance ความสมดุลด้านดิจิทัล

ความสมดุล ระหว่าง คน เทคโนโลยี และเศรษฐกิจ  Digital balance
"คนตกงาน เพราะเทคโนโลยีมาแทน"

"เศรษฐกิจไม่ดี เพราะเทคโนโลยี เปลี่ยน"

"คนปรับตัวไม่ทันจากธุรกิจบนโลกใหม่"

ด้วยวงล้อดิจิทัลแห่งการเปลี่ยนแปลงอย่างรวดเร็ว
การนำเทคโนโลยีมาใช้ โดยลืมปรับความสมดุล
ระหว่าง คน และ เทคโนโลยีนั้น จะทำให้เกิดช่องว่าง ส่งผลกระทบต่อเศรษฐกิจ ทั้งที่เป็นทางตรงและทางอ้อม

เรามักจะภาคภูมิใจอยู่เสมอ หากคิดค้นนวัตกรรมจากเทคโนโลยีใหม่ที่ล้ำ อาทิเช่น เทคโนโลยี ที่ได้จาก Cloud computing, Quantum, Big Data, Blockchain, IoT autonomous และ AI จนทุกอย่างอาจมองข้ามคน ที่เป็นพื้นฐานการขับเคลื่อนเศรษฐกิจ ตั้งแต่รากหญ้า ผู้จ้างงาน คนชั้นกลาง มนุษย์เงินเดือน จนถึงเจ้าสัว อันเป็นกลไกกระจายตัวของเศรษฐกิจ ซึ่งคนเหล่านั้นอาจเป็นรุ่นญาติผู้ใหญ่ของเราที่ไม่สามารถเข้าใจการเปลี่ยนแปลงที่เกิดขึ้น

ตัวละครใหม่ๆ ที่สร้างขึ้นจากเทคโนโลยี เกิดขึ้นเป็นระยะๆ เช่น decentralized, 5G และ Libra และอื่นๆ ต่อจากนี้ ทำให้โลกไร้พรมแดน จนราวกับว่า จะมองข้ามประเทศไปเสียแล้ว กฎเกณฑ์ที่สร้างขึ้น Compliance เดินตามหลังเทคโนโลยีเสมอ

คนที่ไร้ความหมายบนโลกใหม่ ก็ถูกหุ่นยนต์ และ algorithm AI แทนที้เขาและเธอ (คน)

การตีโจทย์เพื่อแก้ไขปัญหาเศรษฐกิจ แบบมองไม่ทะลุ ทำให้คนตกงานต่อ ...ส่งผลกับเศรษฐกิจและสภาพความเป็นอยู่ในปัจจุบัน

นักคิด นักสร้างสรรค์ นักประดิษฐ์ ไม่คำนึงถึงพื้นฐานจิตใจมนุษย์ นั้นยิ่งเพิ่มความเหลื่อมล้ำ ระหว่างคนและ automation ให้ห่างออกไป

ห่วงโซ่ของธุรกิจที่ขาดการสังเกต ทิศทางของโลกแห่งเทคโนโลยีนั้นจะทำให้เสียโอกาส และ สูญเสียอธิปไตยทางข้อมูล Data Sovereignty ได้เสมอ อาทิ เช่น Application แอพหน้าเด็ก แอพหน้าแก่ และสื่อสังคมออนไลน์ กล้องวิเคราะห์ใบหน้า เป็นต้น ที่ล้วนแล้วนำข้อมูลของเราไปพัฒนาเพิ่มความฉลาด algorithm AI ที่อื่น (นอกประเทศเรา)


ความสดุล ระหว่าง คน เทคโนโลยี และเศรษฐกิจ ต้องเดินไปพร้อมกัน เพื่อส่งเสริมคุณภาพชีวิตของคนในชาติ
win-win situation จะเกิดขึ้นหากเรามีกรอบความคิดที่เข้าใจกับสภาวะที่เป็นจริง

ทั้งหมดนี้เป็นส่วนหนึ่งจากการ หารือกันในกรรมการสมาคมส่งเสริมนวัตกรรมเทคโนโลยีไซเบอร์ CIPAT

ด้วยความเป็นห่วง
Nontawatt S
15/07/62

Saturday, June 1

Big Data ส่วนใหญ่แล้วไม่ได้อยู่ในเมืองไทย เพราะอะไร ?

Big Data ส่วนใหญ่แล้วไม่ได้อยู่ในเมืองไทย เพราะอะไร ?”
ผมถือว่าโชคดีที่เป็นเด็ก ผมทำงานกับทีมงานอายุไม่มาก กับคนหนุ่มสาวที่มีไฟ (แก้ไขปัญหาเก่ง) จึงทำให้เราได้เรียนรู้อะไรได้ตลอด. ถึงแม้ผมมักจะเป็นหัวหน้าทีม … แต่เวลาทำงาน เราก็ทำเป็นเด็ก คือทุกขั้นตอนการทำงานเรามีส่วนร่วมหมด
เราเรียนรู้และแก้ไขปัญหาการรองรับข้อมูลขนาดใหญ่มานานแล้ว. …..เพราะขายอุปกรณ์และระบบที่ทำหน้าที่เก็บ Log files และวิเคราะห์ข้อมูล ในแบนด์ชื่อ “SRAN”
SRAN นิยมใช้กันในประเทศไทยพอสมควรเมื่อ 10 ปีก่อน
เราสร้าง SRAN มากับมือ. ทั้งเทคโนโลยีที่มาใช้ และ การติดตั้ง มันลงตัวมาก (เมื่อ 15 ปีอัพ)
SRAN รองรับข้อมูลเราผ่านระบบเครือข่ายทั้งในรูปแบบของการ Mirror Traffic. จากระบบเครือข่ายคอมพิวเตอร์ และ รูปแบบ syslog server มาเข้าเครื่อง (Appliance) ที่ทำซอฟต์แวร์ในการวิเคราะห์ข้อมูล แยกแยะ Protocol, Application ที่จำเป็นต้องใช้วิเคราะห์ถึงภัยคุกคามที่เกิดขึ้นจากการใช้งานข้อมูล. แต่ทุกอย่างรันบนเครื่องเพียงเครื่องเดียว … ซึ่งมีข้อจำกัดการรับข้อมูลขนาดใหญ่ จะได้เฉพาะหน่วยงานขนาดกลางและเล็กเท่านั้น.
บทเรียนที่เราต้องฟ่าฟันอีกครั้ง เมื่อเราได้รับโอกาส ในงานระดับชาติ ….ซึ่งเรารู้แม้ใส่ Server ราคาหลายล้านก็ไม่ได้สามารถทำได้
เราจึงเปลี่ยนการออกแบบสำหรับเครือข่ายขนาดใหญ่ ข้อมูลขนาดใหญ่ มาเป็นการทำ “Cluster” ราวๆปี 2552 ในงาน Project กระทรวงฯ แห่งหนึ่ง ทำร่วมกับ TOT
ข้อมูล Log ในแต่ละวัน ในสมัยโน้นไม่น้อยกว่า 10G ต่อวัน (ที่มีการบีบอัดข้อมูลแล้ว)
บน Bandwidth เครือข่ายที่เราสู้ได้ตอนนั้นคือ 40G. ย้อนไปเกือบ 10ปีนะ จน Aggregation load balancer. ยี่ห้อที่เรานำมาใช้คือ Anue Network ปัจจุบันนี้ไม่มีแล้ว เราแยกข้อมูลให้วิ่งออกทีละ 1G เพื่อมารับข้อมูลและวิเคราะหในงานนี้ EPS ไม่น้อยกว่า 50,000 session ต่อวินาที กระนั้นเราแทบจะต้านทานข้อมูลมหาศาลที่ไหลมาในระบบเราไม่ได้ หน้าที่ผมตอนนั้นไม่เพียงแต่ออกแบบระบบให้รองรับข้อมูลได้แล้ว ยังต้องเฝ้าระวังให้ระบบพร้อมใช้งานได้อย่างต่อเนื่องอีกด้วย แต่เราก็ผ่านจุดนั้นไปได้





ทีมงานเราได้เรียนรู้ระบบ Cluster มาจากเหตุการณ์นี้ แต่ในสมัยนั้นการทำงาน Cluster. ที่เราทำได้เป็นเพียงระดับ OS และ database. เวลาเราแก้ไขปรับเปลี่ยนโค้ดซอฟต์แวร์ เปลี่ยนทีมงานเขียนโปรแกรม มันทำให้เราต้องทำระบบใหม่อยู่เรื่อยๆ
ผ่านมาเกือบ 10 ปี การเรียนรู้ว่าเราต้องปรับตัว. การปรับตัว คือต้องแสวงหาความรู้. และทดลองทำ เราต้องทำและสู้กับมันอีกครั้ง. เมื่อเกิดสถานการณ์คับขัน. ….





Big Data ที่เกิดได้ง่ายที่สุด คือ เอา Log files มาวิเคราะห์
การออกแบบเราจึงเปลี่ยนไป และเราก็ได้เรียนรู้ว่า เมื่อทิศทางเป็น Cloud computing. แล้วเราจะเอาข้อมูลขนาดใหญ่นี้ไป สิงสถิตถ์ ที่ไหนดี. จะในประเทศ หรือ ต่างประเทศ
คำตอบที่ได้ คงต้องไปพึ่งพวกที่เป็น aws (amazon), google cloud, cloud microsoft azure และ digitalocean. ซึ่งอยู่ต่างประเทศทั้งหมด และยิ่งเรายิ่งห่างด้านเทคนิค บุคคลากร และกระบวนการที่ทำ ยิ่งห่างต่างประเทศ ชนิดที่ไม่สามารถตามทันได้เลย จนมีความจำเป็นที่ต้องไปใช้ข้อมูลฝั่งเขาหมด แบบให้ข้อมูลเขาแบบหมดเนื้อหมดตัวจริงๆ
ในหลายๆครั้ง เมื่อเราได้คุยเรื่อง Big Data ทำไมผมถึงกล้าพูดนักว่า “Big Data ส่วนใหญ่แล้วไม่ได้อยู่ในเมืองไทย”
เมืองไทยยังหาแหล่งสถิตย์ของข้อมูลขนาดใหญ่ นั้นทำได้ยาก(ส์) ทั้งนี้ด้วยเหตุผล 3 ประการ ดังนี้
  1. ขาด Cloud Computing. Infrastructure Management ความพร้อมของ IDC (Internet Data Center) ถึงแม้เรามีหลายเจ้าในประเทศ. “ประเทศเราพร้อมในด้าน Infrastructure แต่ขาดความพร้อมในการบริหารจัดการ”
หากพิจารณาให้ดี ข้อมูลที่เกิดขึ้นนี้จะอยู่ฝั่งนี้จะอยู่ที่ IDC โดยทั้งสิ้น จะทำเป็น Public Cloud Services หรือ จะทำเป็น Private Cloud Services ก็ย่อมทำได้ แต่แล้วทำไหมเรายังขาดเรื่องการบริหารจัดการอยู่อีก เป็นเพราะการบริหารจัดการนั้นไม่ได้เกิดขึ้นจากกระบวนการเพียงอย่างเดียว ส่วนใหญ่แล้วกระบวนการเราผ่าน เราได้ ISO ครบถ้วนที่ IDC พึ่งจะมี สิ่งที่ขาดคือ เทคโนโลยี และ คน
เทคโนโลยี IDC ไหนที่ไม่ใช้ Open Source และเขียนโค้คเองไม่ได้ จะต้นทุนสูงและคืนทุนได้ยาก ซึ่งหากหันไปดู IDC ในไทยโดยส่วนใหญ่ยังติดกับดัก การพึ่งพาเทคโนโลยีที่เป็น Enterprise เกรดจึงไม่สามารถไปถึงขั้นตอนที่กล่าวได้ และลองหันมาดูยักษ์ใหญ่ เช่น Cloudflare, Amazon aws และ Digital Ocean ได้ ไม่มีการใช้. brandname โดยเฉพาะตัวที่เปลืองต้นทุน ไม่ว่า Application Load balancing, Web Application Firewall, แม้กระทั่ง vm virtual machine มักใช้ docker และ open source ส่วน Google และ Microsoft ไปไกลกว่านั้น ยังสร้างเครื่องมือ Tools มาเองด้วย เช่นการเกิดขึ้นของ Kubernetes เป็นต้น
ซึ่งจากกับดักนี้เองทำให้ IDC ในไทยไม่สามารถพัฒนาให้หลุดพ้นการขายแบบธุรกิจโมเดลเดิมที่เคยเป็น เช่นขาย Co-lo, VPS, และ Hosting เป็นต้น
สรุปง่ายๆ ว่า IDC ไหนไม่ใช้ Open Source หรือใช้ไม่เป็นมีหวังเจ๊ง … เพราะ ROI คุณจะคืนทุนเมื่อไหร่ เมื่อเทียบกับการแข่งขันระดับโลกที่สามารถเข้ามาแย่งลูกค้าเรานอกพรมแดนได้ตลอดเวลา เช่น aws, digital ocean และ google cloud เป็นต้น
เมื่อขาดเทคโนโลยี จะทำให้ขาดความพร้อมใน 3 ด้าน คือ ระบบที่ทำงานได้ตลอดเวลา (Zero downtime) , รองรับการขยายตัวในอนาคต โดยไม่ถูกจำกัดด้วยฮาร์ดแวร์ (scalability), Automatic deployment. ยังไม่มีให้เลือกได้ดีเท่าต่างประเทศ.
ส่วนเรื่องสำคัญ คือ คนที่รู้ Open Source ขนาดนั้นจะหาได้ที่ไหน ที่มี skill ที่พัฒนา Tools ได้เองต้องอาศัยความคิดสร้างสรรค์มาก มีจำนวนน้อยมากในประเทศไทย
เป็นเหตุผล ทำให้เราเสียโอกาส. ข้อมูลจึงไหลไปอยู่ต่างประเทศ มากกว่าอยู่ในประเทศไทย
2. ขาดคนทำพวก Application Programming Management.
เราขาดบุคลากร คนที่รู้และปฏิบัติได้ ในการสร้างระบบ เรียกว่า “Microservice” ที่ไว้ค่อยจัดการกับ API และระบบ Automatic ด้านข้อมูล และการจัดการด้านโปรแกรมมิ่ง





การศึกษาของเราไม่ได้สร้างให้เด็กรุ่นใหม่ เรียนรู้กับวิธีการใหม่ๆ. หรือไปไม่ทัน. เราต้องรู้ในแต่ละระดับ เช่นรู้การทำงาน VM แบบ Container โดยใช้ Docker, เราต้องเรียนรู้การบริหารจัดการ Docker อย่าง Kubernetes (google สร้างมา), Docker swarm เหล่านี้คือ Orchestration บนการทำงานแบบ Agile เพื่อการทำเกิด “Resilience System” ทำให้เรายืดหยุ่นและคงทน ไม่ยึดติดที่บุคคล ระบบพร้อมทำงานตลอดเวลา.
“พวกนี้คือตัวเปลี่ยนโลก” ที่อยู่ ระบบ Backend หลังบ้านที่ผู้บริหารไม่สามารถเข้าถึงได้. ส่วน GUI ภายใต้หน้ากากที่ซับซ้อน จะใช้พวก ELK (Elasticsearch, Logstash, and Kibana) ต่อไป ขึ้นอยู่ว่าเราจะออกแบบงานอะไร. จะใช้ Bruffer มาช่วย เช่น radis หรือจะ cluster Hadoop. ก็แล้วแต่จะออกแบบกัน ซึ่งอย่างไรแล้วต้องมี Backend มาก่อนที่ว่ามาก่อน เป็นต้น
ในยุคนี้ ต้องบอกว่าเป็นโลกของ Open Source โดยสมบูณร์แบบอย่างแท้จริง หากใครยังคิดว่า Open Source และ Tools ที่ใช้ open source ไม่มีมาตรฐานล่ะ คุณจะตกการพัฒนาใหม่ๆ แบบตามไม่ทัน ที่กล่าวเช่นนี้ เพราะ code ที่ดีมีคนจำนวนมากช่วยกันปรับปรุง ถูกเก็บการแก้ไขผ่าน ระบบ Github เป็นต้น
ซึ่งทั้งหมดนี้ ประเทศเรายังขาดนักออกแบบระบบแนวใหม่เช่นนี้ อยู่จำนวนมาก. ทำให้เราเสียโอกาสการได้ทำที่ ที่ไว้สิงสถิตย์ของ Big Data
คนไทยที่ได้ทำ ส่วนใหญ่จะมาจากต่างประเทศ หรือได้ลองเล่นสนามจริงในประเทศไทย ก็น่ามีเพียงธนาคาร และที่มีข้อมูลตลอดเวลาเช่น ตลาดหลักทรัพย์ ในการซื้อขายหุ้น และ พวกที่ทำ SIEM Centralized Log Management เป็นต้น ที่จะเข้าใจในจุดนี้ได้
3. เวที ให้แสดงข้อมูลขนาดใหญ่ (ไม่มี)
หากเราจะมี Big Data ได้สมบูรณ์ เราต้องมีการทำระบบวิเคราะห์ข้อมูลการไปให้ถึงในระดับปัญญาประดิษฐ์ Artificial Intelligence (AI) นั้นนอกจากเราต้องมีอะไรบ้าง
อันดับแรกเราต้องมีข้อมูล และข้อมูลต้องบริหารจัดการแบบข้อ 1 และข้อ 2 ที่กล่าวมาได้ เราจึงนำข้อมูลเหล่านี้ มาทำ data science โดยผ่านการคำนวณ แบบ Machine Learning ซึ่งส่วนนี้เมืองไทยไม่ได้ขาดมาก มีผู้เชี่ยวชาญอยู่มาก. มีงานวิจัยอยู่มากในประเทศไทย
แต่เราไม่มีเวทีจริงให้เล่น ให้ลองผิดลองถูก เพราะไม่รู้จะเอาข้อมูลอะไร บริษัทใหญ่เท่านั้นที่มี แอพมือถือรายใหญ่ เท่านั้นที่มี. ซึ่งล้วนแล้วแต่อยู่ในต่างประเทศทั้่งสิ้น.
ไม่ว่าเราจะนำข้อมูลจากที่ไหน Log files เพื่อให้บริการ MSSP, ข้อมูลจาก crawler ข้อความ จาก website, Social network รูปภาพ, ใบหน้าในกล้องวงจรปิด, ข้อมูล transaction การโอนเงิน และอื่นๆ เป็นต้น ซึ่งเป็นข้อมูลที่เกิดขึ้นตลอดเวลา เราต้องทำตั้งแต่ข้อ 1 ถึง ข้อ 3 ที่กล่าวมา. หากขาดข้อใดข้อหนึ่ง ไม่สามารถทำงานได้อย่างมีประสิทธิภาพ
ปล. ข้อดีของการเป็นเด็ก เราจะได้ศัพท์ใหม่ ที่เราต้องรู้กันไป แบบ Life Long Learning. จริงไหมครับ ฝากไว้แบบคร่าวๆ เช่นนี้ โดยเฉพาะข้อ 2 เป็นการออกแบบมีรายละเอียดมากมาย ที่หลายคนมองข้ามไป
นนทวัตต์. สาระมาน
Nontawatt  Saraman
15/12/61

Wednesday, May 22

สร้างชาติด้วยดิจิทัล ให้คนไทยเป็นหนึ่งเดียว

นายนนทวัตต์ สาระมาน Nontawatt Saraman 
ได้ให้สัมภาษณ์ เรื่อง ทิศทางประเทศไทยกับยุค 4.0 ในงานวิศวกรรมแห่งชาติ 

กล่าวโดยย่อ “ผมคิดว่า ถึงเวลาแล้วที่ควรส่งเสริมนวัตกรรมที่เกิดจากสร้างสรรค์โดยคนไทย ปลูกจิตสำนึกนี้ไปทุกภาคส่วน
ด้วยประโยคที่ว่า “การสร้างชาติ ด้วยดิจิทัลให้คนไทยเป็นหนึ่งเดียว”
เพราะการขับเคลื่อนธุรกิจในยุตปัจจุบันมีการผูกขาดทางด้านข้อมูล Big data ล้วนแล้วแต่ไม่ได้อยู่ในประเทศไทยเลย
เรามีปัญหาในด้านการเก็บภาษีกับยักษ์ใหญ่ด้านดิจิทัลข้ามชาติ เหตุเป็นเพราะโลกเปลี่ยนเป็นการขับเคลื่อนแบบดิจิทัล ห่วงโซ่ธุรกิจแนวใหม่ที่เริ่มไร้คนกลางมากขึ้น ใครมี Platform และมี IDC ที่พร้อมด้วย infrastructure จะได้เปรียบ ซึ่งประเทศเรายังปรับตัวไม่ทัน
Big data จากอุปกรณ์ IoT ที่ติดตั้งในไทยเกินครึ่งเก็บข้อมูลอยู่ IDC ในต่างประเทศ
เรายังไม่มีแบนด์ที่เกิดจากคนไทย ที่สร้างความภาคภูมิใจของคนในชาติ ….
..ถึงเวลาที่เราต้องมาให้ความสำคัญ Digital Thailand First ให้โอกาสคนไทยด้วยกันก่อน”



Wednesday, March 20

เมื่อบริษัทยกทีมไปญี่ปุ่น

เมื่อบริษัทยกทีมไปญี่ปุ่น ...
เห็นรอยยิ้ม พี่ๆน้องๆ เห็นความเป็นหนึ่งเดียวของพนักงานบริษัทฯ ก็ดีใจ..ที่เราทุกคน อดทนสู้ ล้มลุกคลุกคลาน มาด้วยกันกว่า 10 ปี


เราจะเดินหน้าไปด้วยกันนะ..แมวเหมียว SRAN Team

Wednesday, February 20

Log ใน 24 ชั่วโมง ที่ผ่านมามีอะไรเกิดขึ้นบ้าง

ใน 24 ชั่วโมง ที่ผ่านมามีอะไรเกิดขึ้นบ้าง
เราพบเหตุการณ์ทั้งหมดอยู่ 83,770,926 เหตุการณ์
ที่เกิดขึ้นมีการเคลื่อนไหว TCP 52,313,774 เหตุการณ์
UDP 30,864,576 เหตุการณ์
ICMP 592,361 เหตุการณ์
ข้อมูล Download 2,611 GB Upload 6,354 GB



มีความเสี่ยงระดับสูง 276,371 เหตุการณ์
ระดับกลาง 509,754 เหตุการณ์
ระดับต่ำ 8,334 เหตุการณ์


บน Sensor on 8 ตัว ทุกตัวโยนข้อมูลเข้าส่วนกลาง

ผ่านไป 90 วัน ข้อมูลจะขนาดไหนกัน จะเก็บอย่างไร จะอ่านอย่างไร จึงออกรายงานได้ (วัดกันตรงนี้)

** นี้เป็น Big Data ที่ใกล้ตัวเราที่สุด เกิดขึ้นตลอดเวลา ในที่ทำงานของคุณ
โดยทั้งหมดนี้ จะเห็นขึ้นได้นั้นอยู่ที่การออกแบบ