ตามกฎของมัวร์ เรื่องความยั่งยืน และศูนย์ข้อมูล ซอฟต์แวร์จะรับมือกับอนาคตข้อมูลที่ขยายตัวอย่างรวดเร็วได้อย่างไร

บทความโดย นาตาลยา มากาโรชกีนา รองประธานอาวุโสฝ่ายปฏิบัติการระหว่างประเทศ ธุรกิจ Secure Power ชไนเดอร์ อิเล็คทริค

หลักการสำคัญในการพัฒนาไอทีตลอดหลายทศวรรษที่ผ่านมาเป็นไปตามกฎของมัวร์ ที่คาดการณ์ว่าเมื่อการพัฒนายังคงเดินหน้าต่อไป ปริมาณส่วนประกอบของทรานซิสเตอร์ในโปรเซสเซอร์ จะเพิ่มเป็นเท่าตัวทุกสองปี

แม้ว่าหลายคาดการณ์จะผ่านกันไปแล้วก็ตาม แต่หลักการนี้ยังคงชี้นำอยู่ไม่มากก็น้อย อย่างไรก็ตาม สิ่งที่คนไม่ค่อยรู้กันก็คือแนวโน้มในหลักการที่ว่า ยังคงใช้ได้กับส่วนที่เป็นศูนย์ข้อมูล

แม้การประมวลผลข้อมูลเพิ่มขึ้น 6 เท่า ตั้งแต่ปี 2010 แต่การใช้พลังงานของศูนย์ข้อมูลกลับเพิ่มขึ้นเพียง 6% ในปี 2018 (Masanet et al, 2020) เรื่องนี้เป็นไปได้อย่างไร และบอกอะไรเกี่ยวกับการพัฒนาสู่ความยั่งยืนในอนาคต

ข้อมูลมาจากที่ไหน

ในการศึกษาเกี่ยวกับการพัฒนาเรื่องนี้ ก่อนอื่น เราต้องเข้าใจว่าการประมวลผลข้อมูลที่เพิ่มขึ้นมาจากไหน

Apple iPad เปิดตัวในปี 2010 ตามด้วยการเปิดตัวของ Instagram และ Microsoft Azure ซึ่งเป็นการให้บริการคลาวด์ หลังจากนั้นในปี 2011 มีการเปิดตัว Minecraft, Snapchat และ Uber ขณะที่ ปี 2013 เราได้รู้จักกับ Alexa ของ Amazon พร้อมๆ กับ Xbox One และ PlayStation ส่วนในปี 2017 ก็มี Fortnite และ Tiktok

ดังนั้นการมีส่วนร่วมกับโซเชียลมีเดียในช่วงเวลาดังกล่าวจึงเพิ่มขึ้นอย่างมาก ในขณะที่การสร้างข้อมูลทั่วโลกเพิ่มขึ้นจากที่คาดการณ์ไว้ 2 เซ็ตตะไบต์ ในปี 2010 เป็น 41 เซ็ตตะไบต์ในปี 2019 โดย IDC ประมาณการว่าปริมาณข้อมูลทั่วโลกจะเพิ่มขึ้นเป็น 175 เซ็ตตะไบต์ภายในปี 2025

การแพร่ระบาดของโควิดสร้างผลกระทบอย่างมาก พบว่าในภูมิภาคตะวันออกกลางและแอฟริกาเหนือ (MENA)  มีการใช้งานสื่อโซเชียลรวมถึงส่งข้อความเพิ่มขึ้นอย่างมาก โดยผู้ใช้โซเชียลมีเดียในตะวันออกกลางและแอฟริกา (MEA) และละตินอเมริกาใช้เวลาส่วนใหญ่บนโซเชียลเน็ตเวิร์ก โดยเฉลี่ยมากกว่า 3.5 ชั่วโมงต่อวัน

มีการรายงาน (พฤษภาคม 2020) ว่ากว่าครึ่งของผู้ใช้งานในตะวันออกกลางและแอฟริกา (57%) ใช้เวลากับโซเชียลมีเดียมากขึ้น อันเป็นผลมาจากการแพร่ระบาด ในทำนองเดียวกัน ในการศึกษาแยกส่วนพบว่า 71% ของผู้ตอบแบบสอบถามในตะวันออกกลางรายงานว่ามีการใช้งาน WhatsApp และแอปฯส่งข้อความอื่นๆ เพิ่มขึ้นตั้งแต่ที่มีการระบาดของโควิด

ข้อมูลเหล่านี้มีผลกระทบอะไรบ้าง?

เพื่อให้เข้าใจถึงผลกระทบจากการขยายตัวอย่างรวดเร็วของข้อมูล (data explosion) จึงมีการพัฒนาแนวคิดที่เรียกว่า data gravity คิดขึ้นโดยวิศวกร David McRory  คำนี้หมายถึงแนวโน้มในการรวบรวมข้อมูลเพื่อดึงดูดให้แอปพลิเคชันและบริการต่างๆ เข้ามาใช้ข้อมูลเหล่านี้ จึงทำให้มีการรวบรวมข้อมูลกันไปเรื่อยๆ ซึ่งอาจนำไปสู่การหยุดชะงักของข้อมูล และข้อมูลไม่ถูกนำมาใช้ประโยชน์อย่างที่ควรเป็น เพราะข้อมูลโตมากไปและโตเร็วไป ทำให้ไม่มีการเคลื่อนไหว เป็นการลดทอนคุณค่าและนำมาใช้งานได้ยาก มีเพียงบริการที่ให้แบนด์วิธสูง latency ต่ำ ควบคู่กับสถาปัตยกรรมด้านข้อมูลแบบใหม่ จึงจะช่วยให้รับมือกับปรากฏการณ์ด้านข้อมูลที่เติบโตอย่างรวดเร็วและไม่เป็นระบบได้

การพัฒนาเทคโนโลยีใดที่ช่วยให้เรื่องนี้เป็นไปได้?

มีการพัฒนาทางเทคโนโลยีหลายอย่างที่สามารถรับมือกับการขยายตัวอย่างรวดเร็วของข้อมูลได้ ด้วยการใช้พลังงานเพิ่มเพียงเล็กน้อย ไม่ว่าจะเป็น การปรับปรุงการออกแบบและการผลิตโปรเซสเซอร์ ผ่านอุปกรณ์จ่ายไฟและพื้นที่เก็บข้อมูล รวมถึงการย้ายเวิร์กโหลดจากโครงสร้างพื้นฐานในองค์กรไปยังระบบคลาวด์

ชไนเดอร์ อิเล็คทริคยึดมั่นในธุรกิจที่ยั่งยืนมานานหลายทศวรรษ โดยมุ่งเน้นที่ประสิทธิภาพมากขึ้นเพื่อให้ครอบคลุมทุกแง่มุม ตั้งแต่การออกแบบและการใช้งาน ให้ได้ประสิทธิภาพเพิ่มขึ้นทั้งเรื่องพลังงานและการระบายความร้อน ด้วยระบบ UPS และอุปกรณ์จ่ายไฟแบบโมดูลาร์  แสดงให้เห็นถึงผลลัพธ์ในผลิตภัณฑ์แต่ละรุ่น จนมาถึงการพัฒนาขั้นสูงในกลุ่มผลิตภัณฑ์ Galaxy VL ที่ใช้แบตเตอรี่ลิเธียมไอออน ซึ่งนอกจากจะเพิ่มประสิทธิภาพแล้ว ยังช่วยยืดอายุการใช้งาน ลดผลกระทบต่อสิ่งแวดล้อมจากการลดวัตถุดิบในการผลิต อีกทั้งสะดวกในการเปลี่ยนถ่ายพลังงาน เมื่อมีการเปลี่ยนหรือใส่โมดูลพลังงานเพิ่ม โดยไม่มีการดาวน์ไทม์ ขณะเดียวกันก็เพิ่มการป้องกันให้กับผู้ปฏิบัติงานและเจ้าหน้าที่ฝ่ายบริการ

ให้ความล้ำหน้าเรื่องการระบายความร้อน เช่น การควบคุมการถ่ายเทความร้อน ผ่านระบบที่เป็น แร็ค โรล และพ็อด การระบายความร้อนด้วยของเหลว และใช้ซอฟต์แวร์อัจฉริยะในการความคุม เพื่อให้มั่นใจว่าได้ผลลัพธ์ถูกต้องและตรงตามความต้องการด้านการประมวลผลข้อมูล

เพื่อให้มั่นใจว่าทุกการเชื่อมโยงในห่วงโซ่พลังงานตั้งแต่โครงข่ายพลังงานตลอดจนแร็คนั้นมีประสิทธิภาพ ชาญฉลาด และทำงานได้ดีเท่าที่เป็นไปได้ เราจึงมอบพื้นฐานที่เหมาะสมเพื่อการพัฒนาที่รวดเร็วในการประมวลผล เครือข่าย และพื้นที่จัดเก็บที่ต้องทำต่อเนื่องทุกวัน

ซอฟต์แวร์และแอปฯจะเหมาะกับการใช้งานส่วนนี้อย่างไร?

องค์ประกอบสำคัญอีกประการหนึ่งของการพัฒนาเทคโนโลยีที่ช่วยขยายประสิทธิภาพได้อย่างไม่สิ้นสุด คือการประยุกต์ใช้เครื่องมือวัด การรวบรวมข้อมูล และการวิเคราะห์ที่ดีขึ้น ซึ่งช่วยให้สามารถควบคุมและประสานการทำงานได้ดีขึ้น โดย DeepMind AI ของ Google ได้แสดงให้เห็นว่าการใช้พลังงานในการทำความเย็นที่ศูนย์ข้อมูลแห่งหนึ่งลดลงไปประมาณ  40% ในปี 2016 ซึ่งทำให้การใช้พลังงานโดยรวมลดลงถึง 15% นับเป็นความสำเร็จในการนำข้อมูลในอดีตจากเซ็นเซอร์ของศูนย์ข้อมูล เช่น อุณหภูมิ พลังงาน ความเร็วของปั๊ม ค่าที่ตั้งไว้ ฯลฯ มาใช้ในการปรับปรุงประสิทธิภาพการใช้พลังงานของศูนย์ข้อมูล โดยระบบ AI ทำหน้าที่คาดการณ์อุณหภูมิและความดันในอนาคตของศูนย์ข้อมูลในอีกไม่กี่ชั่วโมงข้างหน้า และให้คำแนะนำเพื่อควบคุมการใช้งานได้อย่างเหมาะสม

การพัฒนาระบบการจัดการโครงสร้างพื้นฐานของศูนย์ข้อมูล (DCIM) ยังคงเดินหน้าไปอย่างรวดเร็วเช่นกัน ทำให้เกิดการผสานรวม AI เพื่อใช้ประโยชน์จากการพัฒนาฮาร์ดแวร์และโครงสร้างพื้นฐานทั้งหมดเหล่านี้ การทดสอบเหล่านี้กลายเป็นคุณสมบัติที่ช่วยให้มองเห็นและควบคุมการทำงานได้ดีอย่างที่ไม่เคยมีมาก่อน สำหรับผู้ที่ออกแบบเพื่อการพัฒนาใหม่ๆ เช่น ซอฟต์แวร์ ETAP ช่วยให้ออกแบบเรื่องประสิทธิภาพการด้านพลังงานได้ตั้งแต่แรกเริ่ม ในขณะเดียวกันก็รองรับสถาปัตยกรรมไมโครกริดด้วย

แหล่งข้อมูลใหม่ส่วนใดที่จะมีส่วนในเรื่องนี้

คาดกันว่าข้อมูลจะยังคงขยายตัวรวดเร็วยิ่งขึ้น จากการพัฒนาเพิ่มขึ้นในด้านต่างๆ เช่น IoT สำหรับอุตสาหกรรม, 5G พร้อมด้วยระบบอัตโนมัติทั่วไปและยานพาหนะอัตโนมัติซึ่งเป็นปัจจัยขับเคลื่อน โดยข้อมูลจะถูกสร้างขึ้นไกลจากโครงสร้างพื้นฐานข้อมูลแบบรวมศูนย์ ซึ่งต้องมีการจัดการ ประมวลผล และแปลงเป็นข้อมูลอัจฉริยะอย่างรวดเร็ว ในส่วนที่จำเป็นต่อการใช้งาน

โดยคาดว่าสถาปัตยกรรมข้อมูลแบบใหม่ จะช่วยปรับปรุงประสิทธิภาพการจัดการข้อมูลทั้งหมด ซึ่ง Edge Computing ถูกมองว่าเป็นวิธีการหลักในการจัดการข้อมูลปริมาณมากที่ถูกสร้างขึ้นที่ Edge

หนึ่งในตัวอย่าง คือการวิจัยด้านจีโนมิกส์ ที่ทำให้เกิดปริมาณข้อมูลหลายเทราไบต์ในแต่ละวัน การส่งข้อมูลทั้งหมดไปยังศูนย์ข้อมูลส่วนกลางอาจจะช้า ต้องใช้แบนด์วิธสูง และไม่มีประสิทธิภาพ ซึ่งสถาบัน Wellcome Sanger Institute ได้สร้างแนวทางการประมวลผลที่เอดจ์ ช่วยให้ประมวลผลข้อมูลได้ใกล้กับจุดที่สร้างข้อมูล จีโนม ซีเควนเซอร์ โดยมีเพียงส่วนที่จำเป็นเท่านั้นที่จะอยู่ที่ส่วนกลาง ทำให้ช่วยประหยัดพื้นที่จัดเก็บ แบนด์วิธ และเปลี่ยนข้อมูลให้กลายเป็นความรู้ได้ในเวลารวดเร็ว นั่นคือแนวทางเรื่องเอดจ์ในความคิดเรา Simon Binley ผู้จัดการศูนย์ข้อมูลของ Sanger Institute กล่าว

ศูนย์ข้อมูลแบบโมดูลาร์ ศูนย์ข้อมูลขนาดเล็ก และการบริหารจัดการสตอเรจที่ดีขึ้น ทั้งหมดนี้มีส่วนช่วยรับมือกับกระแสที่กำลังพัฒนาได้อย่างมีประสิทธิภาพ ทำให้ใช้พลังงานของศูนย์ข้อมูลได้อย่างราบรื่นกระทั่งในอนาคต โดยในภูมิภาค ตะวันออกกลางและแอฟริกาตอนเหนือ (MENA region) นั้น เทคโนโลยี 5G และการรวมศูนย์ด้วยสถาปัตยกรรมเอดจ์จะสมดุลได้ด้วยสิ่งอำนวยความสะดวกระดับไฮเปอร์สเกลที่เชื่อมโยงกับศูนย์กลางที่เป็น demand center หลักมากขึ้น

เรื่องนี้จะส่งผลอย่างไรต่อระบบนิเวศข้อมูลทั้งหมด

อย่างไรก็ตาม ยังคงต้องขยายเรื่องของประสิทธิภาพไปสู่วงกว้าง ไม่ใช่แค่ในส่วนซัพพลายเชนเท่านั้น แต่รวมถึงวงจรชีวิตทั้งหมด โดยทั้งผู้ขาย ซัพพลายเออร์ และพันธมิตรทั้งหมดต้องเข้ามามีส่วนร่วม เพื่อให้แน่ใจว่าไม่มีส่วนใดในระบบนิเวศถูกทิ้งให้ล้าหลังในเรื่องของเครื่องมือที่ช่วยให้มั่นใจเรื่องประสิทธิภาพ เรื่องนี้นำไปประยุกต์ใช้กับเวลาในการออกแบบอุปกรณ์และการทำงาน ในส่วนชีวิตการทำงานก็เช่นกัน รวมไปถึงการเลิกใช้งาน การทำความเข้าใจว่าระบบนิเวศของธุรกิจทั้งหมดส่งผลกระทบต่อสิ่งแวดล้อมอย่างไร ซึ่งเป็นเรื่องสำคัญที่ช่วยให้บรรลุเป้าหมาย net zero ได้อย่างแท้จริง

มาตรฐาน ความโปร่งใส สามารถวัดผลได้ เหล่านี้คือองค์ประกอบสำคัญที่ช่วยให้มั่นใจในผลลัพธ์

ทั่วทุกภูมิภาคกำลังพิจารณาถึงองค์ประกอบเหล่านี้ พร้อมทั้งกำลังพยายามอย่างมากในการทำให้ทุกอย่างดีขึ้น ปัจจุบันเรื่องความโปร่งใสได้รับการยอมรับและตอบรับมากขึ้น หลายองค์กรมีการรายงานถึงความคืบหน้าในเรื่องนี้กันมากขึ้นเรื่อยๆ

การใช้เครื่องมือและกระบวนการร่วมกัน

ภาคศูนย์ข้อมูลยังเอื้อประโยชน์หลายอย่างต่อองค์กรและอุตสาหกรรมที่กำลังมุ่งไปบนเส้นทางแห่งความยั่งยืนโดยเพื่อให้ให้เกิดการหมุนเวียนมากขึ้น ด้วยประสบการณ์และความเชี่ยวชาญด้านประสิทธิภาพ ผสานรวมเครื่องมือและความรอบรู้ในการดำเนินงาน รวมถึงความมุ่งมั่นอย่างจริงจังต่อเป้าหมายที่หนักแน่นในการดำเนินการด้าน Net-Zero ทำให้ภาคศูนย์ข้อมูลนอกจากจะต้องรับมือกับการขยายตัวอย่างรวดเร็วของข้อมูล และความต้องการด้านดิจิทัลของโลกแล้ว ยังต้องรับมือกับเรื่องนี้ได้อย่างยั่งยืน อีกทั้งต้องมอบเครื่องมือและมุมมองเชิงลึกแก่ภาคส่วนอื่นๆ เพื่อให้ดำเนินการได้ในลักษณะเดียวกันด้วย