[ลดค่าไฟ] เบื้องหลังของปัญญาประดิษฐ์ (AI) นั้น คือการใช้ไฟฟ้าจำนวนมหาศาล ที่อาจส่งผลต่อสภาพแวดล้อมในอนาคต ปัจจุบันมีหลาย ๆ บริษัทที่เกี่ยวข้องกำลังหาทางลดการใช้พลังงานนี้อยู่ ล่าสุดพบหน่วยความจำใหม่ ช่วยลดการใช้พลังงานประมวลผล AI ได้ถึง 1,000 เท่า เป็นอย่างน้อย
กลุ่มนักวิจัยด้านวิศวกรรมศาสตร์จากมหาวิทยาลัยมินนิโซตา (University of Minnesota, Twin Cities) เผยเทคโนโลยีใหม่ Computational Random-Access Memory (CRAM) ช่วยให้ชิปหน่วยความจำหรือแรม มีพลังในการประมวลผลข้อมูลมากขึ้น ไม่ใช่แค่จัดเก็บข้อมูลเท่านั้น
แต่เดิมการประมวลผล AI ในปัจจุบัน จะมีการโอนถ่ายข้อมูลไปมาอย่างต่อเนื่อง ทำให้ต้องใช้พลังงานส่วนนี้อย่างมาก ทางนักวิจัยจึงหันมาใช้แรมแบบ CRAM ที่สามารถวางพื้นผิวการคำนวณในหน่วยความจำแบบสปินทรอนิกส์ได้ด้วยตัวเอง
ง่าย ๆ คือตัวหน่วยความจำนี้ จะช่วยประมวลผล AI ด้วย ไม่ใช่แค่จัดเก็บข้อมูล ทำให้มีศักยภาพในการประหยัดพลังงานที่มากขึ้น ระดับที่ดีกว่าการประมวลผลเดิมได้อย่างน้อย 1,000 เท่า ทั้งนี้ในการทดสอบกับ MNIST (Modified National Institute of Standards and Technology) หรือชุดข้อมูลลายมือเขียนตัวเลข ตัวแรมแบบ CRAM ก็ช่วยให้ประหยัดพลังงานได้มากกว่า 2,500 เท่า และยังเร็วกว่าด้วย
ปัญหาการกินไฟ AI นั้น ถามว่ามากขนาดไหน รายงานในปี 2021 พบมีเวิร์กโหลด AI กินไฟเกือบเท่ากับที่ประเทศไซปรัสใช้ทั้งประเทศ ในปี 2023 ก็พบว่าใช้พลังงานทั้งหมดถึง 4.3 กิกะวัตต์ (GW) และอาจมากขึ้น 26 – 36% ทางด้าน Rene Haas ซีอีโอของ ARM เผยภายในปี 2030 อาจต้องใช้พลังงานไฟฟ้าที่ผลิตในสหรัฐฯ ถึง 1 ใน 4 เพื่อประมวลผล AI ที่มีความต้องการมากขึ้นนี้เอง ฉะนั้นปัญหาการกินไฟ AI จึงไม่เรื่องที่มองข้ามได้เลย
ที่มา : Tomshardware