03/67 (IT) ประจำวันศุกร์ที่ 3 มกราคม 2568
กำลังกลายเป็นจุดสนใจสำคัญขององค์กรทั่วโลกในปี 2025 ซึ่งนักวิเคราะห์เชื่อว่าความพยายามในการใช้ปัญญาประดิษฐ์แบบรู้สร้าง (Generative artificial intelligence : GenAI) และโมเดลภาษาขนาดใหญ่ (Large Language Model : LLM) จะเข้ามาช่วยเพิ่มประสิทธิภาพการทำงานและเพิ่มผลผลิตอย่างมาก แต่ขณะเดียวกันก็สร้างความท้าทายใหม่ในด้านความปลอดภัย ความเป็นส่วนตัว และการกำกับดูแลการใช้งานเป็นอย่างมาก โดย 6 แนวโน้มความเสี่ยงด้านความปลอดภัยที่เกี่ยวข้องกับ AI มีดังนี้
1. AI นั้นจะช่วยพัฒนาและเร่งการใช้งานซอฟต์แวร์ จากการสำรวจผู้เชี่ยวชาญด้านไอที จำนวน 1,700 คน พบว่า 81% ขององค์กรเริ่มนำ AI เข้ามาช่วยในการพัฒนาและเขียนโค้ด โดยมีแผนสร้างแอปพลิเคชันใหม่อย่างน้อย 10 แอปใน 12 เดือนข้างหน้า แต่การพัฒนานี้ยังมาพร้อมกับความเสี่ยง เช่น การสร้างโค้ดที่มีช่องโหว่ การเปิดเผยข้อมูล และมาตรฐานความปลอดภัยที่อาจไม่เพียงพอ
2. xOps เป็นศัพท์และแนวทางใหม่ของการบริหารจัดการระบบ AI โดยแนวทาง xOps จะระบุข้อกำหนดของ DevOps เมื่อสร้างแอปพลิเคชันที่ใช้ประโยชน์จากโมเดลภายในองค์กร ที่เป็นการบูรณาการของ DevSecOps, DataOps และ ModelOps กำลังเป็นที่จับตามอง โซลูชันนี้มุ่งเน้นการจัดการวงจรชีวิตของแอปพลิเคชันที่ใช้ AI อย่างครอบคลุม เพื่อรับรองความปลอดภัยและคุณภาพของระบบ แต่แนวโน้มนี้อาจเพิ่มแรงกดดันต่อทีมพัฒนาและฝ่ายตรวจสอบคุณภาพ
3. Shadow AI เป็นความเสี่ยงใหม่ของเครื่องมือ AI ที่ไม่ได้รับการควบคุม ปัญหา Shadow AI หรือการใช้ AI โดยไม่ได้รับอนุญาตในองค์กรเพิ่มขึ้นอย่างรวดเร็ว เช่น การใช้แชทบอทที่ไม่ได้รับการจัดการ อาจทำให้เกิดการรั่วไหลของข้อมูลที่สำคัญ โดยผู้เชี่ยวชาญคาดการณ์ว่าปัญหานี้จะรุนแรงยิ่งขึ้นในปีหน้า หากไม่มีการตรวจสอบและควบคุมที่เหมาะสม
4. AI ต้องเป็นตัวเสริม ไม่นมาแทนที่ทักษะของมนุษย์ ซึ่ง AI นั้นช่วยจัดการข้อมูลขนาดใหญ่และงานซ้ำ ๆ ได้ดี แต่ยังต้องการการวิเคราะห์จากมนุษย์เพื่อระบุภัยคุกคามที่ซับซ้อน การผสมผสานระหว่างเทคโนโลยี AI กับทักษะการคิดวิเคราะห์ของมนุษย์จึงยังเป็นสิ่งสำคัญ
5. AI ในมือผู้โจมตี เป็นความท้าทายที่ต้องระวัง ผู้ก่อภัยคุกคามเริ่มใช้ AI เพื่อสร้างโค้ดโจมตีอัตโนมัติ โดยเฉพาะในซอฟต์แวร์โอเพนซอร์ส ซึ่งอาจนำไปสู่การโจมตีแบบ Zero-day ที่ซับซ้อนยิ่งขึ้น องค์กรจำเป็นต้องพัฒนากลยุทธ์ความปลอดภัยให้ทัดเทียมความก้าวหน้าของภัยคุกคาม
6. การกำกับดูแลโดยมนุษย์ยังคงเป็นหัวใจสำคัญ แม้ AI จะก้าวหน้ามากขึ้น แต่ความไว้วางใจต่อระบบยังมีข้อจำกัด การตรวจสอบและกำกับดูแลโดยมนุษย์ รวมถึงการพัฒนากรอบจริยธรรมสำหรับการใช้งาน AI จะมีบทบาทสำคัญในการลดความเสี่ยงและสร้างความมั่นใจให้กับองค์กร
บทบาทของ AI ในปีหน้าจะไม่เพียงแค่สร้างความเปลี่ยนแปลงในเชิงบวก แต่ยังเปิดประเด็นความเสี่ยงที่ซับซ้อนมากขึ้น องค์กรที่ต้องการใช้ AI ให้เกิดประโยชน์สูงสุดจำเป็นต้องเตรียมความพร้อมทั้งในด้านเทคโนโลยีและการบริหารจัดการอย่างรอบด้าน
แหล่งข่าว https://www.darkreading.com/cyber-risk/6-ai-related-security-trends-watch-2025