ความเสี่ยงด้านความปลอดภัยที่ซ่อนอยู่ของ Shadow AI ในองค์กร

ในยุคที่เครื่องมือ AI เข้าถึงได้ง่ายขึ้น พนักงานหลายคนเริ่มนำมาใช้โดยไม่ผ่านการอนุมัติจากทีม IT และความปลอดภัย แม้เครื่องมือเหล่านี้จะช่วยเพิ่มประสิทธิภาพการทำงาน แต่ก็มักทำงานนอกสายตาของทีมรักษาความปลอดภัย สร้างช่องโหว่ใหม่ที่เรียกว่า Shadow AI ซึ่งต่างจาก Shadow IT ตรงที่เกี่ยวข้องกับระบบที่ประมวลผล สร้าง และอาจเก็บข้อมูลสำคัญไว้ ทำให้เกิดความเสี่ยงด้านการรั่วไหลของข้อมูล การขยายพื้นที่โจมตี และความอ่อนแอในการรักษาความปลอดภัยตัวตน
Shadow AI แพร่กระจายอย่างรวดเร็วเพราะใช้งานง่ายและได้ผลทันที โดยไม่มีการควบคุมที่ชัดเจน จากการสำรวจของ Salesforce ในปี 2024 พบว่า 55% ของพนักงานใช้เครื่องมือ AI ที่องค์กรไม่ได้อนุมัติ พนักงานอาจใช้เครื่องมือเช่น ChatGPT หรือ Claude ในงานประจำ ซึ่งอาจนำไปสู่การแบ่งปันข้อมูลสำคัญโดยขาดการตรวจสอบ ในระดับแผนก การผสานรวม AI API หรือโมเดลจากภายนอกโดยไม่ผ่านการทบทวนความปลอดภัย อาจเปิดเผยข้อมูลภายในและสร้างช่องโจมตีใหม่ องค์กรจึงต้องจัดการความเสี่ยงนี้อย่างจริงจังแทนที่จะพยายามกำจัดให้หมดไป
ที่มา: The Hacker News
คำศัพท์เทคนิคที่น่าสนใจ
- Shadow AI – การใช้เครื่องมือ AI โดยไม่ผ่านการอนุมัติจากทีม IT และความปลอดภัยขององค์กร
- Shadow IT – การใช้ซอฟต์แวร์หรือบริการ IT โดยไม่ได้รับอนุญาตจากองค์กร
- API – อินเทอร์เฟซที่ช่วยให้แอปพลิเคชันสื่อสารกันได้
- Data leak – การรั่วไหลของข้อมูลสำคัญออกนอกองค์กร
- Attack surface – พื้นที่ที่อาจถูกโจมตีในระบบขององค์กร