11 พฤษภาคม 2569
SHADOW AI

คุณจรีพร จารุกรสกุล

ประธานคณะกรรมการบริหารและประธานเจ้าหน้าที่บริหารกลุ่ม

บริษัท ดับบลิวเอชเอ คอร์ปอเรชั่น จำกัด (มหาชน)

ปัจจุบัน “Shadow AI” กำลังกลายเป็นความท้าทายใหม่ของหลายองค์กรทั่วโลกในยุคที่ AI เข้ามาเปลี่ยนรูปแบบการทำงานอย่างสิ้นเชิง จากเดิมที่เป็นเพียงเครื่องมือเฉพาะทาง วันนี้พนักงานทุกระดับสามารถเข้าถึง Generative AI ได้อย่างง่ายดาย เพียงพิมพ์คำสั่งสั้น ๆ คล้ายการสนทนากับมนุษย์ ทำให้ AI ถูกใช้อย่างแพร่หลาย ไม่ว่าจะเป็นการสรุปเอกสาร แปลภาษา วิเคราะห์ข้อมูล หรือช่วยเขียนโค้ด อย่างไรก็ตาม เครื่องมือจำนวนมากที่พนักงานเลือกใช้อาจยังไม่ได้ผ่านการกำกับดูแลจากองค์กร จนเกิดสิ่งที่เรียกว่า “Shadow AI” หรือการใช้ AI นอกกรอบการควบคุมขององค์กร

ปัจจัยสำคัญที่ทำให้ Shadow AI เติบโตอย่างรวดเร็ว คือความง่ายในการเข้าถึงและประสิทธิภาพของ Generative AI โดยเฉพาะความสามารถในการย่นระยะเวลาทำงานจากหลักชั่วโมงเหลือเพียงไม่กี่นาที พนักงานจำนวนมากจึงเริ่มนำ AI มาใช้เพื่อเพิ่มประสิทธิภาพการทำงานอย่างต่อเนื่อง โดยผลสำรวจของ Salesforce พบว่า พนักงานเชื่อว่า Generative AI สามารถช่วยประหยัดเวลาได้เฉลี่ยประมาณ 5 ชั่วโมงต่อสัปดาห์ และกว่า 65% มองว่า AI ช่วยให้มีเวลามากขึ้นสำหรับงานเชิงกลยุทธ์ แนวโน้มดังกล่าวทำให้องค์กรจำนวนมากเผชิญสถานการณ์ที่การใช้งาน AI ขยายตัวเร็วกว่ากระบวนการกำกับดูแลภายใน ส่งผลให้พนักงานบางส่วนเริ่มใช้งาน AI ผ่านบัญชีส่วนตัวหรือแพลตฟอร์มสาธารณะโดยที่องค์กรไม่สามารถมองเห็นหรือควบคุมได้ทั้งหมด

แม้ว่า AI จะช่วยเพิ่มประสิทธิภาพในการทำงาน แต่ในอีกมุมหนึ่งก็มาพร้อมความเสี่ยงในหลายมิติ หากไม่มีการบริหารจัดการที่เหมาะสม ทั้งด้านความปลอดภัยของข้อมูล ความลับทางธุรกิจ และการปฏิบัติตามกฎหมายคุ้มครองข้อมูลส่วนบุคคล หากพนักงานนำข้อมูลภายใน เช่น เอกสารลูกค้า แผนธุรกิจ หรือข้อมูลเชิงกลยุทธ์ ไปใช้งานผ่าน AI สาธารณะที่องค์กรไม่สามารถควบคุมได้ว่าข้อมูลเหล่านั้นจะถูกจัดเก็บหรือถูกนำไปใช้อย่างไร กรณีของ Samsung ถือเป็นตัวอย่างสำคัญ เมื่อเกิดเหตุข้อมูลลับรั่วไหลเข้าสู่ ChatGPT จากการใช้งานของพนักงานในปี 2023 จนบริษัทต้องออกมาตรการจำกัดการใช้งานภายในชั่วคราว เหตุการณ์ดังกล่าวทำให้หลายองค์กรทั่วโลกเริ่มตระหนักถึงประเด็นด้านการกำกับดูแลอย่างจริงจัง นอกจากนี้ AI ยังมีข้อจำกัดด้านความถูกต้องของผลลัพธ์ จากการสร้างข้อมูลที่ผิดแต่ดูน่าเชื่อถือซึ่งอาจนำไปสู่การตัดสินใจที่คลาดเคลื่อนได้หากไม่มีมนุษย์ตรวจสอบก่อนนำไปใช้งานจริง

อย่างไรก็ตาม แนวทางรับมืออาจไม่ใช่การห้ามใช้อย่างเด็ดขาด แต่สิ่งสำคัญคือการสร้างสมดุลระหว่าง “นวัตกรรม” และ “การกำกับดูแล” โดยองค์กรจำเป็นต้องลงทุนด้าน AI Literacy เพื่อให้พนักงานเข้าใจว่า AI สามารถใช้กับงานประเภทใดได้บ้าง ข้อมูลแบบใดไม่ควรถูกนำเข้า AI สาธารณะ รวมถึงเข้าใจข้อจำกัดและความเสี่ยงของเทคโนโลยี ขณะเดียวกัน องค์กรควรมีนโยบายการใช้งานที่ชัดเจน ทั้งการระบุเครื่องมือที่ได้รับอนุญาต การจัดระดับความลับของข้อมูล และการจัดหา  AI Platform สำหรับองค์กรที่มีมาตรฐานด้านความปลอดภัยและการกำกับดูแลที่เหมาะสม นอกจากนี้ หลายองค์กรเริ่มนำแนวคิด AI Sandbox หรือสภาพแวดล้อมสำหรับทดลองใช้งาน AI อย่างปลอดภัยมาใช้ เพื่อเปิดพื้นที่ให้พนักงานสร้างนวัตกรรมโดยไม่เพิ่มความเสี่ยงต่อข้อมูลสำคัญขององค์กร

ท้ายที่สุดแล้ว Shadow AI อาจไม่ใช่ภัยคุกคาม แต่เป็นสัญญาณสะท้อนว่า AI ได้กลายเป็นเครื่องมือสำคัญของคนทำงานยุคใหม่ องค์กรที่ประสบความสำเร็จในอนาคตอาจไม่ใช่องค์กรที่มีเทคโนโลยีล้ำหน้าที่สุด แต่คือองค์กรที่สามารถสร้างวัฒนธรรมการใช้งานเทคโนโลยีได้อย่างมีประสิทธิภาพ ปลอดภัย และมีธรรมาภิบาล หากสามารถบริหารได้อย่างสมดุล Shadow AI ก็อาจเปลี่ยนจากความเสี่ยงที่มองไม่เห็น ให้กลายเป็นโอกาสในการยกระดับศักยภาพขององค์กรและสร้างความสามารถในการแข่งขันในโลกที่ขับเคลื่อนด้วย AI ได้อย่างแท้จริง