แมชชีนเลิร์นนิงของฝ่ายตรงข้าม: แนวคิด ประเภทของการโจมตี กลยุทธ์และการป้องกัน

เผยแพร่แล้ว: 2021-05-02

ความก้าวหน้าแบบทวีคูณของทศวรรษที่ผ่านมาได้ขับเคลื่อนความก้าวหน้าทางเทคโนโลยีสมัยใหม่ในโลกปัจจุบัน ขณะนี้เราเป็นส่วนหนึ่งของ 'Industry 4.0' ที่กำลังดำเนินอยู่ ซึ่งเป็นศูนย์กลางของเทคโนโลยี เช่น AI และ ML การปฏิวัติอุตสาหกรรมนี้เกี่ยวข้องกับการเปลี่ยนแปลงระดับโลกไปสู่การวิจัยทางวิทยาศาสตร์และนวัตกรรมในเทคโนโลยีของโครงข่ายประสาทเทียม การเรียนรู้ของเครื่อง และปัญญาประดิษฐ์, IoT, การแปลงเป็นดิจิทัล และอื่นๆ อีกมากมาย

พวกเขาให้ประโยชน์มากมายแก่เราในภาคส่วนต่างๆ เช่น อีคอมเมิร์ซ การผลิต ความยั่งยืน การจัดการห่วงโซ่อุปทาน ฯลฯ ตลาดโลกสำหรับ AI/ML คาดว่าจะเกิน 266.92 พันล้านดอลลาร์สหรัฐภายในปี 2570 และยังคงเป็นทางเลือกอาชีพที่ต้องการ สำหรับผู้สำเร็จการศึกษาทุกที่

ในขณะที่การปรับตัวของเทคโนโลยีเหล่านี้กำลังปูทางไปสู่อนาคต เราไม่ได้เตรียมพร้อมสำหรับเหตุการณ์ต่างๆ เช่น การโจมตีจาก Adversarial Machine Learning (AML) ระบบแมชชีนเลิร์นนิงที่ออกแบบโดยใช้ภาษาเขียนโค้ด เช่น SML, OCaml, F# เป็นต้น อาศัยโค้ดที่ตั้งโปรแกรมได้ซึ่งรวมเข้ากับระบบทั้งหมด

เรียนรู้แมชชีนเลิ ร์นนิง ออนไลน์จากมหาวิทยาลัยชั้นนำของโลก – ปริญญาโท หลักสูตร Executive Post Graduate และหลักสูตรประกาศนียบัตรขั้นสูงใน ML & AI เพื่อติดตามอาชีพของคุณอย่างรวดเร็ว

การโจมตี AML ภายนอกที่ดำเนินการโดยแฮ็กเกอร์ที่มีประสบการณ์เป็นภัยคุกคามต่อความสมบูรณ์และความถูกต้องของระบบ ML เหล่านี้ การปรับเปลี่ยนชุดข้อมูลที่ป้อนเข้าเล็กน้อยอาจทำให้อัลกอริทึม ML จัดประเภทฟีดไม่ถูกต้อง และทำให้ความน่าเชื่อถือของระบบเหล่านี้ลดลง

เพื่อให้ตัวคุณเองมีทรัพยากรที่เหมาะสมสำหรับการออกแบบระบบที่สามารถทนต่อการโจมตี AML ดังกล่าวได้ ลงทะเบียนใน PG Diploma in Machine Learning ที่นำเสนอโดย upGrad และ IIIT Bangalore

สารบัญ

แนวคิดที่เน้นการเรียนรู้ของเครื่องของฝ่ายตรงข้าม

ก่อนที่เราจะเจาะลึกในหัวข้อของ AML ให้เราสร้างคำจำกัดความของแนวคิดพื้นฐานบางอย่างของโดเมนนี้:

  • ปัญญา ประดิษฐ์ หมายถึงความสามารถของระบบคอมพิวเตอร์ในการดำเนินการตามตรรกะ การวางแผน การแก้ปัญหา การจำลอง หรืองานประเภทอื่นๆ AI เลียนแบบความฉลาดของมนุษย์เนื่องจากข้อมูลที่ป้อนโดยใช้เทคนิคการเรียนรู้ของเครื่อง
  • การเรียนรู้ ของ เครื่อง ใช้อัลกอริธึมและแบบจำลองทางสถิติที่กำหนดไว้อย่างดีสำหรับระบบคอมพิวเตอร์ ซึ่งต้องอาศัยการปฏิบัติงานตามรูปแบบและการอนุมาน ออกแบบมาเพื่อดำเนินงานเหล่านี้โดยไม่มีคำแนะนำที่ชัดเจน และใช้ข้อมูลที่กำหนดไว้ล่วงหน้าจากโครงข่ายประสาทเทียมแทน
  • โครงข่ายประสาทเทียม ได้รับแรงบันดาลใจจากการทำงานทางชีววิทยาของเซลล์ประสาทในสมอง ซึ่งใช้สำหรับการเขียนโปรแกรมข้อมูลเชิงสังเกตอย่างเป็นระบบในรูปแบบการเรียนรู้เชิงลึก ข้อมูลที่ตั้งโปรแกรมไว้นี้จะช่วยถอดรหัส แยกแยะ และประมวลผลข้อมูลที่ป้อนเข้าเป็นข้อมูลที่เข้ารหัสเพื่ออำนวยความสะดวกในการเรียนรู้เชิงลึก
  • การเรียนรู้เชิงลึก ใช้โครงข่ายประสาทเทียมหลายเครือข่ายและเทคนิค ML เพื่อประมวลผลข้อมูลที่ไม่มีโครงสร้างและป้อนข้อมูลดิบให้เป็นคำสั่งที่กำหนดไว้อย่างดี คำแนะนำเหล่านี้อำนวยความสะดวกในการสร้างอัลกอริธึมแบบหลายชั้นโดยอัตโนมัติผ่านการเป็นตัวแทน/การเรียนรู้คุณลักษณะในลักษณะที่ไม่ได้รับการดูแล
  • Adversarial Machine Learning เป็นเทคนิค ML ที่ไม่เหมือนใครซึ่งจัดหาอินพุตที่หลอกลวงเพื่อทำให้เกิดการทำงานผิดพลาดภายในโมเดล Machine Learning Adversarial Machine Learning ใช้ประโยชน์จากช่องโหว่ภายในข้อมูลการทดสอบของอัลกอริธึม ML ที่แท้จริงซึ่งประกอบขึ้นเป็นโครงข่ายประสาทเทียม การโจมตี AML สามารถประนีประนอมผลลัพธ์ที่เป็นผลลัพธ์และเป็นภัยคุกคามโดยตรงต่อประโยชน์ของระบบ ML

หากต้องการเรียนรู้แนวคิดหลักของ ML เช่น Adversarial Machine Learning ให้ลงทะเบียนในเชิงลึกสำหรับ Masters of Science (M.Sc) ใน Machine Learning & AI จาก upGrad

ประเภทของการโจมตี AML

การโจมตีของ Adversarial Machine Learning ถูกจัดประเภทตามวิธีการสามประเภท

พวกเขาเป็น:

1. อิทธิพลต่อลักษณนาม

ระบบการเรียนรู้ของเครื่องจะจำแนกข้อมูลที่ป้อนเข้าตามตัวแยกประเภท หากผู้โจมตีสามารถขัดขวางเฟสการจัดหมวดหมู่โดยการปรับเปลี่ยนตัวแยกประเภท อาจทำให้ระบบ ML สูญเสียความน่าเชื่อถือ เนื่องจากตัวแยกประเภทเหล่านี้เป็นส่วนสำคัญในการระบุข้อมูล การดัดแปลงกลไกการจัดหมวดหมู่สามารถเปิดเผยช่องโหว่ที่ AML สามารถใช้ประโยชน์ได้

2. การละเมิดความปลอดภัย

ในระหว่างขั้นตอนการเรียนรู้ของระบบ ML โปรแกรมเมอร์จะกำหนดข้อมูลที่จะถือว่าถูกต้องตามกฎหมาย หากข้อมูลที่ป้อนเข้าที่ถูกต้องถูกระบุอย่างไม่เหมาะสมว่าเป็นอันตราย หรือหากมีการระบุข้อมูลที่เป็นอันตรายเป็นข้อมูลป้อนเข้าระหว่างการโจมตี AML การปฏิเสธอาจเรียกได้ว่าเป็นการละเมิดความปลอดภัย

3. ความจำเพาะ

ในขณะที่การโจมตีแบบเจาะจงเป้าหมายอนุญาตให้มีการบุกรุก/การรบกวนที่เฉพาะเจาะจง การโจมตีตามอำเภอใจจะเพิ่มการสุ่มภายในข้อมูลอินพุต และสร้างการหยุดชะงักผ่านประสิทธิภาพที่ลดลง/ความล้มเหลวในการจำแนกประเภท

การโจมตี AML และประเภทของการโจมตีนั้นแยกจากแนวคิดของโดเมน Machine Learning เนื่องจากความต้องการระบบ ML ที่เพิ่มขึ้น ทำให้มีตำแหน่งงานว่างเกือบ 2.3 ล้านตำแหน่งสำหรับวิศวกร ML และ AI ตาม Gartner [2] คุณสามารถอ่านเพิ่มเติมเกี่ยวกับวิธีที่ Machine Learning Engineering สามารถเป็นอาชีพที่คุ้มค่าในปี 2021 ได้

กลยุทธ์การเรียนรู้ของเครื่องของฝ่ายตรงข้าม

เพื่อกำหนดเป้าหมายของปฏิปักษ์เพิ่มเติม ความรู้เดิมเกี่ยวกับระบบที่จะถูกโจมตีและระดับของการจัดการที่เป็นไปได้ของส่วนประกอบข้อมูลสามารถช่วยในการกำหนด กลยุทธ์ Adversarial Machine Learning

พวกเขาเป็น:

1. การหลบหลีก

อัลกอริธึม ML ระบุและจัดเรียงชุดข้อมูลอินพุตตามเงื่อนไขที่กำหนดไว้ล่วงหน้าและพารามิเตอร์ที่คำนวณได้ ประเภทการหลีกเลี่ยงของการโจมตี AML มีแนวโน้มที่จะหลีกเลี่ยงพารามิเตอร์เหล่านี้ที่ใช้โดยอัลกอริทึมเพื่อตรวจจับการโจมตี สิ่งนี้ดำเนินการโดยการปรับเปลี่ยนตัวอย่างในลักษณะที่สามารถหลีกเลี่ยงการตรวจจับและจัดประเภทผิดว่าเป็นข้อมูลที่ถูกต้อง

พวกเขาไม่ได้แก้ไขอัลกอริทึม แต่แทนที่จะปลอมแปลงอินพุตด้วยวิธีการต่างๆ เพื่อหลีกเลี่ยงกลไกการตรวจจับ ตัวอย่างเช่น ตัวกรองป้องกันสแปมที่วิเคราะห์ข้อความในอีเมลจะถูกหลีกเลี่ยงด้วยการใช้รูปภาพที่มีข้อความโค้ด/ลิงก์มัลแวร์ฝังอยู่

2. การสกัดแบบจำลอง

ยังเป็นที่รู้จักกันในนาม 'การขโมยแบบจำลอง'; การโจมตี AML ประเภทนี้ดำเนินการบนระบบ ML เพื่อดึงข้อมูลการฝึกอบรมเบื้องต้นที่ใช้สำหรับการสร้างระบบ การโจมตีเหล่านี้สามารถสร้างแบบจำลองของระบบ Machine Learning ขึ้นมาใหม่ได้ ซึ่งอาจทำให้ประสิทธิภาพลดลง หากระบบเก็บข้อมูลที่เป็นความลับ หรือหากลักษณะของ ML เป็นกรรมสิทธิ์/มีความละเอียดอ่อน ผู้โจมตีอาจใช้มันเพื่อประโยชน์ของตนหรือขัดขวางข้อมูลดังกล่าว

3. พิษ

การโจมตี ของ Adversarial Machine Learning ประเภทนี้ เกี่ยวข้องกับการหยุดชะงักของข้อมูลการฝึกอบรม เนื่องจากระบบ ML ได้รับการฝึกอบรมใหม่โดยใช้ข้อมูลที่รวบรวมระหว่างการดำเนินการ การปนเปื้อนใดๆ ที่เกิดจากการฉีดตัวอย่างข้อมูลที่เป็นอันตรายสามารถอำนวยความสะดวกในการโจมตี AML ได้ สำหรับข้อมูลที่เป็นพิษ ผู้โจมตีจำเป็นต้องเข้าถึงซอร์สโค้ดของ ML นั้นและฝึกใหม่ให้ยอมรับข้อมูลที่ไม่ถูกต้อง ซึ่งจะเป็นการขัดขวางการทำงานของระบบ

ความรู้ที่เหมาะสมเกี่ยวกับกลยุทธ์การโจมตีของ Adversarial Machine Learning สามารถช่วยให้โปรแกรมเมอร์สามารถหลีกเลี่ยงการโจมตีดังกล่าวระหว่างการทำงานได้ หากคุณต้องการการฝึกอบรมเชิงปฏิบัติสำหรับการออกแบบระบบ ML ที่สามารถต้านทานการโจมตี AML ได้ ให้ลงทะเบียนสำหรับ Master's in Machine Learning และ AI ที่นำเสนอโดย upGrad

ประเภทการโจมตีเฉพาะ

ประเภทการโจมตีเฉพาะที่สามารถกำหนดเป้าหมายระบบ Deep Learning ร่วมกับระบบ ML ทั่วไป เช่น การถดถอยเชิงเส้นและ 'เครื่องสนับสนุนเวกเตอร์' สามารถคุกคามความสมบูรณ์ของระบบเหล่านี้ พวกเขาเป็น:

  • ตัวอย่างที่เป็นปฏิปักษ์ เช่น FMCG, PGD, C&W และการโจมตีแบบแพทช์ ทำให้เครื่องจำแนกประเภทผิด เนื่องจากดูเหมือนปกติสำหรับผู้ใช้ 'เสียง' เฉพาะถูกใช้ภายในรหัสการโจมตีเพื่อทำให้ตัวแยกประเภททำงานผิดพลาด
  • การโจมตีแบบ Backdoor/Trojan ทำให้ระบบ ML ทำงานหนักเกินไปโดยการทิ้งระเบิดด้วยข้อมูลที่ไม่เกี่ยวข้องและทำซ้ำได้เอง ซึ่งป้องกันไม่ให้ระบบทำงานอย่างเหมาะสม การ โจมตีของ Adversarial Machine Learning นั้นยากต่อการป้องกัน เนื่องจากพวกมันใช้ประโยชน์จากช่องโหว่ที่มีอยู่ในเครื่อง
  • Model Inversion เขียนตัวแยกประเภทใหม่เพื่อให้ทำงานในลักษณะที่ตรงกันข้ามกับที่ตั้งใจไว้ การผกผันนี้ป้องกันไม่ให้เครื่องทำงานพื้นฐานเนื่องจากการเปลี่ยนแปลงที่ใช้กับรูปแบบการเรียนรู้โดยธรรมชาติ
  • Membership Inference Attacks (MIA) สามารถใช้กับ SL (การเรียนรู้ภายใต้การดูแล) และ GAN (Generative Adversarial Networks) การโจมตีเหล่านี้อาศัยความแตกต่างระหว่างชุดข้อมูลของข้อมูลการฝึกอบรมเบื้องต้นและตัวอย่างภายนอกที่ก่อให้เกิดภัยคุกคามต่อความเป็นส่วนตัว ด้วยการเข้าถึงกล่องดำและบันทึกข้อมูล โมเดลอนุมานสามารถคาดการณ์ได้ว่าตัวอย่างมีอยู่ในอินพุตการฝึกหรือไม่

เพื่อปกป้องระบบ ML จากการโจมตีประเภทนี้ โปรแกรมเมอร์และวิศวกรของ ML จะถูกนำไปใช้ใน MNC หลักทั้งหมด บรรษัทข้ามชาติของอินเดียที่โฮสต์ศูนย์ R&D ของพวกเขาเพื่อส่งเสริมนวัตกรรมในการเรียนรู้ของเครื่อง เสนอเงินเดือนตั้งแต่ 15 ถึง 20 แสนรูเปียห์ INR ต่อปี [3] หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับโดเมนนี้และรับเงินเดือนมหาศาลในฐานะวิศวกร ML ให้ลงทะเบียนในการ รับรองขั้นสูงในการเรียนรู้ของเครื่องและคลาวด์ ที่โฮสต์โดย upGrad และ IIT Madras

การป้องกัน AMLs

เพื่อป้องกันการโจมตีจาก Adversarial Machine Learning ผู้เชี่ยวชาญแนะนำว่าโปรแกรมเมอร์ใช้วิธีการหลายขั้นตอน ขั้นตอนเหล่านี้จะใช้เป็นมาตรการตอบโต้การโจมตี AML แบบเดิมที่อธิบายไว้ข้างต้น ขั้นตอนเหล่านี้คือ:

  • การจำลอง : การจำลองการโจมตีตามกลยุทธ์การโจมตีที่เป็นไปได้ของผู้โจมตีสามารถเปิดเผยช่องโหว่ได้ การระบุตัวตนผ่านการจำลองเหล่านี้สามารถป้องกันการโจมตี AML ไม่ให้มีผลกระทบต่อระบบ
  • การ สร้างแบบจำลอง: การประมาณความสามารถและเป้าหมายที่เป็นไปได้ของผู้โจมตีสามารถให้โอกาสในการป้องกันการโจมตี AML ซึ่งทำได้โดยการสร้างแบบจำลองต่างๆ ของระบบ ML เดียวกันที่สามารถต้านทานการโจมตีเหล่านี้ได้
  • การประเมินผลกระทบ: การป้องกันประเภทนี้จะประเมินผลกระทบทั้งหมดที่ผู้โจมตีสามารถมีต่อระบบได้ ดังนั้นจึงมั่นใจได้ว่ามีการเตรียมพร้อมในกรณีของการโจมตีดังกล่าว
  • การฟอกข้อมูล : โดยการแก้ไขข้อมูลที่ดึงมาจากผู้โจมตี การป้องกันประเภทนี้สามารถทำให้การโจมตีไม่มีจุดหมาย เมื่อแบบจำลองที่แยกออกมามีความคลาดเคลื่อนที่วางโดยเจตนา ผู้โจมตีไม่สามารถสร้างแบบจำลองที่ถูกขโมยขึ้นใหม่ได้

ตัวอย่างของ AMLs

โดเมนต่างๆ ภายในเทคโนโลยีสมัยใหม่ของเราอยู่ภายใต้การคุกคามของ การ โจมตี จาก Adversarial Machine Learning โดยตรง เนื่องจากเทคโนโลยีเหล่านี้อาศัยระบบ ML ที่ตั้งโปรแกรมไว้ล่วงหน้า บุคคลที่มีเจตนาร้ายจึงสามารถใช้ประโยชน์ได้ ตัวอย่างทั่วไปของการโจมตี AML ได้แก่:

1. การกรองสแปม: โดยจงใจสะกดคำว่า 'ไม่ดี' ซึ่งระบุสแปมหรือการเพิ่มคำ 'ดี' ที่ป้องกันไม่ให้ระบุตัวตน

2. ความปลอดภัยของคอมพิวเตอร์ : โดยการซ่อนรหัสมัลแวร์ภายในข้อมูลคุกกี้หรือทำให้ลายเซ็นดิจิทัลเข้าใจผิดเพื่อหลีกเลี่ยงการตรวจสอบความปลอดภัย

3. ไบโอเมตริกซ์: โดยการปลอมแปลงลักษณะไบโอเมตริกซ์ที่แปลงเป็นข้อมูลดิจิทัลเพื่อวัตถุประสงค์ในการระบุตัวตน

บทสรุป

ในขณะที่สาขาของ Machine Learning และ Artificial Intelligence มีการขยายตัวอย่างต่อเนื่อง แอปพลิเคชันของพวกเขาก็เพิ่มขึ้นในภาคส่วนต่างๆ เช่น ระบบอัตโนมัติ โครงข่ายประสาทเทียม และความปลอดภัยของข้อมูล แมชชีนเลิร์นนิงของฝ่ายตรงข้าม จะมีความสำคัญเสมอสำหรับจุดประสงค์ทางจริยธรรมในการปกป้องระบบ ML และรักษาความสมบูรณ์ของระบบ

หากคุณสนใจที่จะทราบข้อมูลเพิ่มเติมเกี่ยวกับแมชชีนเลิร์นนิง โปรดดูโปรแกรม Executive PG ในแมชชีนเลิร์นนิงและโปรแกรม AI ซึ่งออกแบบมาสำหรับมืออาชีพด้านการทำงานและมีกรณีศึกษาและการมอบหมายมากกว่า 30 รายการ เซสชันการให้คำปรึกษาในอุตสาหกรรมมากกว่า 25 รายการ ภาคปฏิบัติมากกว่า 5 รายการ โครงการสำคัญ การฝึกอบรมอย่างเข้มงวดมากกว่า 450 ชั่วโมงและความช่วยเหลือในการจัดหางานกับบริษัทชั้นนำ

การโจมตีของ Adversarial เป็นอันตรายต่อความปลอดภัยในโลกไซเบอร์หรือไม่?

ความปลอดภัยทางไซเบอร์เป็นสิ่งสำคัญในยุคดิจิทัล นอกจากนี้ยังเปราะบางเนื่องจากสามารถยับยั้งการคุกคามต่อโครงสร้างและหน้าที่ของมันได้ หากไม่ได้รับการปกป้อง IoT จะเสี่ยงต่อการขโมยความเป็นส่วนตัว ความเสียหาย และการใช้งานในทางที่ผิด การโจมตีจากฝ่ายตรงข้ามสามารถเกิดขึ้นได้เมื่อพารามิเตอร์ที่กำหนดโดยอัลกอริธึมถูกหลีกเลี่ยงโดยการจัดประเภทการโจมตีที่เข้ามาเป็นข้อมูลอินพุตผิดพลาด นี่เป็นเพียงวิธีหนึ่งในการละเมิดระบบการเรียนรู้ของเครื่อง ด้วยจำนวนการโจมตีของฝ่ายตรงข้ามที่เพิ่มขึ้นในอัลกอริธึมการเรียนรู้ของเครื่อง ความปลอดภัยและประสิทธิภาพของการรักษาความปลอดภัยทางไซเบอร์จึงถูกบุกรุก Adversarial Machine Learning ได้รับการพัฒนาเพื่อจัดการกับภัยคุกคามเหล่านี้

ระบบแมชชีนเลิร์นนิ่งมีความเสี่ยงอย่างไร?

ระบบการเรียนรู้ของเครื่องจะต้องแข็งแกร่งในโครงสร้างจึงจะเชื่อถือได้ ในช่วงไม่กี่ปีที่ผ่านมามีการโจมตีที่ประสงค์ร้ายจำนวนมากบนระบบเหล่านี้ การโจมตีของฝ่ายตรงข้ามจะฝ่าฝืนแนวป้องกันของระบบเหล่านี้ สิ่งนี้เกิดขึ้นผ่านการทำซ้ำแบบจำลองและการเปลี่ยนแปลงข้อมูลการฝึกเบื้องต้น การหลอกลวงพารามิเตอร์ของอัลกอริทึม หรือการฝึกข้อมูลที่มีอยู่ใหม่เพื่อมองข้ามการโจมตีที่เข้ามา การโจมตีของฝ่ายตรงข้ามเหล่านี้สามารถละเมิดพารามิเตอร์ทางจริยธรรมและจัดการระบบเพื่อดำเนินการฟังก์ชันที่ไม่ได้รับอนุญาต การป้องกันแมชชีนเลิร์นนิงของฝ่ายตรงข้ามใช้เพื่อระบุการโจมตีของมัลแวร์ที่บุกรุกและคืนค่าความสมบูรณ์ของระบบ

กลยุทธ์ใดที่ใช้ต่อสู้กับการโจมตีของฝ่ายตรงข้าม

การโจมตีของฝ่ายตรงข้ามอาจมีตั้งแต่การละเมิดข้อมูลไปจนถึงการจัดการระบบทั้งหมด พวกมันแพร่หลายและสามารถแพร่กระจายไปทั่วระบบได้อย่างรวดเร็วหากผู้โจมตีมีการเข้าถึงอัลกอริธึมของระบบอย่างแน่นหนา ตัวอย่างคือการกรองสแปม โดยคำมีโครงสร้างเพื่อให้อัลกอริธึมไม่สามารถตรวจพบว่าเป็นสแปม การใช้ Adversarial Machine Learning ทำให้โปรแกรมเมอร์ใช้มาตรการป้องกันการโจมตีเหล่านี้ พวกเขาพยายามจำลองการโจมตีโดยแสดงภาพกลยุทธ์ของผู้โจมตี จดจำรูปแบบการบุกรุก และระบุช่องโหว่ พวกเขาใช้ข้อมูลเชิงลึกเหล่านี้เพื่อปกป้องระบบจากการละเมิดเพิ่มเติม การทดสอบขอบเขตทักษะและความสามารถของผู้โจมตีสามารถช่วยในการปรับเปลี่ยนและปกป้องระบบ