การกำจัดคุณลักษณะแบบเรียกซ้ำ: มันคืออะไรและเหตุใดจึงสำคัญ
เผยแพร่แล้ว: 2023-03-27ข้อมูลเป็นแกนหลักของการตัดสินใจสมัยใหม่ และธุรกิจมักจะมองหาวิธีดึงข้อมูลเชิงลึกอันมีค่าออกมา แมชชีนเลิร์นนิงเป็นหนึ่งใน เทคนิคทั่วไปที่ใช้ในองค์กร สำหรับการวิเคราะห์ข้อมูล ซึ่งเกี่ยวข้องกับการฝึกอบรมอัลกอริทึมเพื่อทำการคาดการณ์ตามข้อมูลในอดีต อย่างไรก็ตาม คุณลักษณะบางอย่างในชุดข้อมูลไม่ได้ถูกสร้างขึ้นมาอย่างเท่าเทียมกัน และคุณลักษณะบางอย่างอาจมีผลกระทบต่อประสิทธิภาพของแบบจำลองมากกว่าคุณลักษณะอื่นๆ
การกำจัดคุณลักษณะแบบเรียกซ้ำ เป็นเทคนิคการวิเคราะห์ข้อมูลที่นิยมใช้เพื่อระบุและกำจัดคุณลักษณะที่ไม่เกี่ยวข้องหรือซ้ำซ้อนออกจากชุดข้อมูล ปรับปรุงความแม่นยำและประสิทธิภาพของโมเดลแมชชีนเลิร์นนิง
รับ ใบรับรองการเรียนรู้ของเครื่อง จากมหาวิทยาลัยชั้นนำของโลก รับหลักสูตร Master, Executive PGP หรือ Advanced Certificate เพื่อความก้าวหน้าในอาชีพของคุณ
ในบทความนี้ เราจะสำรวจว่า การลบคุณลักษณะแบบเรียกซ้ำ คืออะไร ทำงานอย่างไร และเหตุใดจึงสำคัญสำหรับธุรกิจที่ต้องการดึงข้อมูลเชิงลึกที่มีความหมายจากข้อมูลของตน
สารบัญ
เทคนิคต่าง ๆ ในการเลือกคุณสมบัติคืออะไร?
การเลือกคุณลักษณะเป็นขั้นตอนสำคัญในการเรียนรู้ของเครื่องที่เกี่ยวข้องกับการเลือกแอตทริบิวต์ที่เกี่ยวข้องมากที่สุดจากชุดข้อมูลเพื่อสร้างแบบจำลองที่คาดการณ์ผลลัพธ์ได้อย่างแม่นยำ อย่างไรก็ตาม การเลือกคุณสมบัติที่เหมาะสมนั้นไม่ตรงไปตรงมาเสมอไป มีเทคนิคต่างๆ มากมาย แต่ละแบบมีจุดแข็งและจุดอ่อน ลองมาดูบางส่วนกัน!
วิธีการกรอง
วิธีการกรองเลือกคุณสมบัติที่สร้างขึ้นจากคุณสมบัติทางสถิติ เช่น ความสัมพันธ์กับตัวแปรเป้าหมายหรือความแปรปรวน วิธีการเหล่านี้มีประสิทธิภาพในการคำนวณและสามารถนำไปใช้ก่อนการฝึกโมเดล ตัวอย่างของวิธีการกรอง ได้แก่ การทดสอบไคสแควร์ การเลือกคุณลักษณะตามความสัมพันธ์ และเกณฑ์ความแปรปรวน
วิธีการห่อหุ้ม
วิธีการ Wrapper เลือกคุณสมบัติโดยประเมินประสิทธิภาพของโมเดลการเรียนรู้ของเครื่องด้วยคุณสมบัติย่อย วิธีการเหล่านี้มีราคาแพงในการคำนวณ แต่สามารถนำไปสู่ประสิทธิภาพของโมเดลที่ดีขึ้น ตัวอย่างของวิธีการห่อหุ้ม ได้แก่ การกำจัดคุณสมบัติแบบเรียกซ้ำ การเลือกไปข้างหน้า และการกำจัดย้อนกลับ
วิธีการฝังตัว
สำหรับวิธีการฝังตัว การเลือกคุณลักษณะจะเกิดขึ้นระหว่างการฝึกอบรม วิธีการเหล่านี้รวมถึงเทคนิคต่างๆ เช่น Lasso และ Ridge Regression ซึ่งเพิ่มบทลงโทษให้กับค่าสัมประสิทธิ์ของแบบจำลองเพื่อลดขนาดคุณลักษณะที่มีนัยสำคัญน้อยกว่าให้เป็นศูนย์
วิธีการแบบผสมผสาน
วิธีการแบบผสมผสานผสมผสานเทคนิคการเลือกคุณลักษณะต่างๆ เพื่อให้ได้ผลลัพธ์ที่ดีขึ้น วิธีเหล่านี้มักได้ผลดีกว่าใช้วิธีเดียวเพียงอย่างเดียว ตัวอย่างของวิธีการแบบผสมผสาน ได้แก่ ReliefF และ Random Forest Feature Selection
โดยพื้นฐานแล้ว การเลือกเทคนิคการเลือกคุณสมบัติขึ้นอยู่กับปัญหาเฉพาะ ชุดข้อมูล และทรัพยากรการคำนวณที่มีอยู่
ตอนนี้ เรามาเจาะลึกลงไปในวิธีการตัดคุณลักษณะที่สำคัญที่สุดวิธีหนึ่งสำหรับการกำจัดฟีเจอร์ Recursive Feature Elimination
การกำจัดคุณสมบัติแบบเรียกซ้ำคืออะไร?
Recursive Feature Elimination (RFE) เป็นวิธีการห่อหุ้มที่กำจัดคุณลักษณะแบบวนซ้ำและสร้างแบบจำลองทับสิ่งที่เหลืออยู่ โดยจะจัดอันดับคุณลักษณะตามความสำคัญและกำจัดคุณลักษณะที่สำคัญน้อยที่สุดจนกว่าจะถึงจำนวนคุณลักษณะที่ต้องการ RFE เป็นกระบวนการวนซ้ำที่ทำงานดังนี้:
- ฝึกฝนโมเดลเกี่ยวกับคุณสมบัติทั้งหมดและจัดอันดับตามความสำคัญ
- กำจัดคุณสมบัติที่สำคัญน้อยที่สุด
- ฝึกโมเดลซ้ำกับฟีเจอร์ที่เหลือและกำจัดฟีเจอร์ที่มีนัยสำคัญน้อยที่สุดจนกว่าจะถึงจำนวนฟีเจอร์ที่ต้องการ
RFE พิจารณาการโต้ตอบระหว่างคุณลักษณะและผลกระทบที่มีต่อประสิทธิภาพของแบบจำลอง
เพื่อให้เข้าใจถึงวิธีการทำงานของ RFE ลองพิจารณาตัวอย่าง
สมมติว่าเรามีชุดข้อมูลราคาที่อยู่อาศัยที่มีคุณลักษณะต่างๆ สิบรายการ รวมถึงจำนวนห้องนอน พื้นที่เป็นตารางฟุต และอายุของบ้าน เราต้องการสร้างโมเดลแมชชีนเลิร์นนิงเพื่อทำนายราคาบ้านตามคุณสมบัติเหล่านี้ อย่างไรก็ตาม เราสงสัยว่าคุณสมบัติบางอย่างอาจไม่สำคัญและอาจส่งผลเสียต่อประสิทธิภาพของโมเดล
เราสามารถใช้ RFE เพื่อระบุคุณลักษณะที่เกี่ยวข้องมากที่สุดโดยการฝึกแบบจำลองด้วยคุณลักษณะทั้งหมด จากนั้นจึงกำจัดคุณลักษณะที่สำคัญน้อยที่สุดซ้ำๆ จนกว่าเราจะไปถึงส่วนย่อยที่เหมาะสมที่สุด RFE ฝึกโมเดลระหว่างการวนซ้ำแต่ละครั้งและประเมินประสิทธิภาพโดยใช้ชุดการตรวจสอบข้าม
ตัวอย่างเช่น RFE อาจกำหนดว่าจำนวนห้องนอน พื้นที่เป็นตารางฟุต และสถานที่ตั้งเป็นคุณลักษณะที่สำคัญที่สุดในการทำนายราคาบ้าน ในทางตรงกันข้าม คุณลักษณะอื่นๆ เช่น อายุของบ้าน มีผลเพียงเล็กน้อยต่อความแม่นยำของแบบจำลอง
ทำไม RFE ถึงเข้ามาในภาพ? มันแก้ปัญหาอะไร?
เมื่อแมชชีนเลิร์นนิงแพร่หลายมากขึ้น นักวิทยาศาสตร์ด้านข้อมูลก็ตระหนักว่าฟีเจอร์บางอย่างอาจไม่เกี่ยวข้องหรือซ้ำซ้อน ในขณะที่ฟีเจอร์อื่นๆ อาจส่งผลต่อความแม่นยำของโมเดลอย่างมาก สิ่งนี้ทำให้เกิดหนึ่งในวิธีการที่จำเป็นสำหรับการสร้างแบบจำลองการเรียนรู้ของเครื่องที่มีประสิทธิภาพ นั่นคือ เทคนิคการเลือกคุณลักษณะของการขจัดคุณลักษณะแบบเรียกซ้ำ
Recursive Feature Elimination (RFE) ถูกนำมาใช้เพื่อจัดการกับข้อจำกัดบางประการของวิธีการที่มีอยู่ ในขณะที่กลายเป็นวิธีการแบบ wrapper ที่ลบคุณลักษณะแบบเรียกซ้ำและประเมินผลกระทบที่มีต่อประสิทธิภาพของโมเดล กระบวนการจะดำเนินต่อไปจนกว่าจะถึงจำนวนคุณลักษณะที่เหมาะสมที่สุด
RFE แก้ปัญหาต่างๆ ที่เทคนิคการเลือกคุณลักษณะดั้งเดิมพบ
- RFE เป็นวิธีการเลือกแบบย้อนกลับที่เริ่มต้นด้วยคุณลักษณะทั้งหมด จากนั้นจึงลบคุณลักษณะที่สำคัญน้อยที่สุดออกซ้ำๆ วิธีการนี้เหนือกว่าการเลือกไปข้างหน้า ซึ่งเริ่มต้นด้วยคุณลักษณะที่สำคัญน้อยที่สุดและเพิ่มมากขึ้นจนกว่าจะถึงจำนวนที่เหมาะสมที่สุด
- RFE หลีกเลี่ยงการใช้มากเกินไปโดยการตรวจสอบข้ามระหว่างกระบวนการเลือกคุณสมบัติ การโอเวอร์ฟิตติ้งเกิดขึ้นเมื่อโมเดลซับซ้อนเกินไปและพอดีกับข้อมูลการฝึกมากเกินไป ส่งผลให้ข้อมูลใหม่มีประสิทธิภาพต่ำ
- RFE สามารถนำไปใช้กับโมเดลประเภทใดก็ได้ ทำให้เป็นเทคนิคอเนกประสงค์ที่สามารถใช้ได้ในสถานการณ์ต่างๆ มากมาย
การใช้อัลกอริทึม RFE ใน Python
Python มีไลบรารีมากมายที่สามารถใช้สำหรับการนำอัลกอริทึม RFE ไปใช้ มาดู ตัวอย่าง RFE Python บางส่วนกัน
RFE ด้วย scikit-learn
Scikit-learn เป็นไลบรารีแมชชีนเลิร์นนิงที่ได้รับความนิยมใน Python ซึ่งมีการใช้งานอัลกอริทึม RFE อย่างง่าย ข้อมูลโค้ดต่อไปนี้สาธิตวิธีการใช้ RFE ใน sci-kit-learn:
จาก sklearn.feature_selection นำเข้า RFE
จาก sklearn.linear_model นำเข้า LogisticRegression
โมเดล = LogisticRegression ()
rfe = RFE(รุ่น, n_features_to_select=5)
rfe.fit(X, y)
ในข้อมูลโค้ดด้านบน ก่อนอื่นเราจะนำเข้าคลาส RFE จากโมดูล feature_selection ของ sci-kit-learn จากนั้นเราก็สร้างอินสแตนซ์ของคลาส LogisticRegression ซึ่งจะทำหน้าที่เป็นตัวประมาณฐานของเรา จากนั้นเราจะสร้างอินสแตนซ์ของคลาส RFE โดยส่งผ่านตัวประมาณค่าพื้นฐานและจำนวนของคุณสมบัติที่จะเลือก จากนั้นเราจะปรับวัตถุ RFE ให้พอดีกับข้อมูลและป้ายกำกับของเรา
RFE สำหรับการจำแนกประเภท
ในปัญหาการจัดหมวดหมู่ RFE จะลบคุณลักษณะซ้ำๆ และสร้างแบบจำลองจากคุณลักษณะที่เหลือ การจัดอันดับคุณลักษณะจะขึ้นอยู่กับคะแนนความสำคัญของคุณลักษณะที่คำนวณโดยตัวประมาณ ข้อมูลโค้ดต่อไปนี้สาธิตการใช้ RFE สำหรับปัญหาการจัดหมวดหมู่:
จาก sklearn.datasets นำเข้า make_classification
จาก sklearn.feature_selection นำเข้า RFE
จาก sklearn.tree นำเข้า DecisionTreeClassifier
X, y = make_classification(n_samples=1,000, n_features=10, n_informative=5, n_redundant=0, Random_state=42)
รุ่น = DecisionTreeClassifier()
rfe = RFE(รุ่น, n_features_to_select=5)
rfe.fit(X, y)
พิมพ์(“คุณสมบัติที่เลือก:“, rfe.support_)
พิมพ์ (“การจัดอันดับคุณลักษณะ: “, rfe.ranking_)
ในโค้ดด้านบน ขั้นแรกเราจะสร้างชุดข้อมูลสังเคราะห์โดยใช้ฟังก์ชัน make_classification จาก sci-kit-learn จากนั้นเราก็สร้างอินสแตนซ์ของคลาส DecisionTreeClassifier ซึ่งจะทำหน้าที่เป็นตัวประมาณฐานของเรา จากนั้นเราจะสร้างอินสแตนซ์ของคลาส RFE โดยส่งผ่านตัวประมาณค่าพื้นฐานและจำนวนของคุณสมบัติที่จะเลือก จากนั้นเราจะใส่วัตถุ RFE ลงในข้อมูลและป้ายกำกับของเรา พิมพ์คุณลักษณะที่เลือกและคุณลักษณะการจัดอันดับ
ไฮเปอร์พารามิเตอร์ RFE
RFE มีไฮเปอร์พารามิเตอร์หลายตัวที่สามารถปรับแต่งเพื่อให้ได้ผลลัพธ์ที่ดีขึ้น ไฮเปอร์พารามิเตอร์ที่สำคัญบางตัวได้แก่:
- n_features_to_select: ไฮเปอร์พารามิเตอร์นี้กำหนดจำนวนของคุณสมบัติที่จะเลือก
- ขั้นตอน: ไฮเปอร์พารามิเตอร์นี้กำหนดจำนวนของคุณสมบัติที่จะลบการวนซ้ำแต่ละครั้งค่าเริ่มต้นคือ 1 ซึ่งหมายความว่าคุณลักษณะหนึ่งรายการจะถูกลบออกในการวนซ้ำแต่ละครั้ง
- ตัวประมาณค่า: ไฮเปอร์พารามิเตอร์นี้ระบุตัวประมาณฐานที่จะใช้ตามค่าเริ่มต้น จะใช้ SVM เชิงเส้น
- การให้คะแนน: ไฮเปอร์พารามิเตอร์นี้ระบุเมตริกที่จะใช้สำหรับการจัดอันดับคุณลักษณะค่าเริ่มต้นคือไม่มี หมายความว่าใช้วิธีให้คะแนนของตัวประมาณ
- cv : ไฮเปอร์พารามิเตอร์นี้กำหนดกลยุทธ์การตรวจสอบข้ามที่จะใช้ค่าเริ่มต้นคือไม่มี หมายความว่าจะใช้การตรวจสอบข้าม 3 เท่า
สุดยอดหลักสูตรการเรียนรู้ของเครื่องและหลักสูตร AI ออนไลน์
วิทยาศาสตรมหาบัณฑิตสาขาการเรียนรู้ของเครื่องและ AI จาก LJMU | หลักสูตรบัณฑิตศึกษาสำหรับผู้บริหารในการเรียนรู้ของเครื่องและ AI จาก IIITB | |
หลักสูตรประกาศนียบัตรขั้นสูงในการเรียนรู้ของเครื่องและ NLP จาก IIITB | หลักสูตรประกาศนียบัตรขั้นสูงด้านการเรียนรู้ของเครื่องและการเรียนรู้เชิงลึกจาก IIITB | หลักสูตร Executive Post Graduate Program in Data Science & Machine Learning จาก University of Maryland |
หากต้องการสำรวจหลักสูตรทั้งหมดของเรา โปรดไปที่หน้าของเราด้านล่าง | ||
หลักสูตรการเรียนรู้ของเครื่อง |
อนาคตของการกำจัดคุณลักษณะแบบเรียกซ้ำ
อนาคตของ Recursive Feature Elimination (RFE) ดูสดใส เนื่องจากยังคงเป็นเทคนิคยอดนิยมสำหรับการเลือกฟีเจอร์ในแมชชีนเลิร์นนิง ด้วยปริมาณข้อมูลที่เพิ่มขึ้นและความต้องการโมเดลที่มีประสิทธิภาพและแม่นยำมากขึ้น การเลือกฟีเจอร์จึงกลายเป็นขั้นตอนสำคัญในระบบการเรียนรู้ของเครื่อง
การศึกษาเมื่อเร็วๆ นี้แสดงให้เห็นว่า RFE สามารถปรับปรุงประสิทธิภาพของโมเดลแมชชีนเลิร์นนิงได้อย่างมีนัยสำคัญ โดยลดมิติของข้อมูลและกำจัดฟีเจอร์ที่ไม่เกี่ยวข้องหรือซ้ำซ้อน ตัวอย่างเช่น ในการศึกษาโดย NCBI นั้น RFE ใช้สำหรับการเลือกคุณสมบัติในการจำแนกผู้ป่วยโรคซึมเศร้าตามข้อมูลการถ่ายภาพด้วยคลื่นแม่เหล็กไฟฟ้าจากการทำงาน (fMRI) ผลการวิจัยพบว่า RFE เลือกชุดย่อยของคุณสมบัติที่มีความสัมพันธ์สูงกับการวินิจฉัยทางคลินิกของภาวะซึมเศร้า
เนื่องจากสาขาการเรียนรู้ของเครื่องเติบโตอย่างต่อเนื่อง จึงจำเป็นต้องมีเทคนิคการเลือกคุณลักษณะที่ซับซ้อนและมีประสิทธิภาพมากขึ้น งานวิจัยชิ้นหนึ่งที่กำลังได้รับความสนใจคือการใช้การเรียนรู้เชิงลึกสำหรับการเลือกคุณสมบัติ อย่างไรก็ตาม โมเดลการเรียนรู้เชิงลึกมักมีราคาแพงในการคำนวณและต้องการการฝึกอบรมข้อมูลขนาดใหญ่
ในทางตรงกันข้าม RFE เป็นเทคนิคที่ง่ายและมีประสิทธิภาพที่สามารถใช้กับแบบจำลองและชุดข้อมูลต่างๆ ดังนั้นจึงมีแนวโน้มว่า RFE จะยังคงใช้เป็นเทคนิคการเลือกคุณลักษณะยอดนิยมต่อไป
ทักษะการเรียนรู้ของเครื่องตามความต้องการ
หลักสูตรปัญญาประดิษฐ์ | หลักสูตร Tableau |
หลักสูตร NLP | หลักสูตรการเรียนรู้เชิงลึก |
บทสรุป
สรุปได้ว่า Recursive Feature Elimination (RFE) เป็นเทคนิคที่มีประสิทธิภาพสำหรับการเลือกฟีเจอร์ในแมชชีนเลิร์นนิง ซึ่งจะดูแลอนาคตที่สดใสหลังจากการใช้งานที่พัฒนาขึ้น RFE ซึ่งเป็นเทคนิคการเลือกคุณสมบัติที่มีประสิทธิภาพ กำลังกระตุ้นการใช้งานในขอบเขตที่หลากหลาย เช่น การวินิจฉัยทางการแพทย์ ชีวสารสนเทศ และการวิเคราะห์ภาพ และเพิ่มการขยายตัวที่ไม่ย่อท้อ
หากคุณต้องการเรียนรู้เพิ่มเติมเกี่ยวกับแมชชีนเลิร์นนิงและ AI ให้พิจารณาลงทะเบียนใน โปรแกรมแมชชีนเลิร์นนิงและ AI PG Diploma ของ upGrad โดยร่วมมือกับ IIIT Bangalore โปรแกรมที่ครอบคลุมนี้ครอบคลุมเครื่องมือและเทคนิคล่าสุดในแมชชีนเลิร์นนิงและ AI รวมถึงเทคนิคการเลือกคุณสมบัติ เช่น RFE
โปรแกรมนี้จะมอบทักษะและความรู้ที่จำเป็นในการสร้างและปรับใช้โมเดลแมชชีนเลิร์นนิงสำหรับแอปพลิเคชันในโลกแห่งความเป็นจริง
สมัครตอนนี้ และรับประโยชน์มากมายจากการเรียนรู้แบบดื่มด่ำกับ upGrad!
คุณยังสามารถดูหลักสูตรฟรี ของเราที่เปิดสอนโดย upGrad ในสาขาการจัดการ วิทยาศาสตร์ข้อมูล การเรียนรู้ของเครื่อง การตลาดดิจิทัล และเทคโนโลยีหลักสูตรทั้งหมดเหล่านี้มีทรัพยากรการเรียนรู้ชั้นยอด การบรรยายสดทุกสัปดาห์ การมอบหมายงานในอุตสาหกรรม และใบรับรองการสำเร็จหลักสูตร – ทั้งหมดนี้ไม่มีค่าใช้จ่าย!
บล็อก AI และ ML ยอดนิยม & หลักสูตรฟรี
IoT: ประวัติศาสตร์ ปัจจุบัน และอนาคต | บทช่วยสอนการเรียนรู้ของเครื่อง: เรียนรู้ ML | อัลกอริทึมคืออะไร? ง่ายและสะดวก |
เงินเดือนวิศวกรหุ่นยนต์ในอินเดีย : ทุกบทบาท | หนึ่งวันในชีวิตของวิศวกรแมชชีนเลิร์นนิง: พวกเขาทำอะไร | IoT (Internet of Things) คืออะไร |
การเรียงสับเปลี่ยน vs การรวมกัน: ความแตกต่างระหว่างการเรียงสับเปลี่ยนและการรวมกัน | แนวโน้ม 7 อันดับแรกในด้านปัญญาประดิษฐ์และการเรียนรู้ของเครื่อง | การเรียนรู้ของเครื่องด้วย R: ทุกสิ่งที่คุณต้องรู้ |
หลักสูตร AI & ML ฟรี | ||
รู้เบื้องต้นเกี่ยวกับ NLP | พื้นฐานของการเรียนรู้เชิงลึกของโครงข่ายประสาทเทียม | การถดถอยเชิงเส้น: คำแนะนำทีละขั้นตอน |
ปัญญาประดิษฐ์ในโลกแห่งความเป็นจริง | รู้เบื้องต้นเกี่ยวกับ Tableau | กรณีศึกษาโดยใช้ Python, SQL และ Tableau |
อะไรคือความแตกต่างระหว่าง RFE และ PCA สำหรับการเลือกคุณสมบัติ?
ทั้ง RFE และ Principal Component Analysis (PCA) เป็นเทคนิคที่ใช้ในการเลือกคุณสมบัติ ข้อแตกต่างที่สำคัญระหว่างทั้งสองคือ PCA จะแก้ไขแอตทริบิวต์ดั้งเดิมเป็นชุดใหม่ ในขณะที่ RFE จะกำจัดแอตทริบิวต์ดั้งเดิม
ฉันจะกำหนดจำนวนคุณลักษณะที่เหมาะสมที่สุดเพื่อเลือกใช้ RFE ได้อย่างไร
วิธีหนึ่งในการกำหนดจำนวนคุณลักษณะที่เหมาะสมที่สุดเพื่อเลือกใช้ RFE คือทำการตรวจสอบข้ามและเลือกจำนวนคุณลักษณะที่ให้ประสิทธิภาพสูงสุดในชุดการตรวจสอบ อีกวิธีหนึ่งคือการใช้ Scree Plot ซึ่งวางแผนจำนวนคุณลักษณะเทียบกับประสิทธิภาพของโมเดลที่สอดคล้องกัน
สามารถใช้ RFE สำหรับงานการเรียนรู้ที่ไม่มีผู้ดูแลได้หรือไม่
ไม่ RFE เป็นเทคนิคการเรียนรู้ภายใต้การดูแลซึ่งต้องใช้ข้อมูลที่มีป้ายกำกับเพื่อเลือกคุณสมบัติ อาจใช้เทคนิคอื่นๆ เช่น การจัดกลุ่มหรือการลดขนาดสำหรับการเลือกคุณลักษณะในงานการเรียนรู้ที่ไม่มีผู้ดูแลโดยไม่มีข้อมูลที่ติดป้ายกำกับ