나이브 베이즈 분류기 설명

게시 됨: 2022-09-28

목차

소개

기계 학습, 인공 지능 또는 데이터 과학에 관심이 있다면 가정의 중요성을 알아야 합니다. 기계 학습 또는 기타 위험 기반 모델은 개발자가 원하는 결과를 얻을 수 있도록 하는 특정 가정 및 사전 정의된 규칙을 기반으로 개발됩니다. 개발자가 모델을 구축할 때 가정을 고려하지 않으면 데이터를 방해하여 부정확한 결과를 초래할 수 있습니다. 나이브 베이즈 분류기는 통계 모델에서 수학적 가정의 고전적인 예 중 하나입니다.

미국의 AI 및 ML 프로그램

LJMU 및 IIITB의 기계 학습 및 AI 과학 석사 IIITB의 기계 학습 및 인공 지능 분야 이그 제 큐 티브 PG 프로그램
모든 과정을 살펴보려면 아래 페이지를 방문하십시오.
기계 학습 과정

이 블로그에서는 Bayes 정리, Naive Bayes 분류기 및 다양한 모델에 대해 설명합니다.

나이브 베이즈 분류기란 무엇입니까?

나이브 베이즈 분류기는 영국 수학자 토마스 베이즈가 제안한 베이즈 정리를 기반으로 합니다. 따라서 나이브 베이즈 분류기를 이해하기 전에 베이즈 정리를 아는 것이 적절합니다. Bayes의 법칙 또는 Bayes' Rule이라고도 하는 Bayes 정리는 모든 이벤트의 발생 또는 비발생 가능성을 결정합니다. 간단히 말해서 사건이 일어날 확률을 말합니다.

베이즈 정리는 클래스를 정확하게 예측하기 위해 머신 러닝에서 널리 사용됩니다. 기계 학습에서 분류 작업의 조건부 확률을 계산합니다. 분류 작업은 문제를 해결하기 위해 기계 학습 알고리즘이 수행하는 활동을 나타냅니다. 스팸 이메일의 예를 보면 이것을 더 잘 이해할 수 있습니다. 기계 학습 알고리즘은 이메일을 스팸 또는 스팸이 아닌 것으로 분류하는 방법을 학습합니다. 따라서 머신 러닝 모델에서는 분류 또는 분리 활동을 예측하기 위해 Bayes 정리를 사용합니다.

나이브 베이즈 정리는 베이즈 정리의 하위 집합입니다. 주요 기능이 작업 분류이기 때문에 Naive Bayes Classifier라고도 합니다. 정리는 또한 모든 클래스 기능이 서로 종속되지 않는다는 순진한 가정을 하므로 Naive Bayes 정리라는 용어가 사용됩니다. 기계 학습에 대해 논의하면 나이브 베이즈 분류기는 특정 클래스의 속성이 서로 독립적이라고 가정하면서 이벤트를 예측하기 위해 베이즈 정리를 적용하는 알고리즘입니다. 이러한 속성도 동일한 것으로 간주되며 다른 기능에 의존하지 않고 존재할 수 있습니다.

증상 집합이 있는 경우 특정 질병 진단, 일기 예보, 습도, 온도 및 기타 요인과 같은 많은 기능에 Naive Bayes Classifier를 사용할 수 있습니다. 간단히 말해서 이진 또는 다중 사용 다중 클래스 분류가 필요한 모든 데이터 프로세스에 나이브 베이즈 알고리즘을 사용할 수 있습니다. 나이브 베이즈 분류기는 조건부 확률의 개념에 대해 작동합니다. 이것은 한 사건이 일어날 확률이 다른 사건의 발생에 달려 있음을 의미합니다. 예를 들어, 사건 A가 발생할 조건부 확률은 사건 B의 발생에 따라 달라집니다.

세계 최고의 대학에서 기계 학습 인증을 받으십시오. 석사, 이그 제 큐 티브 PGP 또는 고급 인증 프로그램을 획득하여 경력을 빠르게 추적하십시오.

나이브 베이즈 분류기 작업

Naive Bayes Classifier는 입력이 가능한 경우 출력 확률을 찾는 데 사용됩니다. Naive Bayes Classifier는 다른 레이블을 사용하여 클래스를 분류하여 예측 모델링 문제를 해결합니다. 확률 모델을 기반으로 하는 기계 학습 알고리즘은 이러한 복잡한 문제를 해결할 수 있습니다.

예를 들어 분류 문제에는 y1, y2, y3…….yn 클래스 레이블과 x1, x2, x3……xk 입력 변수가 있습니다. 먼저 x 입력의 경우 다른 y 클래스 레이블의 조건부 확률을 계산해야 합니다. 그런 다음 조건부 확률이 가장 높은 특성을 가장 적합한 분류로 간주합니다.

나이브 베이즈 분류기의 다양한 모델

다음은 세 가지 유형의 Naive Bayes 분류기입니다.

  • Gaussian Naive Bayes – Gaussian Naive Bayes는 정규 또는 가우스 분포를 사용하여 연속 데이터를 지원합니다. 정규 분포 정리는 연속 데이터가 평균 위 또는 아래에 균등하게 분포할 확률이 있는 경우 데이터를 분석합니다.
  • Multinomial Naive Bayes – 예를 들어 텍스트 분류를 위한 단어 수와 같이 이산 기능의 분류가 필요할 때 다항 Naive Bayes 분류기를 사용합니다. 문서의 내용을 통계적으로 분석하여 클래스에 할당합니다.
  • 베르누이 나이브 베이즈 – 베르누이 나이브 베이즈는 다항 나이브 베이즈와 유사합니다. 이산 데이터에도 사용됩니다. 그러나 이진 특성(0과 1)만 허용합니다. 따라서 데이터 세트의 이진 특성의 경우 Bernoulli Naive Bayes를 사용해야 합니다.

나이브 베이즈 분류기의 장점과 단점

Naive Bayes Classifier의 가장 중요한 기능은 연속 데이터와 이산 데이터를 모두 관리할 수 있다는 것입니다. Naive Bayes Classifier의 정확도는 데이터 양이 많을수록 증가합니다. 큰 데이터 세트를 사용하는 경우 더 정확한 결과를 제공하기 때문입니다. 다음은 나이브 베이즈 분류기의 장점과 단점입니다.

나이브 베이즈 분류기의 장점

  • 높은 확장성 – Naive Bayes Classifier의 가장 중요한 장점 중 하나는 순진한 가정으로 인해 확장성이 매우 높다는 것입니다.
  • 교육 기간 단축 – Naive Bayes Classifier를 교육하기 위해 소량의 교육 데이터가 필요합니다. 따라서 훈련 기간이 다른 알고리즘에 비해 상대적으로 짧습니다.
  • 단순성 - Naive Bayes Classifier의 또 다른 중요한 이점은 구축이 간단하다는 것입니다. 또한 대용량 데이터 세트를 분류하는 데에도 쉽게 사용할 수 있습니다.

나이브 베이즈 분류기의 단점

  • 실제 사용의 제한 - Naive Bayes Classifier는 클래스의 다양한 기능이 서로 독립적이라는 순진한 가정을 합니다. 이러한 현상은 현실 세계에서 거의 발생하지 않기 때문에 알고리즘은 제한된 용도로 사용할 수 있습니다.
  • 제로 빈도 문제 – 훈련 데이터 세트에 누락된 값이 나중에 추가된 경우 Naive Bayes Classifier는 빈도가 없기 때문에 해당 값을 0으로 표시합니다. 따라서 알고리즘이 누락된 데이터에 0 값을 할당했기 때문에 다른 값의 확률을 곱하면 빈도 기반 확률이 0이 되어 부정확한 결과가 발생할 수 있습니다.

기계 학습 및 인공 지능에서 나이브 베이즈 분류기 사용

나이브 베이즈 알고리즘은 클래스의 모든 속성이 서로 종속되지 않는다는 가정 때문에 머신 러닝과 인공 지능에 유용합니다. 다음은 기계 학습 및 인공 지능에서 Naive Bayes 분류기의 실제 사용입니다.

  • 결장암 예측 – 연구원들은 나이브 베이즈 분류기 모델을 사용하여 결장암을 예측할 것을 제안했습니다. Naive Bayes Classifier의 가장 놀라운 용도 중 하나입니다. 헤모글로빈 범위와 같은 결장암 데이터와 결장 환자의 체내 적혈구 및 백혈구 수를 모델의 훈련 데이터로 사용하면 가능합니다. 알고리즘은 환자의 헤모글로빈과 혈액 세포가 같은 범위에 있으면 대장암을 예측할 수 있습니다.
  • 교통 위험 관리 – Naive Bayes Classifier는 교통 위험 관리에도 사용할 수 있습니다. 나이브 베이즈 분류기는 훈련 데이터를 기반으로 운전자의 운전 위험과 도로 교통을 예측할 수 있습니다.

인기 있는 기계 학습 및 인공 지능 블로그

IoT: 역사, 현재 및 미래 기계 학습 자습서: ML 배우기 알고리즘이란 무엇입니까? 간단하고 쉬운
인도 로봇 공학 엔지니어 급여 : 모든 역할 기계 학습 엔지니어의 하루: 그들은 무엇을 하나요? 사물인터넷(IoT)이란
순열 대 조합: 순열과 조합의 차이점 인공 지능 및 기계 학습의 상위 7가지 트렌드 R을 사용한 기계 학습: 알아야 할 모든 것

결론

나이브 베이즈 분류기는 기계 학습 및 인공 지능에서 분류를 단순화하는 초보자 친화적인 알고리즘입니다. 나이브 베이즈 알고리즘은 스팸 방지, 일기 예보, ML 및 Ai를 사용한 의료 진단과 같은 다양한 실제 응용 프로그램에 사용됩니다. 따라서 머신 러닝에 관심이 많고 이 분야에서 경력을 쌓고 싶다면 Naive Bayes Classifier 및 기타 기본 알고리즘에 대해 알아야 합니다. upGrad에서 기계 학습 및 인공 지능 분야의 이학 석사 학위를 취득 하여 알고리즘과 기타 ML 및 AI 기술을 심층적으로 배울 수 있습니다. 이 과정은 또한 실제 기계 학습 프로젝트에서 작업할 수 있는 기회를 제공하여 기술을 습득하고 CV를 향상하며 AI 및 ML에서 여러 직업 기회를 잡을 수 있습니다.

회귀에 나이브 베이즈 정리를 사용할 수 있습니까?

예, Naive Bayes Classifier를 회귀에 사용할 수 있습니다. 이전에는 분류 작업에 적용이 제한되었습니다. 그러나 점진적인 수정을 통해 이제 회귀에 사용할 수 있습니다. 즉, 나이브 베이즈 분류기를 생성 및 판별 분류에 모두 적용할 수 있습니다.

Naive Bayes Classifier가 로지스틱 회귀보다 낫습니까?

로지스틱 회귀와 나이브 베이즈 분류기는 모두 연속 데이터를 사용하는 선형 분류 알고리즘입니다. 그러나 클래스에 편향이나 고유한 기능이 있는 경우 순진한 가정 때문에 Naive Bayes Classifier가 로지스틱 회귀보다 더 나은 정확도를 제공합니다.

Naive Bayes Classifier가 수행할 수 있는 기계 학습 작업은 무엇입니까?

Naive Bayes Classifier는 기계 학습에서 지도 학습 작업을 용이하게 합니다. 알고리즘은 이전에 제공된 훈련 데이터에 따라 데이터를 분류합니다. 나이브 베이즈(Naive Bayes) 알고리즘은 이전 입력-출력 또는 경험에 따라 형성된 분류를 예측합니다.