적대적 머신 러닝: 개념, 공격 유형, 전략 및 방어
게시 됨: 2021-05-02지난 수십 년의 기하급수적인 발전은 오늘날의 세계에서 현대 기술 발전을 추진했습니다. 우리는 현재 진행중인 '인더스트리 4.0'의 일부이며, 그 중심에는 AI 및 ML과 같은 기술이 있습니다. 이 산업 혁명에는 신경망, 기계 학습, 인공 지능, IoT, 디지털화 등의 기술 혁신과 과학적 연구로의 전 세계적인 전환이 포함됩니다.
그들은 전자 상거래, 제조, 지속 가능성, 공급망 관리 등과 같은 분야에서 우리에게 다양한 이점을 제공합니다. AI/ML의 세계 시장은 2027년까지 2,669억 2,000만 달러를 넘어설 것으로 예상되며 계속 선호되는 직업 선택이 될 것입니다. 어디에서나 졸업생을 위해.
이러한 기술의 적응이 미래를 위한 길을 닦고 있지만 우리는 AML( Adversarial Machine Learning ) 공격과 같은 이벤트에 대한 준비가 되어 있지 않습니다. SML, OCaml, F# 등과 같은 코딩 언어를 사용하여 설계된 기계 학습 시스템은 시스템 전체에 통합된 프로그래밍 가능한 코드에 의존합니다.
세계 최고의 대학에서 온라인으로 머신 러닝을 배우십시오 . 석사, 대학원 대학원 과정, ML 및 AI 고급 인증 프로그램을 통해 빠르게 경력을 쌓을 수 있습니다.
숙련된 해커가 수행하는 외부 AML 공격은 이러한 ML 시스템의 무결성과 정확성에 위협이 됩니다. 입력 데이터 세트를 약간 수정하면 ML 알고리즘이 피드를 잘못 분류하여 이러한 시스템의 안정성이 저하될 수 있습니다.
이러한 AML 공격을 견딜 수 있는 시스템 설계에 적합한 리소스를 갖추려면 upGrad 및 IIIT Bangalore에서 제공하는 기계 학습 PG 디플로마에 등록하십시오 .

목차
적대적 머신 러닝을 중심으로 한 개념
AML 주제에 대해 알아보기 전에 이 도메인의 몇 가지 기본 개념에 대한 정의를 설정하겠습니다.
- 인공 지능 은 논리, 계획, 문제 해결, 시뮬레이션 또는 기타 종류의 작업을 수행하는 컴퓨팅 시스템의 능력을 말합니다. AI는 기계 학습 기술을 사용하여 입력된 정보로 인해 인간 지능을 모방합니다.
- 머신 러닝 은 패턴과 추론을 기반으로 작업을 수행하는 컴퓨터 시스템에 대해 잘 정의된 알고리즘과 통계 모델을 사용합니다. 그들은 명시적인 지시 없이 이러한 작업을 실행하고 대신 신경망에서 미리 정의된 정보를 사용하도록 설계되었습니다.
- 신경망 은 관찰 데이터를 딥 러닝 모델로 체계적으로 프로그래밍하는 데 사용되는 뇌 뉴런의 생물학적 기능에서 영감을 받았습니다. 이 프로그래밍된 데이터는 딥 러닝을 용이하게 하기 위해 입력 데이터를 해독, 구별 및 코딩된 정보로 처리하는 데 도움이 됩니다.
- 딥 러닝 은 여러 신경망과 ML 기술을 사용하여 구조화되지 않은 원시 입력 데이터를 잘 정의된 명령어로 처리합니다. 이러한 지침은 감독되지 않은 방식으로 표현/특징 학습을 통해 자동으로 다층 알고리즘을 구축하는 것을 용이하게 합니다.
- 적대적 기계 학습 은 기계 학습 모델 내에서 오작동을 일으키기 위해 기만적인 입력을 제공하는 고유한 ML 기술입니다. Adversarial Machine Learning은 신경망을 구성하는 고유한 ML 알고리즘의 테스트 데이터 내 취약점을 악용합니다. AML 공격은 결과적인 결과를 손상시키고 ML 시스템의 유용성에 직접적인 위협이 될 수 있습니다.
Adversarial Machine Learning 과 같은 ML의 주요 개념을 심층적으로 배우려면 upGrad 의 Machine Learning & AI 분야 석사(M.Sc)에 등록하십시오.
AML 공격 유형
적대적 머신 러닝 공격은 세 가지 유형의 방법론에 따라 분류됩니다.
그들은:
1. 분류자에 대한 영향
머신 러닝 시스템은 분류기를 기반으로 입력 데이터를 분류합니다. 공격자가 분류기 자체를 수정하여 분류 단계를 방해할 수 있는 경우 ML 시스템의 신뢰성을 잃을 수 있습니다. 이러한 분류기는 데이터 식별에 필수적이므로 분류 메커니즘을 변조하면 AML이 악용할 수 있는 취약점이 드러날 수 있습니다.
2. 보안 위반
ML 시스템의 학습 단계에서 프로그래머는 합법적인 것으로 간주되는 데이터를 정의합니다. 적법한 입력 데이터가 악성으로 부적절하게 식별되거나 AML 공격 중에 악성 데이터가 입력 데이터로 제공되는 경우 거부를 보안 위반이라고 할 수 있습니다.
3. 특이성
특정 표적 공격은 특정 침입/차단을 허용하는 반면, 무차별 공격은 입력 데이터 내의 임의성을 추가하고 성능 저하/분류 실패를 통해 중단을 생성합니다.
AML 공격 및 해당 범주는 개념적으로 기계 학습 도메인에서 분기됩니다. Gartner에 따르면 ML 시스템에 대한 수요 증가로 인해 ML 및 AI 엔지니어에게 거의 230만 개의 일자리가 제공됩니다. [2] 기계 학습 엔지니어링이 2021년에 보람 있는 직업이 될 수 있는 방법에 대해 자세히 읽을 수 있습니다 .
적대적 머신 러닝 전략
공격자의 목표를 추가로 정의하기 위해 공격할 시스템에 대한 사전 지식과 데이터 구성 요소의 가능한 조작 수준은 적대적 머신 러닝 전략을 정의하는 데 도움이 될 수 있습니다.
그들은:
1. 회피
ML 알고리즘은 미리 정의된 특정 조건과 계산된 매개변수를 기반으로 입력 데이터 세트를 식별하고 정렬합니다. 회피 유형의 AML 공격은 알고리즘이 공격을 탐지하는 데 사용하는 이러한 매개변수를 회피하는 경향이 있습니다. 이는 탐지를 피하고 합법적인 입력으로 잘못 분류할 수 있는 방식으로 샘플을 수정하여 수행됩니다.
알고리즘을 수정하지 않고 대신 다양한 방법으로 입력을 스푸핑하여 탐지 메커니즘을 벗어나도록 합니다. 예를 들어 이메일 텍스트를 분석하는 스팸 방지 필터는 악성 코드/링크 텍스트가 포함된 이미지를 사용하여 회피합니다.
2. 모델 추출
'모델 훔치기'라고도 합니다. 이러한 유형의 AML 공격은 시스템 구축에 사용된 초기 교육 데이터를 추출하기 위해 ML 시스템에서 수행됩니다. 이러한 공격은 기본적으로 해당 머신 러닝 시스템의 모델을 재구성할 수 있으므로 효율성이 저하될 수 있습니다. 시스템이 기밀 데이터를 보유하고 있거나 ML 자체의 특성이 독점/민감한 경우 공격자는 자신의 이익을 위해 이를 사용하거나 방해할 수 있습니다.

3. 중독
이러한 유형의 적대적 머신 러닝 공격에는 훈련 데이터의 중단이 포함됩니다. ML 시스템은 운영 중에 수집된 데이터를 사용하여 재교육되기 때문에 악성 데이터 샘플을 주입하여 발생하는 모든 오염은 AML 공격을 촉진할 수 있습니다. 데이터 포이즈닝의 경우 공격자는 해당 ML의 소스 코드에 액세스해야 하며 잘못된 데이터를 허용하도록 재교육하여 시스템 기능을 억제합니다.
이러한 적대적 머신 러닝 공격 전략 에 대한 적절한 지식은 프로그래머가 작동 중에 이러한 공격을 피할 수 있도록 합니다. AML 공격을 견딜 수 있는 ML 시스템 설계를 위한 실습 교육이 필요한 경우 upGrad에서 제공하는 기계 학습 및 AI 석사 과정 에 등록하십시오.
특정 공격 유형
선형 회귀 및 '지원 벡터 머신'과 같은 기존 ML 시스템과 함께 딥 러닝 시스템을 대상으로 할 수 있는 특정 공격 유형은 이러한 시스템의 무결성을 위협할 수 있습니다. 그들은:
- FMCG, PGD, C&W 및 패치 공격과 같은 적대적인 예는 사용자에게 정상적인 것처럼 보이기 때문에 시스템이 잘못 분류하도록 합니다. 공격 코드 내에서 특정 '노이즈'를 사용하여 분류기의 오작동을 일으킵니다.
- 백도어/트로이 목마 공격은 ML 시스템이 최적의 기능을 수행하지 못하게 하는 관련성이 없고 자체 복제되는 데이터를 공격하여 ML 시스템에 과부하를 줍니다. 이러한 적대적 머신 러닝 공격은 머신 내에 존재하는 허점을 이용하기 때문에 보호하기 어렵습니다.
- Model Inversion은 원래 의도했던 것과 반대 방식으로 작동하도록 분류기를 다시 작성합니다. 이 반전은 고유한 학습 모델에 적용된 변경 사항으로 인해 기계가 기본 작업을 수행하는 것을 방지합니다.
- MIA(Membership Inference Attacks)는 SL(지도 학습) 및 GAN(Generative Adversarial Networks)에 적용될 수 있습니다. 이러한 공격은 초기 훈련 데이터의 데이터 세트와 개인 정보를 위협하는 외부 샘플 간의 차이에 의존합니다. 블랙박스 및 해당 데이터 레코드에 대한 액세스를 통해 추론 모델은 샘플이 훈련 입력에 존재하는지 여부를 예측할 수 있습니다.
이러한 유형의 공격으로부터 ML 시스템을 보호하기 위해 ML 프로그래머와 엔지니어는 모든 주요 다국적 기업에서 고용됩니다. 기계 학습의 혁신을 장려하기 위해 R&D 센터를 호스팅하는 인도 다국적 기업은 연간 15~20 Lakh INR의 급여를 제공합니다. [3] 이 도메인에 대해 자세히 알아보고 ML 엔지니어로서 높은 급여를 받으려면 upGrad 및 IIT Madras에서 호스팅하는 기계 학습 및 클라우드 고급 인증에 등록하십시오.
AML에 대한 방어
이러한 적대적 기계 학습 공격 을 방어하기 위해 전문가들은 프로그래머가 다단계 접근 방식에 의존할 것을 제안합니다. 이러한 단계는 위에서 설명한 기존 AML 공격에 대한 대응책 역할을 합니다. 이러한 단계는 다음과 같습니다.
- 시뮬레이션 : 공격자의 가능한 공격 전략에 따라 공격을 시뮬레이션하면 허점을 드러낼 수 있습니다. 이러한 시뮬레이션을 통해 식별하면 AML 공격이 시스템에 영향을 미치는 것을 방지할 수 있습니다.
- 모델링: 공격자의 능력과 잠재적 목표를 추정하면 AML 공격을 방지할 수 있습니다. 이는 이러한 공격을 견딜 수 있는 동일한 ML 시스템의 다른 모델을 생성하여 수행됩니다.
- 영향 평가: 이 유형의 방어는 공격자가 시스템에 미칠 수 있는 총 영향을 평가하여 이러한 공격이 발생할 경우에 대비합니다.
- 정보 세탁 : 공격자가 추출한 정보를 수정하여 이러한 유형의 방어는 공격을 무의미하게 만들 수 있습니다. 추출된 모델에 의도적으로 배치된 불일치가 포함된 경우 공격자는 훔친 모델을 다시 만들 수 없습니다.
AML의 예
현대 기술 내의 다양한 도메인이 적대적 머신 러닝 공격의 위협을 직접 받고 있습니다. 이러한 기술은 사전 프로그래밍된 ML 시스템에 의존하기 때문에 악의적인 의도를 가진 사람들이 악용할 수 있습니다. AML 공격의 일반적인 예는 다음과 같습니다.

1. 스팸 필터링: 스팸 을 식별하는 '나쁜' 단어의 철자를 일부러 틀리게 하거나 식별을 방해하는 '좋은' 단어를 추가합니다.
2. 컴퓨터 보안 : 쿠키 데이터에 악성 코드를 숨기거나 보안 검사를 우회하도록 디지털 서명을 오도합니다.
3. 생체 인식: 식별 목적으로 디지털 정보로 변환된 생체 인식 특성을 위조함으로써.
결론
기계 학습 및 인공 지능 분야가 계속 확장됨에 따라 자동화, 신경망 및 데이터 보안과 같은 분야에서 응용 프로그램이 증가합니다. Adversarial Machine Learning 은 ML 시스템을 보호하고 무결성을 유지한다는 윤리적 목적을 위해 항상 중요합니다.
머신 러닝에 대해 더 알고 싶다면 실무 전문가를 위해 설계된 머신 러닝 및 AI 프로그램의 Executive PG 프로그램을 확인하고 30개 이상의 사례 연구 및 과제, 25개 이상의 산업 멘토링 세션, 5개 이상의 실습을 제공합니다. 캡스톤 프로젝트, 450시간 이상의 엄격한 교육 및 일류 기업의 취업 지원.
적대적 공격이 사이버 보안에 악성입니까?
사이버 보안은 디지털 시대의 최우선 과제입니다. 또한 구조와 기능에 대한 위협을 억제하기 위해 취약합니다. 보호되지 않으면 IoT는 개인 정보 도난, 손상 및 오용에 취약해집니다. 적대적 공격은 들어오는 공격을 입력 데이터로 잘못 분류하여 알고리즘에 의해 설정된 매개변수를 회피할 때 발생할 수 있습니다. 이것은 기계 학습 시스템을 위반하는 한 가지 방법일 뿐입니다. 머신 러닝 알고리즘에 대한 적대적 공격이 증가함에 따라 사이버 보안의 안전성과 효율성이 위협받고 있습니다. 이러한 위협을 해결하기 위해 Adversarial Machine Learning이 개발되었습니다.
기계 학습 시스템은 어떻게 취약합니까?
머신 러닝 시스템은 안정성을 위해 구조가 견고해야 합니다. 최근 몇 년 동안 이러한 시스템에 대한 악의적인 공격의 무리가 있었고 적대적 공격은 이러한 시스템의 보호 장벽을 위반했습니다. 이것은 모델을 복제하고 초기 훈련 데이터를 변경하거나, 알고리즘의 매개변수를 속이거나, 들어오는 공격을 간과하기 위해 기존 데이터를 재훈련함으로써 발생합니다. 이러한 적대적 공격은 윤리적 매개변수를 위반하고 시스템을 조작하여 승인되지 않은 기능을 작동할 수 있습니다. Adversarial Machine Learning 방어는 침입하는 맬웨어 공격을 식별하고 시스템의 무결성을 복원하는 데 사용됩니다.
적대적 공격에 대처하기 위한 전략은 무엇입니까?
적대적 공격은 데이터 침해에서 전체 시스템 조작에 이르기까지 다양합니다. 공격자가 시스템 알고리즘에 강력하게 액세스할 수 있는 경우 널리 퍼질 수 있으며 시스템 전체에 빠르게 확산될 수 있습니다. 예를 들어 스팸 필터링은 단어가 구조화되어 알고리즘이 스팸으로 감지할 수 없도록 합니다. 프로그래머는 Adversarial Machine Learning을 사용하여 이러한 공격에 대한 조치를 취합니다. 공격자의 전략을 시각화하고 공격 패턴을 인식하며 허점을 식별하여 공격을 시뮬레이션합니다. 그들은 이러한 통찰력을 사용하여 추가 침해로부터 시스템을 보호합니다. 공격자의 기술과 능력 범위를 테스트하면 시스템을 수정하고 보호하는 데 도움이 될 수 있습니다.