敵対的な機械学習:概念、攻撃の種類、戦略、防御
公開: 2021-05-02過去数十年の指数関数的な進歩は、今日の世界で現代の技術の進歩を推進してきました。 私たちは現在、進行中の「インダストリー4.0」の一部であり、その中心はAIやMLなどのテクノロジーです。 この産業革命には、ニューラルネットワーク、機械学習、人工知能、IoT、デジタル化などのテクノロジーにおける科学的研究とイノベーションへの世界的な移行が含まれます。
これらは、eコマース、製造、持続可能性、サプライチェーン管理などの分野でさまざまなメリットをもたらします。AI/ MLの世界市場は、2027年までに2,669億2,000万米ドルを超えると予想され、引き続きキャリアの選択肢として好まれています。どこでも卒業生のために。
これらのテクノロジーの適応は将来への道を開いていますが、 Adversarial Machine Learning (AML)攻撃などのイベントに対する準備はできていません。 SML、OCaml、F#などのコーディング言語を使用して設計された機械学習システムは、システム全体に統合されたプログラム可能なコードに依存しています。
世界のトップ大学(修士、大学院大学院プログラム、ML&AIの高度な証明書プログラム)からオンラインで機械学習を学び、キャリアを早急に進めましょう。
経験豊富なハッカーによって実行される外部AML攻撃は、これらのMLシステムの整合性と正確性に脅威をもたらします。 入力データセットにわずかな変更を加えると、MLアルゴリズムがフィードを誤って分類し、これらのシステムの信頼性が低下する可能性があります。
このようなAML攻撃に耐えられるシステムを設計するための適切なリソースを身に付けるには、upGradとIIITBangaloreが提供する機械学習のPGディプロマに登録してください。
目次
敵対的な機械学習を中心とした概念
AMLのトピックを掘り下げる前に、このドメインのいくつかの基本的な概念の定義を確立しましょう。
- 人工知能とは、論理、計画、問題解決、シミュレーション、またはその他の種類のタスクを実行するコンピューティングシステムの機能を指します。 AIは、機械学習技術を使用してAIに入力された情報により、人間の知能を模倣します。
- 機械学習は、パターンと推論に基づいてタスクを実行することに依存する、コンピューターシステムに明確に定義されたアルゴリズムと統計モデルを採用しています。 これらは、明示的な指示なしでこれらのタスクを実行するように設計されており、代わりにニューラルネットワークからの事前定義された情報を使用します。
- ニューラルネットワークは、観測データをディープラーニングモデルに体系的にプログラミングするために使用される脳のニューロンの生物学的機能に触発されています。 このプログラムされたデータは、入力データを解読、区別、およびコード化された情報に処理して、ディープラーニングを促進するのに役立ちます。
- ディープラーニングは、複数のニューラルネットワークとML技術を使用して、非構造化された生の入力データを明確に定義された命令に処理します。 これらの命令は、教師なし方法での表現/特徴学習を通じて、多層アルゴリズムを自動的に構築することを容易にします。
- 敵対的機械学習は、機械学習モデル内で誤動作を引き起こすための欺瞞的な入力を提供する独自のML手法です。 敵対的機械学習は、ニューラルネットワークを構成する固有のMLアルゴリズムのテストデータ内の脆弱性を悪用します。 AML攻撃は、結果として生じる結果を危うくし、MLシステムの有用性に直接の脅威をもたらす可能性があります。
敵対的な機械学習など、MLの主要な概念を詳細に学習するには、 upGradから機械学習とAIの理学修士(M.Sc)に登録してください。
AML攻撃の種類
敵対的な機械学習攻撃は、3種類の方法論に基づいて分類されます。
彼らです:
1.分類器への影響
機械学習システムは、分類器に基づいて入力データを分類します。 攻撃者が分類子自体を変更して分類フェーズを中断できる場合、MLシステムの信頼性が失われる可能性があります。 これらの分類子はデータの識別に不可欠であるため、分類メカニズムを改ざんすると、AMLによって悪用される可能性のある脆弱性が明らかになる可能性があります。
2.セキュリティ違反
MLシステムの学習段階で、プログラマーは正当と見なされるデータを定義します。 正当な入力データが悪意のあるものとして不適切に識別された場合、または悪意のあるデータがAML攻撃中に入力データとして提供された場合、拒否はセキュリティ違反と呼ばれる可能性があります。
3.特異性
特定の標的型攻撃は特定の侵入/中断を許可しますが、無差別攻撃は入力データ内のランダム性を高め、パフォーマンスの低下/分類の失敗を通じて混乱を引き起こします。
AML攻撃とそのカテゴリは、概念的には機械学習ドメインから分岐しています。 Gartnerによると、MLシステムの需要が高まっているため、MLおよびAIエンジニアは約230万人の求人を利用できます。 [2] 2021年に機械学習エンジニアリングがやりがいのあるキャリアになる方法について詳しく読むことができます。
敵対的な機械学習戦略
攻撃者の目標をさらに定義するために、攻撃されるシステムに関する事前の知識とデータコンポーネントの可能な操作のレベルは、攻撃者の機械学習戦略の定義に役立ちます。
彼らです:
1.回避
MLアルゴリズムは、特定の事前定義された条件と計算されたパラメーターに基づいて、入力データセットを識別して並べ替えます。 回避タイプのAML攻撃は、攻撃を検出するためにアルゴリズムによって使用されるこれらのパラメーターを回避する傾向があります。 これは、検出を回避し、正当な入力として誤って分類できるようにサンプルを変更することによって実行されます。
これらはアルゴリズムを変更しませんが、代わりにさまざまな方法で入力を偽装して、検出メカニズムを回避します。 たとえば、電子メールのテキストを分析するスパム対策フィルターは、マルウェアコード/リンクのテキストが埋め込まれた画像を使用することで回避されます。
2.モデル抽出
「モデルの盗用」とも呼ばれます。 このタイプのAML攻撃は、システムの構築に使用される初期トレーニングデータを抽出するためにMLシステムで実行されます。 これらの攻撃は、本質的にその機械学習システムのモデルを再構築することができ、その有効性を損なう可能性があります。 システムが機密データを保持している場合、またはML自体の性質が専有/機密である場合、攻撃者はそれを利益のために使用したり、混乱させたりする可能性があります。
3.中毒
このタイプの敵対的な機械学習攻撃には、トレーニングデータの中断が含まれます。 MLシステムは、運用中に収集されたデータを使用して再トレーニングされるため、悪意のあるデータのサンプルを注入することによって引き起こされる汚染は、AML攻撃を促進する可能性があります。 データをポイズニングする場合、攻撃者はそのMLのソースコードにアクセスし、誤ったデータを受け入れるように再トレーニングする必要があるため、システムの機能が阻害されます。
これらの敵対的な機械学習攻撃戦略に関する適切な知識により、プログラマーは操作中にそのような攻撃を回避できます。 AML攻撃に耐えることができるMLシステムを設計するための実践的なトレーニングが必要な場合は、upGradが提供する機械学習とAIの修士号に登録してください。
特定の攻撃タイプ
線形回帰や「サポートベクターマシン」などの従来のMLシステムとともに、ディープラーニングシステムを標的とする可能性のある特定の攻撃タイプは、これらのシステムの整合性を脅かす可能性があります。 彼らです:
- FMCG、PGD、C&W、パッチ攻撃などの敵対的な例は、ユーザーには正常に見えるため、マシンの誤分類を引き起こします。 分類器の誤動作を引き起こすために、攻撃コード内で特定の「ノイズ」が使用されます。
- バックドア/トロイの木馬攻撃は、MLシステムに関連性のない自己複製データを攻撃して、MLシステムを過負荷にし、最適な機能を妨げます。 これらの敵対的な機械学習攻撃は、マシン内に存在する抜け穴を悪用するため、保護するのが困難です。
- モデル反転は、分類子を、本来意図されていたのとは逆の方法で機能するように書き換えます。 この反転により、固有の学習モデルに変更が適用されるため、マシンが基本的なタスクを実行できなくなります。
- メンバーシップ推論攻撃(MIA)は、SL(教師あり学習)およびGAN(生成的敵対的ネットワーク)に適用できます。 これらの攻撃は、初期トレーニングデータのデータセットとプライバシーの脅威をもたらす外部サンプルの違いに依存しています。 ブラックボックスとそのデータレコードにアクセスすることで、推論モデルはサンプルがトレーニング入力に存在するかどうかを予測できます。
MLシステムをこれらのタイプの攻撃から保護するために、MLプログラマーとエンジニアがすべての主要なMNCで採用されています。 機械学習の革新を促進するためにR&Dセンターをホストするインドの多国籍企業は、年間15〜20ルピーの給与を提供しています。 [3]このドメインの詳細を学び、MLエンジニアとして高額の給与を確保するには、 upGradとIITMadrasがホストする機械学習とクラウドの高度な認定に登録してください。
AMLに対する防御
このような敵対的な機械学習攻撃から身を守るために、専門家はプログラマーが多段階のアプローチに依存することを提案しています。 これらの手順は、上記の従来のAML攻撃に対する対抗策として役立ちます。 これらの手順は次のとおりです。
- シミュレーション:攻撃者の考えられる攻撃戦略に従って攻撃をシミュレートすると、抜け穴が明らかになる可能性があります。 これらのシミュレーションを通じてそれらを特定することで、AML攻撃がシステムに影響を与えるのを防ぐことができます。
- モデリング:攻撃者の能力と潜在的な目標を推定することで、AML攻撃を防ぐ機会を得ることができます。 これは、これらの攻撃に耐えることができる同じMLシステムの異なるモデルを作成することによって行われます。
- 影響の評価:このタイプの防御では、攻撃者がシステムに与える可能性のある全体的な影響を評価し、そのような攻撃が発生した場合の準備を確実にします。
- 情報のロンダリング:攻撃者が抽出した情報を変更することにより、このタイプの防御は攻撃を無意味にする可能性があります。 抽出されたモデルに意図的に配置された不一致が含まれている場合、攻撃者は盗まれたモデルを再作成できません。
AMLの例
最新のテクノロジー内のさまざまなドメインは、敵対的な機械学習攻撃の脅威に直接さらされています。 これらのテクノロジーは事前にプログラムされたMLシステムに依存しているため、悪意のある人々によって悪用される可能性があります。 AML攻撃の典型的な例には次のものがあります。
1.スパムフィルタリング:スパムを識別する「悪い」単語のスペルを意図的に間違えたり、識別を妨げる「良い」単語を追加したりします。
2.コンピュータのセキュリティ:Cookieデータ内にマルウェアコードを隠したり、デジタル署名を誤解させてセキュリティチェックを回避したりします。
3.バイオメトリクス:識別のためにデジタル情報に変換されるバイオメトリクス特性を偽造することによって。
結論
機械学習と人工知能の分野が拡大し続けるにつれて、それらのアプリケーションは、自動化、ニューラルネットワーク、データセキュリティなどのセクター全体で増加しています。 敵対的機械学習は、MLシステムを保護し、その整合性を維持するという倫理的な目的にとって常に重要です。
機械学習について詳しく知りたい場合は、機械学習のエグゼクティブPGプログラムとAIプログラムをご覧ください。このプログラムは、働く専門家向けに設計されており、30以上のケーススタディと課題、25以上の業界メンターシップセッション、5以上の実践的なハンズオンを提供します。キャップストーンプロジェクト、450時間以上の厳格なトレーニングとトップ企業との就職支援。
敵対的な攻撃はサイバーセキュリティに悪影響を及ぼすのでしょうか?
サイバーセキュリティはデジタル時代の優先事項です。 また、その構造と機能に対する脅威を差し控えるため、脆弱です。 保護されていない場合、IoTはプライバシーの盗難、損傷、および誤用に対して脆弱になります。 着信攻撃を入力データとして誤って分類することにより、アルゴリズムによって設定されたパラメータが回避されると、敵対的な攻撃が発生する可能性があります。 これは、機械学習システムに違反する1つの方法にすぎません。 機械学習アルゴリズムに対する敵対的な攻撃の数が増えるにつれ、サイバーセキュリティの安全性と有効性が損なわれています。 敵対的な機械学習は、これらの脅威に取り組むために開発されました。
機械学習システムはどのように脆弱ですか?
機械学習システムは、信頼性を高めるために、その構造が堅牢である必要があります。 近年、これらのシステムに対する悪意のある攻撃の群れがあり、敵対的な攻撃はこれらのシステムの保護障壁を破っています。 これは、モデルを複製して初期トレーニングデータを変更するか、アルゴリズムのパラメータを欺くか、既存のデータを再トレーニングして着信攻撃を見落とすことによって発生します。 これらの敵対的な攻撃は、倫理的パラメータを侵害し、システムを操作して不正な機能を操作する可能性があります。 敵対的な機械学習の防御は、侵入するマルウェア攻撃を識別し、システムの整合性を復元するために使用されます。
敵対的な攻撃と戦うためにどのような戦略が機能しますか?
敵対的な攻撃は、データの侵害からシステム全体の操作にまで及ぶ可能性があります。 それらは広く行き渡っており、攻撃者がシステムのアルゴリズムに強力にアクセスできる場合、システム全体にすばやく広がる可能性があります。 例として、スパムフィルタリングがあります。このフィルタリングでは、アルゴリズムが単語をスパムとして検出できないように単語が構造化されています。 プログラマーは、敵対的な機械学習を使用して、これらの攻撃に対する対策を講じます。 彼らは、攻撃者の戦略を視覚化し、侵入のパターンを認識し、抜け穴を特定することによって、攻撃をシミュレートしようとします。 彼らはこれらの洞察を使用して、システムをさらなる侵害から保護します。 攻撃者のスキルと能力の範囲をテストすることは、システムの変更と保護に役立ちます。