Die Rolle von Bias in neuronalen Netzen

Veröffentlicht: 2021-03-01

Voreingenommenheit ist ein unverhältnismäßiges Gewicht für oder gegen eine Sache oder Idee, normalerweise auf voreingenommene, unfaire und engstirnige Weise. In den meisten Fällen wird Voreingenommenheit als etwas Negatives angesehen, weil es Ihr Urteilsvermögen trübt und Sie dazu bringt, irrationale Entscheidungen zu treffen.

Die Rolle von Bias in neuronalen Netzwerken und Deep Learning ist jedoch sehr unterschiedlich. Dieser Artikel erklärt das Bias-System für neuronale Netzwerke und wie Sie es verwenden sollten.

Inhaltsverzeichnis

Das Konzept der voreingenommenen Daten

Um ein neuronales Netzwerk-Bias-System zu verstehen, müssen wir zuerst das Konzept der voreingenommenen Daten verstehen. Immer wenn Sie Ihr neuronales Netz mit Daten füttern, wirkt sich das auf das Verhalten des Modells aus.

Wenn Sie also Ihr neuronales Netzwerk mit voreingenommenen Daten füttern, sollten Sie keine fairen Ergebnisse von Ihren Algorithmen erwarten. Die Verwendung von voreingenommenen Daten kann dazu führen, dass Ihr System sehr fehlerhafte und unerwartete Ergebnisse liefert.

Betrachten Sie zum Beispiel den Fall von Tay , einem von Microsoft eingeführten Chatbot. Tay war ein einfacher Chatbot, um über Tweets mit Menschen zu sprechen. Es sollte durch die Inhalte lernen, die die Leute auf Twitter posten. Wir alle wissen jedoch, wie Twitter sein kann. Es hat Tay zerstört.

Anstatt ein einfacher und süßer Chatbot zu sein, verwandelte sich Tay in einen aggressiven und sehr offensiven Chatbot. Die Leute verdarben es mit zahlreichen missbräuchlichen Posts, die Tay mit voreingenommenen Daten fütterten, und es lernte nur beleidigende Formulierungen. Tay wurde sehr bald danach ausgeschaltet.

Bedeutung von Bias in neuronalen Netzwerken

Auch wenn der Fall von Tay sehr enttäuschend war, heißt das nicht, dass alle Vorurteile schlecht sind. Tatsächlich ist ein Bias-Neuron in einem neuronalen Netzwerk sehr entscheidend. In der Literatur zu neuronalen Netzwerken nennen wir sie Bias-Neuronen.

Ein einfaches neuronales Netzwerk hat drei Arten von Neuronen:

  1. Geben Sie Neuron ein
  2. Bias-Neuron
  3. Ausgangsneuron

Das Input-Neuron übergibt das Merkmal einfach aus dem Datensatz, während das Bias-Neuron das zusätzliche Merkmal imitiert. Wir kombinieren das Input-Neuron mit dem Bias-Neuron, um ein Output-Neuron zu erhalten. Beachten Sie jedoch, dass die zusätzliche Eingabe immer gleich 1 ist. Das Ausgabeneuron kann Eingaben entgegennehmen, verarbeiten und die Ausgabe des gesamten Netzwerks erzeugen.

Nehmen wir das Beispiel eines linearen Regressionsmodells, um ein Bias-System eines neuronalen Netzwerks zu verstehen.

Bei der linearen Regression passiert das Input-Neuron das Merkmal (a1) und das Bias-Neuron ahmt dasselbe mit (a0) nach.

Unsere beiden Eingaben (a1, a0) werden mit ihren jeweiligen Gewichten (w1, w0) multipliziert. Als Ergebnis erhalten wir das Output Neuron als Summe ihrer Produkte:

ich=0 n ein ich w ich

Ein lineares Regressionsmodell hat i=1 und a0=1. Die mathematische Darstellung des Modells lautet also:

y = ein 1 w 1 + w 0

Wenn wir nun das Bias-Neuron entfernen, hätten wir keine Bias-Eingabe, wodurch unser Modell wie folgt aussieht:

y = ein 1 w 1

Merken Sie den Unterschied? Ohne die Bias-Eingabe muss unser Modell durch den Ursprungspunkt (0,0) im Diagramm gehen. Die Steigung unserer Linie kann sich ändern, aber sie dreht sich nur vom Ursprung aus.

Um unser Modell flexibel zu machen, müssen wir die Bias-Eingabe hinzufügen, die sich nicht auf eine Eingabe bezieht. Es ermöglicht dem Modell, sich je nach Bedarf im Diagramm nach oben und unten zu bewegen.

Der Hauptgrund, warum Bias in neuronalen Netzwerken erforderlich ist, besteht darin, dass Ihr Modell ohne Bias-Gewichte bei der Suche nach einer Lösung nur eine sehr begrenzte Bewegung aufweisen würde.

Erfahren Sie mehr über das Bias-System für neuronale Netzwerke

Neuronale Netze zielen darauf ab, die Funktionsweise des menschlichen Gehirns nachzuahmen und sind daher sehr komplex. Sie zu verstehen, kann eine ziemliche Herausforderung sein.

Der beste Weg, um neuronale Netze zu studieren und etwas über Deep Learning zu lernen, ist ein Kurs für maschinelles Lernen und Deep Learning. Es vermittelt Ihnen die Grundlagen und fortgeschrittenen Konzepte dieser Bereiche durch einen strukturierten Lehrplan.

Wir bei upGrad bieten mit IIIT-B eine PG-Zertifizierung für Machine Learning und Deep Learning an. Der Kurs dauert nur sechs Monate und ist komplett online. Das bedeutet, dass Sie bequem von zu Hause aus studieren können, ohne Ihr Berufsleben während des Studiums zu unterbrechen.

Sie erhalten 1:1 personalisierte Betreuung durch Branchenexperten und mehr als 240 Lernstunden. Sie müssen einen Bachelor-Abschluss mit 50% oder gleichwertiger Punktzahl haben, um sich für dieses Programm zu qualifizieren.

Nach Abschluss erhalten Sie auch Unterstützung bei der Vermittlung, einschließlich Lebenslauferstellung, Portal für Stellenangebote, Einstellungskampagnen und vieles mehr. Schauen Sie sich unbedingt den Kurs an.

Lesen Sie auch: Projektideen für maschinelles Lernen

Abschließende Gedanken

Während Voreingenommenheit in unserem täglichen Leben als eine schlechte Sache angesehen wird, ist sie in der Welt der neuronalen Netze ein Muss. Ohne Voreingenommenheit würde Ihr Netzwerk keine guten Ergebnisse liefern, wie wir im heutigen Artikel behandelt haben.

Wenn Sie jemanden kennen, der sich für neuronale Netze interessiert oder Deep Learning studiert, teilen Sie diesen Artikel mit ihm.

Können die Eingabegewichte in neuronalen Netzen negativ sein?

Die Gewichte können so eingestellt werden, wie es der Trainingsalgorithmus für geeignet hält. Da das Hinzufügen von Gewichten eine Methode ist, die von Generatoren verwendet wird, um die richtige Ereignisdichte zu erhalten, sollte ihre Anwendung im Netzwerk ein Netzwerk trainieren, das auch die richtige Ereignisdichte annimmt. Tatsächlich bedeuten negative Gewichte einfach, dass eine Erhöhung des gegebenen Inputs zu einer Abnahme des Outputs führt. Daher können die Eingabegewichte in neuronalen Netzwerken negativ sein.

Wie können wir Voreingenommenheit in den neuronalen Netzwerken jeder Organisation reduzieren?

Organisationen sollten Standards, Vorschriften und Verfahren zur Erkennung, Offenlegung und Minderung von Verzerrungen durch Datensätze festlegen, um Verzerrungen unter Kontrolle zu halten. Organisationen sollten auch ihre Datenauswahl- und Bereinigungstechniken veröffentlichen, damit andere analysieren können, wann und ob die Modelle irgendeine Art von Verzerrung widerspiegeln. Es wird jedoch nicht vollständig eliminiert, einfach sicherzustellen, dass die Datensätze nicht voreingenommen sind. Daher sollte es ein entscheidendes Ziel für Organisationen bleiben, vielfältige Teams von Einzelpersonen zu haben, die an der KI-Entwicklung arbeiten.

Wenn es einen Trend in den Eingabedaten gibt, entwickelt sich Bandwagoning, was eine Art Voreingenommenheit ist. Die Daten, die diese Tendenz bestätigen, wachsen im Gleichschritt mit dem Trend. Infolgedessen laufen Data Scientists Gefahr, das Konzept in den von ihnen gesammelten Daten zu übertreiben. Darüber hinaus könnte jede Relevanz in den Daten vorübergehend sein: Der Mitläufereffekt könnte so schnell verschwinden, wie er aufgetreten ist.