Rolul părtinirii în rețelele neuronale

Publicat: 2021-03-01

Prejudecățile reprezintă o pondere disproporționată în favoarea sau împotriva unui lucru sau a unei idei, de obicei, într-un mod prejudiciabil, inechitabil și închis la minte. În cele mai multe cazuri, părtinirea este considerată un lucru negativ, deoarece îți întunecă judecata și te face să iei decizii iraționale.

Cu toate acestea, rolul părtinirii în rețeaua neuronală și în învățarea profundă este mult diferit. Acest articol va explica sistemul de polarizare a rețelei neuronale și cum ar trebui să îl utilizați.

Cuprins

Conceptul de date părtinitoare

Pentru a înțelege un sistem de părtinire a rețelei neuronale, va trebui mai întâi să înțelegem conceptul de date părtinitoare. Ori de câte ori vă alimentați rețeaua neuronală cu date, acestea afectează comportamentul modelului.

Deci, dacă vă alimentați rețeaua neuronală cu date părtinitoare, nu ar trebui să vă așteptați la rezultate corecte de la algoritmi. Utilizarea datelor părtinitoare poate face ca sistemul dumneavoastră să dea rezultate foarte greșite și neașteptate.

De exemplu, luăm în considerare cazul lui Tay , un chatbot lansat de Microsoft. Tay a fost un simplu chatbot pentru a vorbi cu oamenii prin intermediul tweet-urilor. Trebuia să învețe prin conținutul postat de oameni pe Twitter. Cu toate acestea, știm cu toții cum poate fi Twitter. L-a distrus pe Tay.

În loc să fie un chatbot simplu și dulce, Tay s-a transformat într-un chatbot agresiv și foarte ofensator. Oamenii îl stricau cu numeroase postări abuzive care furneau date părtinitoare lui Tay și a învățat doar fraze jignitoare. Tay a fost oprit foarte curând după aceea.

Importanța părtinirii în rețeaua neuronală

Chiar dacă cazul lui Tay a fost foarte dezamăgitor, asta nu înseamnă că toate părtinirile sunt rele. De fapt, un neuron de părtinire într-o rețea neuronală este foarte crucial. În literatura despre rețelele neuronale, le numim neuroni de părtinire.

O rețea neuronală simplă are trei tipuri de neuroni:

  1. Neuron de intrare
  2. Neuron de părtinire
  3. Neuron de ieșire

Neuronul de intrare pur și simplu trece caracteristica din setul de date, în timp ce neuronul Bias imită caracteristica suplimentară. Combinăm neuronul de intrare cu neuronul Bias pentru a obține un neuron de ieșire. Cu toate acestea, rețineți că intrarea suplimentară este întotdeauna egală cu 1. Neuronul de ieșire poate prelua intrări, le procesa și genera ieșirea întregii rețele.

Să luăm exemplul unui model de regresie liniară pentru a înțelege un sistem de polarizare a rețelei neuronale.

În regresia liniară, avem neuronul de intrare care trece caracteristica (a1) și neuronul Bias imită același lucru cu (a0).

Ambele intrări (a1, a0) vor fi înmulțite cu ponderile lor respective (w1, w0). Ca rezultat, vom obține Neuronul de ieșire ca sumă a produselor lor:

i=0 n a i w i

Un model de regresie liniară are i=1 și a0=1. Deci reprezentarea matematică a modelului este:

y = a 1 w 1 + w 0

Acum, dacă eliminăm neuronul de polarizare, nu am avea nicio intrare de părtinire, ceea ce face ca modelul nostru să arate astfel:

y = a 1 w 1

Observați diferența? Fără intrarea de polarizare, modelul nostru trebuie să treacă prin punctul de origine (0,0) din grafic. Panta liniei noastre se poate schimba, dar se va roti doar de la origine.

Pentru a face modelul nostru flexibil, va trebui să adăugăm intrarea de polarizare, care nu este legată de nicio intrare. Acesta permite modelului să se deplaseze în sus și în jos pe grafic în funcție de cerințe.

Motivul principal pentru care este necesară părtinirea în rețelele neuronale este că, fără ponderi de părtinire, modelul dvs. ar avea o mișcare foarte limitată atunci când căutați o soluție.

Aflați mai multe despre sistemul Neural Network Bias

Rețelele neuronale sunt menite să imite funcționarea creierului uman și, prin urmare, au multe complexități. Înțelegerea lor poate fi destul de dificilă.

Cel mai bun mod de a studia rețelele neuronale și de a învăța despre învățarea profundă este printr-un curs de învățare automată și de învățare profundă. Vă va învăța bazele și conceptele avansate ale acestor domenii printr-un curriculum structurat.

Noi, la upGrad, oferim o certificare PG în programul de învățare automată și de învățare profundă cu IIIT-B. Cursul durează doar șase luni și este complet online. Aceasta înseamnă că poți studia din confortul casei tale, fără a-ți întrerupe viața profesională în timp ce faci acest curs.

Veți primi mentorat personalizat 1:1 din partea experților din industrie și mai mult de 240 de ore de învățare. Trebuie să aveți o diplomă de licență cu 50% sau note de trecere echivalente pentru a fi eligibil pentru acest program.

După finalizare, veți primi, de asemenea, asistență pentru plasare, inclusiv construirea CV-ului, portalul de oportunități de angajare, angajări și multe altele. Asigurați-vă că verificați cursul.

Citește și: Idei de proiecte de învățare automată

Gânduri finale

În timp ce părtinirea este considerată un lucru rău în viața noastră de zi cu zi, în lumea rețelelor neuronale, este o necesitate. Fără părtinire, rețeaua dvs. nu ar da rezultate bune, așa cum am descris în articolul de astăzi.

Dacă cunoști pe cineva care este interesat de rețelele neuronale sau care studiază învățarea profundă, împărtășește-i acest articol.

Greutățile de intrare pot fi negative în rețelele neuronale?

Greutățile pot fi reglate în funcție de ceea ce algoritmul de antrenament decide că este potrivit. Deoarece adăugarea de ponderi este o metodă folosită de generatori pentru a obține densitatea adecvată a evenimentelor, aplicarea acestora în rețea ar trebui să antreneze o rețea care să presupună și densitatea corectă a evenimentelor. De fapt, ponderile negative înseamnă pur și simplu că creșterea intrării date duce la scăderea ieșirii. Astfel, ponderile de intrare în rețelele neuronale pot fi negative.

Cum putem reduce părtinirea în rețelele neuronale ale oricărei organizații?

Organizațiile ar trebui să stabilească standarde, reglementări și proceduri pentru recunoașterea, dezvăluirea și atenuarea oricărei părtiniri ale setului de date pentru a menține părtinirea sub control. Organizațiile ar trebui, de asemenea, să-și publice tehnicile de selectare și curățare a datelor, permițând altora să analizeze când și dacă modelele reflectă orice tip de părtinire. Cu toate acestea, asigurarea pur și simplu că seturile de date nu sunt părtinitoare nu o va elimina complet. Prin urmare, a avea diverse echipe de persoane care lucrează la dezvoltarea AI ar trebui să rămână un obiectiv crucial pentru organizații.

Când există o tendință în datele de intrare, se dezvoltă bandwagoning, care este un tip de părtinire. Datele care confirmă această tendință cresc în paralel cu tendința. Drept urmare, oamenii de știință din date riscă să exagereze conceptul în datele pe care le adună. În plus, orice relevanță a datelor ar putea fi tranzitorie: efectul bandwagon ar putea dispărea la fel de repede cum a apărut.