फ़ीड-फॉरवर्ड न्यूरल नेटवर्क (Feedforward Neural Network – FNN) क्या है?

फ़ीड-फॉरवर्ड न्यूरल नेटवर्क (FNN) आर्टिफिशियल न्यूरल नेटवर्क (ANN) का सबसे सरल और बुनियादी प्रकार है। यह एक दिशात्मक नेटवर्क होता है जिसमें सूचना हमेशा एक ही दिशा में आगे बढ़ती है—इनपुट लेयर से हिडन लेयर होते हुए आउटपुट लेयर तक, और इसमें कोई बैकवर्ड कनेक्शन (फीडबैक लूप) नहीं होते हैं।

1. फ़ीड-फॉरवर्ड न्यूरल नेटवर्क की संरचना

FNN आमतौर पर तीन मुख्य परतों (Layers) से मिलकर बना होता है:

Feed Forward Neural Network

a) इनपुट लेयर (Input Layer)

  • यह परत बाहरी डेटा (जैसे कि चित्र, टेक्स्ट, या संख्यात्मक डेटा) को नेटवर्क में प्रवेश करने देती है।
  • इसमें प्रत्येक नोड (Neuron) एक विशेष फीचर (जैसे पिक्सल वैल्यू या कोई अन्य विशेषता) को दर्शाता है।

b) हिडन लेयर (Hidden Layer)

  • यह लेयर न्यूरॉन्स (Neurons) का समूह होती है, जो इनपुट डेटा पर विभिन्न गणनाएँ और रूपांतरण (Transformations) लागू करती है।
  • प्रत्येक हिडन लेयर में एक सक्रियण फलन (Activation Function) होता है, जो डेटा को नॉन-लिनियर बनाने में मदद करता है।
  • अधिक जटिल समस्याओं को हल करने के लिए एक से अधिक हिडन लेयर्स का उपयोग किया जा सकता है।

c) आउटपुट लेयर (Output Layer)

  • यह लेयर अंतिम भविष्यवाणी (Prediction) या वर्गीकरण (Classification) प्रदान करती है।
  • आउटपुट न्यूरॉन्स की संख्या समस्या के प्रकार पर निर्भर करती है (जैसे, बाइनरी क्लासिफिकेशन में 1 आउटपुट, मल्टी-क्लास क्लासिफिकेशन में कई आउटपुट)।

2. FNN का कार्य करने का तरीका

फ़ीड-फॉरवर्ड न्यूरल नेटवर्क में डेटा फॉरवर्ड पास (Forward Pass) के माध्यम से आगे बढ़ता है। इसके मुख्य चरण निम्नलिखित हैं:

Layer 1: वेटेड समेशन (Weighted Summation)

प्रत्येक न्यूरॉन पिछले लेयर के न्यूरॉन्स से जुड़े होते हैं, और प्रत्येक कनेक्शन का एक विशेष भार (Weight) होता है। इनपुट के प्रत्येक मान को उसके वज़न से गुणा करके योग किया जाता है: Z=W1X1+W2X2+…+WnXn+BZ = W_1X_1 + W_2X_2 + … + W_nX_n + BZ=W1​X1​+W2​X2​+…+Wn​Xn​+B

जहाँ,

  • ZZZ न्यूरॉन का कुल इनपुट है।
  • W1,W2,…,WnW_1, W_2, …, W_nW1​,W2​,…,Wn​ कनेक्शन के भार हैं।
  • X1,X2,…,XnX_1, X_2, …, X_nX1​,X2​,…,Xn​ इनपुट विशेषताएँ हैं।
  • BBB बायस (Bias) है, जो निर्णय को नियंत्रित करता है।

Layer 2: एक्टिवेशन (Activation Function) का उपयोग

Z के परिणाम को एक Activation Function से पास किया जाता है, ताकि यह गैर-रेखीय (Non-linearity) जोड़ सके और नेटवर्क जटिल पैटर्न को सीख सके। कुछ सामान्य सक्रियण फलन हैं:

  • ReLU (Rectified Linear Unit): f(x)=max⁡(0,x)f(x) = \max(0, x)f(x)=max(0,x)
  • सिग्मॉइड (Sigmoid): f(x)=11+e−xf(x) = \frac{1}{1 + e^{-x}}f(x)=1+e−x1​
  • हाइपरबोलिक टेंजेण्ट (Tanh): f(x)=ex−e−xex+e−xf(x) = \frac{e^x – e^{-x}}{e^x + e^{-x}}f(x)=ex+e−xex−e−x​

Layer 3: आउटपुट

अंत में, हिडन लेयर्स की processing के बाद output layer रिजल्ट देता है जैसे कि:

  • Regression Problems के लिए एक निरंतर संख्या।
  • Classification Problems के लिए एक श्रेणी (Class)।

3. FNN को प्रशिक्षित (Train) कैसे किया जाता है?

फ़ीड-फॉरवर्ड न्यूरल नेटवर्क को प्रशिक्षित करने के लिए एक प्रक्रिया अपनाई जाती है जिसमें डेटा से वज़न सीखे जाते हैं। इसके दो मुख्य चरण हैं:

(a) फॉरवर्ड प्रोपेगेशन (Forward Propagation)

डेटा को इनपुट से आउटपुट तक प्रसारित किया जाता है और एक प्रारंभिक भविष्यवाणी प्राप्त होती है।

(b) बैकप्रोपेगेशन (Backpropagation) और ग्रेडिएंट डिसेंट (Gradient Descent)

  • मॉडल की भविष्यवाणी और वास्तविक मान के बीच त्रुटि (Error) की गणना की जाती है।
  • लॉस फंक्शन (Loss Function) जैसे कि Mean Squared Error (MSE) या Cross-Entropy Loss का उपयोग किया जाता है।
  • Gradient Descent एल्गोरिदम का उपयोग करके वेट्स को अद्यतन किया जाता है ताकि नेटवर्क सटीकता में सुधार कर सके।

4. FNN का इस्तेमाल (Applications)

फ़ीड-फॉरवर्ड न्यूरल नेटवर्क का इस्तेमाल कई क्षेत्रों में किया जाता है:

  • हस्तलिखित अंकों की पहचान (Handwritten Digit Recognition) – जैसे कि MNIST डेटासेट का उपयोग कर।
  • भाषा मॉडलिंग (Language Processing) – टेक्स्ट विश्लेषण, स्पैम फ़िल्टरिंग आदि।
  • मेडिकल डायग्नोसिस (Medical Diagnosis) – बीमारी की पहचान के लिए।
  • शेयर बाजार भविष्यवाणी (Stock Market Prediction) – वित्तीय डेटा विश्लेषण।
  • स्वचालित अनुशंसा प्रणाली (Recommendation Systems) – जैसे कि मूवी या प्रोडक्ट सिफारिश।

5. FNN की सीमाएँ (Limitations of FNN)

हालाँकि FNN शक्तिशाली है, लेकिन इसकी कुछ सीमाएँ भी हैं:

  • याददाश्त की कमी (Lack of Memory) – यह पिछली जानकारी को याद नहीं रख सकता, इसलिए Time-Series डेटा के लिए परफेक्ट नहीं है।
  • High Training Time – बड़े नेटवर्क को अच्छी तरह से ट्रेन करना मुश्किल होता है।
  • वैनिशिंग ग्रेडिएंट समस्या (Vanishing Gradient Problem) – डीप नेटवर्क में, बैकप्रोपेगेशन के दौरान शुरुआती लेयर्स को प्रभावी ढंग से अपडेट करना मुश्किल हो सकता है।

देखा जाय तो फ़ीड-फॉरवर्ड न्यूरल नेटवर्क एक सरल लेकिन प्रभावशाली आर्टिफिशियल न्यूरल नेटवर्क है, जो कई एप्लीकेशंस में इस्तेमाल किया जाता है। यह मशीन लर्निंग और डीप लर्निंग का बेस है और अधिक एडवांस्ड नेटवर्क (जैसे CNNs और RNNs) को समझने की पहली सीढ़ी है। कुछ उसी तरह जैसे हम A,B,C,D…सीखते हैं वैसे ही यह भी डेटा साइंस का ककहरा है, जो स्थिति संगीत में सा रे ग म प ध नि की ही कुछ वैसी ही स्थिति फ़ीड-फॉरवर्ड न्यूरल नेटवर्क की है। चलिए, मिलते है, अगली पोस्ट पर। एआई की अनोखी दुनिया से रूबरू होंगे।

– Jotter Satish

Leave a Comment