0917-062-0010

مشاوره رایگان

9 صبح تا 9 شب

شنبه تا پنجشنبه

d8a2d985d988d8b2d8b4 d9bedb8cd8a7d8afd987 d8b3d8a7d8b2db8c d8b4d8a8daa9d987 d8b9d8b5d8a8db8c rbf d8afd8b1 d9bed8a7db8cd8aad988d986 65736f9f345c9

شبکه عصبی RBF یا همان «شبکه عصبی شعاعی پایه» (شبکه Radial Basis Function) نوع رایجی از شبکه‌های عصبی مصنوعی به حساب می‌آید که برای مسائل تقریب تابع (Function Approximation) مورد استفاده قرار می‌گیرد.

فهرست مطالب این نوشته
شبکه عصبی RBF چیست ؟

مثالی برای درک بهتر شبکه عصبی RBF

پیاده سازی شبکه عصبی RBF در پایتون

۱. فراخوانی کتابخانه‌های مورد نیاز برای پیاده‌سازی شبکه عصبی RBF‌ در پایتون

۲. تعیین وضعیت تصادفی و تغییر سبک نمودارها به ggplot

۳. ایجاد مجموعه داده مورد نیاز برای پیاده‌سازی شبکه عصبی RBF در پایتون

مشخص کردن تعداد داده‌ها و مراکز دسته‌ها برای ایجاد مجموعه داده

تعیین تعداد ویژگی‌ها و کلاس‌ها برای ایجاد مجموعه داده

ایجاد ماتریس‌های مورد نیاز برای ذخیره‌سازی داده‌ها

تولید و ذخیره‌سازی داده‌ها با استفاده از حلقه For در پایتون

رمزگذاری ماتریس برچسب‌ها با روش One-Hot

۴. مصورسازی مجموعه داده تولیدی برای پیاده سازی شبکه عصبی RBF در پایتون

۵. پیاده‌سازی شبکه عصبی RBF روی مجموعه داده تولید شده در پایتون

ایجاد یک کلاس برای شبکه عصبی RBF

ایجاد تابع سازنده برای پیاده سازی شبکه عصبی RBF در پایتون

تعریف تابعی برای تعیین مراکز نورون‌ها

تعیین تابعی برای برازش جهت اجرای مراحل آموزش مدل

۶. تعریف تابع fit_wb برای تنظیم بایاس‌های لایه آخر شبکه عصبی RBF در پایتون

محاسبه خروجی لایه RBF

مقداردهی اولیه وزن‌ها و بایاس‌ها

ایجاد یک حلقه برای تک تک Epochها

۷. پیاده‌سازی قانون دلتای تعمیم یافته

به‌روزرسانی وزن مورد نظر

محاسبه مقدار خروجی شبکه RBF با استفاده از تابع Model

فرمول قانون GDRبه چه صورت است؟

نمایش خطای کلی مدل شبکه عصبی RBF

کدنویسی تابع محاسبه فاصله (get_distances)

پیاده‌سازی تابع bf

کدنویسی تابع model

۸. تعریف تابعی برای سنجش میزان دقت مدل شبکه عصبی RBF در پایتون

ایجاد یک شی با استفاده از داده‌ها و آموزش مدل

مقایسه مقدار برچسب با مقدار پیش‌بینی شده به وسیله شبکه RBF

۹. نحوه مشاهده نموداری روند آموزش مدل شبکه RBF

جمع‌بندی

faradars mobile

شبکه عصبی RBF چیست ؟

شبکه‌های عصبی RBF که کوتاه شده عبارت «Radial Basis Function» (تابع شعاعی پایه) هستند، گونه‌ای خاص از شبکه‌های عصبی مصنوعی به حساب می‌آیند که مبتنی بر فاصله‌اند و شباهت بین داده‌ها را براساس فاصله می‌سنجند.

آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب
فیلم آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب در تم آف

کلیک کنید

یک شبکه RBF نوعی از شبکه عصبی مصنوعی شبکه عصبی پیشخور (Feed Forward) است که از سه لایه تشکیل می‌شود. هر یک از این لایه در ادامه فهرست شده‌اند:

  • لایه ورودی
  • لایه پنهان
  • لایه خروجی
معماری شبکه عصبی RBF

در ادامه مثالی برای درک بهتر فرآیندی ارائه شده است که در شبکه‌های RBF اتفاق می‌افتد.

مثالی برای درک بهتر شبکه عصبی RBF

برای شرح منطق کلی در شبکه‌های عصبی RBF بهتر است مثالی ارائه شود. در این مثال فرض بر این است که ۳ نمونه داده معین وجود دارند و مقادیر ویژگی هدف برای آن‌ها مطابق تصویر زیر است:

۳ نمونه داده معین به همراه مقادیر ویژگی هدف برای آن ها به عنوان مثالی برای درک بهتر شبکه عصبی RBF

می‌توان برای یک داده ورودی جدید براساس فاصله آن از تک تک داده‌های موجود تصمیم‌گیری کرد. برای مثال داده ورودی جدید در تصویر زیر به صورت علامت ضربدر مشخص شده است:

تصمیم گیری برای ورودی جدید بر اساس فاصله آن از داده های موجود | مثالی برای درک بهتر و مقدمه‌ای برای پیاده سازی شبکه های عصبی RBF در پایتون

همان‌طور که ملاحظه می‌شود، ورودی جدید به داده شماره یک نزدیک‌تر است؛ بنابراین، ویژگی هدف آن نیز شباهت زیادی به داده شماره یک خواهد داشت. اما اثر داده شماره 2 نیز قابل چشم‌پوشی نیست. در نتیجه بهتر است، عکس فاصله را به عنوان ضریب هر داده نظر گرفت و یک میانگین‌گیری وزن‌دار انجام داد. در شبکه‌های عصبی RBF نیز فرآیندی شبیه به این مثال اتفاق می‌افتد.

آموزش مقدماتی پیاده سازی شبکه های عصبی مصنوعی در پایتون Python
فیلم آموزش مقدماتی پیاده سازی شبکه های عصبی مصنوعی در پایتون Python در تم آف

کلیک کنید

حالا پس از پاسخ به این سوال که شبکه عصبی RBF چیست ، در ادامه می‌توان به بحث اصلی، یعنی پیاده سازی شبکه عصبی RBF در پایتون پرداخت.

پیاده سازی شبکه عصبی RBF در پایتون

در این بخش به آموزش پیاده سازی شبکه عصبی RBF در پایتون پرداخته شده است. هر یک از گام‌های این پیاده سازی در ادامه فهرست شده‌اند:

آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب
فیلم آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب در تم آف

کلیک کنید

  1. فراخوانی کتابخانه‌های مورد نیاز برای پیاده‌سازی شبکه عصبی RBF‌ در پایتون
  2. تعیین وضعیت تصادفی و تغییر سبک نمودارها به ggplot
  3. ایجاد مجموعه داده مورد نیاز برای پیاده‌سازی شبکه عصبی RBF در پایتون
  4. مصورسازی مجموعه داده تولیدی برای پیاده سازی شبکه عصبی RBF در پایتون
  5. پیاده‌سازی شبکه عصبی RBF روی مجموعه داده تولید شده در پایتون
  6. تعریف تابع fit_wb برای تنظیم بایاس‌های لایه آخر شبکه عصبی RBF در پایتون
  7. پیاده‌سازی قانون دلتای تعمیم یافته
  8. تعریف تابعی برای سنجش میزان دقت مدل شبکه عصبی RBF در پایتون
  9. نحوه مشاهده نموداری روند آموزش مدل شبکه RBF

۱. فراخوانی کتابخانه‌های مورد نیاز برای پیاده‌سازی شبکه عصبی RBF‌ در پایتون

اکنون برای شروع پیاده سازی شبکه عصبی RBF در پایتون ، باید وارد محیط برنامه‌نویسی شده و کتابخانه‌های مورد نیاز را فراخوانی کرد:

import numpy as np
import sklearn.cluster as cl
import sklearn.metrics as met
import matplotlib.pyplot as plt
import sklearn.preprocessing as pp

هر یک از کتابخانه‌های فراخوانی شده به ترتیب برای اهداف زیر فراخوانی می‌شوند:

آموزش مقدماتی پیاده سازی شبکه های عصبی مصنوعی در پایتون Python
فیلم آموزش مقدماتی پیاده سازی شبکه های عصبی مصنوعی در پایتون Python

کلیک کنید

  1. Numpy : کار با آرایه‌ها
  2. Sklearn.Cluster : خوشه‌بندی
  3. Sklearn.Metrics : محاسبه معیارهای دقت و خطا
  4. Matplotlib.Pyplot : رسم نمودار
  5. Sklearn.Preprocessing : عملیات پیش‌پردازش
  • مقاله‌های پیشنهادی:
    • Scikit-Learn کتابخانه 
    • رسم نمودار در پایتون با Matplotlib — راهنمای کاربردی

۲. تعیین وضعیت تصادفی و تغییر سبک نمودارها به ggplot

ابتدا Random State را تعیین کرده و سپس باید استایل نمودارها را به ggplot تغییر داد:

np.random.seed(0)
plt.style.use('ggplot')

حال نیاز به یک مجموعه داده وجود دارد. بنابراین، در ادامه به ایجاد آن در پایتون پرداخته شده است.

۳. ایجاد مجموعه داده مورد نیاز برای پیاده‌سازی شبکه عصبی RBF در پایتون

برای تولید مجموعه داده، نیاز به مجموعه‌‌ای با ۳ دسته مختلف وجود دارد. در این مجموعه داده از توزیع نرمال حول تعدادی مرکز دسته استفاده شده است. ابتدا باید تعداد داده‌ها و مراکز دسته‌ها را مشخص کرد.

آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب
فیلم آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب در تم آف

کلیک کنید

مشخص کردن تعداد داده‌ها و مراکز دسته‌ها برای ایجاد مجموعه داده

مشخص کردن تعداد داده‌ها و مراکز دسته به صورت زیر انجام می‌شود:

nD = 200 # Data Size
M = np.array([[0, 0], [1, 0.6], [0.6, 0.9]]) # Clusters Center
S = 0.2 # Distribution Variance

در کدهای فوق، 3 مرکز دسته با مختصات (0,0)، (1,0.6) و (0.6,0.9) ایجاد شده‌اند. باید توجه داشت که چون نمایش داده‌هایی با ابعاد بالاتر ممکن نیست، از داده‌های دوبُعدی استفاده شده است. متغیر S نیز برای تعیین انحراف معیار (واریانس) توزیع نرمال تعریف می‌شود که با شدت پراکندگی داده‌ها ارتباط مستقیم دارد. حالا باید تعداد ویژگی‌ها (Features) و تعداد کلاس‌ها (دسته‌ها) را مشخص کرد.

تعیین تعداد ویژگی‌ها و کلاس‌ها برای ایجاد مجموعه داده

تعیین تعداد ویژگی‌ها و کلاس‌ها به صورت زیر انجام می‌شود:

nC, nX = M.shape

در نتیجه‌ اجرای خط کد بالا، دو متغیر nX و nC به صورت زیر مقداردهی می‌شوند:

$$ nC=3 $$

$$ nX=2 $$

ایجاد ماتریس‌های مورد نیاز برای ذخیره‌سازی داده‌ها

حالا باید ماتریس‌هایی خالی را برای ذخیره‌سازی داده‌ها ایجاد کرد:

X = np.zeros((nD, nX))
Y = np.zeros((nD, 1))

چون در مسائل دسته‌بندی (Classification) تنها یک ویژگی هدف وجود دارد و آن برچسب (Label) داده است، ماتریس Y تنها دارای یک ستون خواهد بود.

آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب
فیلم آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب در تم آف

کلیک کنید

تولید و ذخیره‌سازی داده‌ها با استفاده از حلقه For در پایتون

اکنون باید یک حلقه for ایجاد کرد تا به وسیله آن داده‌ها تولید و در ماتریس‌های X و Y ذخیره شوند:

# Creating Dataset
for i in range(nD):
    c = np.random.randint(nC)
    X[i, :] = M[c] + S*np.random.randn(nX)
    Y[i, 0] = c

در سطر اول کدهای بالا ابتدا در مورد کلاس داده‌ای که قصد ایجاد آن وجود دارد تصمیم‌گیری شده است که یک عدد از 0 تا 2 خواهد بود. در سطر بعدی، مختصات یک نمونه داده با افزودن مقداری جابه‌جایی (به صورت تصادفی) به مرکز دسته تولید شده است که این میزان جابه‌جایی در تمامی ابعاد به صورت توزیع نرمال خواهد بود. در سطر بعدی نیز برچسب داده‌ها در ماتریس ستونی Y ذخیره می‌شود.

آموزش مقدماتی پیاده سازی شبکه های عصبی مصنوعی در پایتون Python
فیلم آموزش مقدماتی پیاده سازی شبکه های عصبی مصنوعی در پایتون Python در تم آف

کلیک کنید

رمزگذاری ماتریس برچسب‌ها با روش One-Hot

برای انجام مسائل طبقه‌بندی، نیاز است تا ماتریس Y را با روش One-Hot رمزگذاری (Encode) کنیم:

# One-Hot Encoding Labels
OHE = pp.OneHotEncoder()
OHY = OHE.fit_transform(Y).toarray()

اکنون ماتریس OHY تنها شامل اعداد 1 و 0 است و در هر سطر تنها ستون متناظر با کلاس مربوطه، دارای مقدار یک است. توجه داشته باشید که خروجی تابع fit_transform یک آرایه نیست و برای تبدیل آن باید از تابع toarray استفاده شود. پس از اتمام تولید داده‌ها، نیاز است تا آن‌ها را مصورسازی و از مطلوب بودن نتایج اطمینان حاصل کرد.

آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب
فیلم آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب در تم آف

کلیک کنید

۴. مصورسازی مجموعه داده تولیدی برای پیاده سازی شبکه عصبی RBF در پایتون

مصورسازی داده‌های تولید شده در مرحله قبل به صورت زیر انجام می‌شود:

# Visualizing Created Data
plt.scatter(X[:, 0], X[:, 1], c=Y[:, 0], s=20, marker='o')
plt.scatter(M[:, 0], M[:, 1], c='r', s=80, marker='x', label='Center')
plt.xlabel('$X_1$')
plt.ylabel('$X_2$')
plt.legend()
plt.show()

عملیات زیر به ترتیب در ۵ سطر فوق انجام می‌شوند:

  1. داده‌های تولید شده در محل مختصات خود با رنگ مربوط به دسته خود رسم می‌شوند.
  2. مرکزهای دسته‌ها با علامت x و با رنگ قرمز در محل مختصات خود رسم می‌شوند.
  3. نام محور افقی به $$ X_1 $$ تغییر می‌کند.
  4. اسم محور عمودی به $$ X_2 $$ تغییر می‌یابد.
  5. برای نمایش برچسب‌ها، legend فراخوانی می‌شود.
  6. نمودار نمایش داده خواهد شد.
آموزش مقدماتی پیاده سازی شبکه های عصبی مصنوعی در پایتون Python
فیلم آموزش مقدماتی پیاده سازی شبکه های عصبی مصنوعی در پایتون Python در تم آف

کلیک کنید

در نهایت، خروجی کدهای بالا به صورت زیر خواهد بود:

مصورسازی داده های تولید شده پیش از پیاده سازی شبکه عصبی RBF در پایتون

به این ترتیب، مجموعه داده‌ها آماده شده است و می‌توان گام بعدی پیاده سازی شبکه عصبی RBF در پایتون را آغاز کرد. برای ادامه کار باید آشنایی کافی با شبکه‌های عصبی مصنوعی وجود داشته باشد. بنابراین، مطالعه مقاله‌های زیر به آن دسته از افرادی پیشنهاد می‌شود که نیاز به کسب آشنایی با شبکه‌های عصبی مصنوعی دارند:

  • انواع شبکه های عصبی مصنوعی — راهنمای جامع
  • ساخت شبکه عصبی — راهنمای مقدماتی
  • ساخت شبکه عصبی (Neural Network) در پایتون — به زبان ساده
  • شبکه عصبی مصنوعی و پیاده‌سازی در پایتون — راهنمای کاربردی
  • دسته بندی داده ها با شبکه عصبی مصنوعی | راهنمای کاربردی

۵. پیاده‌سازی شبکه عصبی RBF روی مجموعه داده تولید شده در پایتون

در این بخش هر یک از مراحل پیاده‌سازی شبکه عصبی RBF روی مجموعه داده تولید شده در پایتون شرح داده شده‌اند.

آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب
فیلم آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب در تم آف

کلیک کنید

ایجاد یک کلاس برای شبکه عصبی RBF

برای پیاده‌سازی شبکه عصبی RBF روی مجموعه داده تولید شده، ابتدا باید یک کلاس برای شبکه عصبی RBF ایجاد شود:

    Class RBF:

ایجاد تابع سازنده برای پیاده سازی شبکه عصبی RBF در پایتون

سپس باید تابع سازنده را ایجاد کرد:

    def __init__ (self, name:str):
        self.name = name

تعریف تابعی برای تعیین مراکز نورون‌ها

حالا باید تابعی برای تعیین مرکزهای نورون‌ها ایجاد شود:

    def fit_centers (self, X:np.ndarray):
        self.KMN = cl.KMeans(n_clusters=self.nH)
        self.KMN.fit(X)
        self.C = self.KMN.cluster_centers_

این تابع در ورودی ماتریس Xها را می‌گیرد و یک الگوریتم K-Means را روی آن‌ها برازش (Fit) می‌کند. در نهایت نیز باید مراکز خوشه‌ها را با نام C در شی مربوطه ذخیره کرد.

آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب
فیلم آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب در تم آف

کلیک کنید

  • مقاله‌های پیشنهادی:
    • پیاده سازی الگوریتم خوشه بندی K-means در پایتون — راهنمای گام به گام
    • خوشه بندی K-Means در پایتون — راهنمای کاربردی

تعیین تابعی برای برازش جهت اجرای مراحل آموزش مدل

در این مرحله باید تابعی را برای برازش تعیین کرد تا تمامی مراحل آموزش مدل در آن رخ دهند:

    def fit (self, X:np.ndarray, Y:np.ndarray, nH:int, nEpoch:int=100, lr:float=1e-2):
        self.nX = X.shape[1]
        self.nY = Y.shape[1]
        self.nH = nH
        self.nEpoch = nEpoch
        self.lr = lr
        self.fit_centers(X)
        self.fit_wb(X, Y)

این تابع در ورودی داده‌ها، تعداد نورون‌های مخفی (مربوط به لایه‌ی RBF)، تعداد مراحل آموزش مدل و نرخ یادگیری را دریافت می‌کند. سپس باید تعداد ورودی، تعداد خروجی، تعداد نورون‌ها، تعداد مراحل آموزش و نرخ یادگیری را در شی مربوطه ذخیره کرد. پس از آن، تابع fit_centers برای تعیین مراکز فراخوانی می‌شود. سپس، تابع fit_wb فراخوانی خواهد شد که این تابع هنوز تعریف نشده است. بنابراین در ادامه به تعریف آن پرداخته می‌شود. پیش از آن به معرفی مجموعه دوره‌های آموزش شبکه‌های عصبی تم آف پرداخته شده است.

۶. تعریف تابع fit_wb برای تنظیم بایاس‌های لایه آخر شبکه عصبی RBF در پایتون

تابع fit_wb وزن‌ها و بایاس‌های لایه‌ی آخر را تنظیم می‌کند. این تابع به صورت زیر تعریف می‌شود:

    def fit_wb (self, X:np.ndarray, Y:np.ndarray):

محاسبه خروجی لایه RBF

ابتدا نیاز است تا خروجی لایه RBF محاسبه شود؛ برای انجام این کار، ابتدا باید فاصله‌ هر داده از هر مرکز را محاسبه کرد. برای انجام این محاسبات از تابع get_distances استفاده شده است:

    def fit_wb (self, X:np.ndarray, Y:np.ndarray):
        D = self.get_distances(X)

حالا فاصله‌ها باید وارد Basis Function شوند:

    def fit_wb (self, X:np.ndarray, Y:np.ndarray):
        D = self.get_distances(X)
        O1 = self.bf(D)

بدین ترتیب، خروجی لایه اول به دست می‌آید. از این بخش به بعد، می‌توان وزن‌ها و بایاس‌ها را تنظیم کرد. اما ابتدا نیاز است تا مقداردهی اولیه آن‌ها انجام شود.

آموزش مقدماتی پیاده سازی شبکه های عصبی مصنوعی در پایتون Python
فیلم آموزش مقدماتی پیاده سازی شبکه های عصبی مصنوعی در پایتون Python در تم آف

کلیک کنید

مقداردهی اولیه وزن‌ها و بایاس‌ها

مقداردهی اولیه وزن‌ها و بایاس‌ها به صورت زیر انجام می‌شود:

    def fit_wb (self, X:np.ndarray, Y:np.ndarray):
        D = self.get_distances(X)
        O1 = self.bf(D)
        self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
        self.B = np.random.uniform(-1, +1, (self.nY))

باید توجه داشت که ماتریس وزن بین لایه مخفی و لایه خروجی تعریف شده است؛ بنابراین شکل آن به صورت $$ nH times nY $$ خواهد بود. ماتریس بایاس نیز تنها برای نورون‌های لایه خروجی تعریف شده و به اندازه خروجی‌های شبکه خواهد بود.

ایجاد یک حلقه برای تک تک Epochها

حالا باید یک حلقه برای تک تک Epochها ایجاد کرد:

    def fit_wb (self, X:np.ndarray, Y:np.ndarray):
        D = self.get_distances(X)
        O1 = self.bf(D)
        self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
        self.B = np.random.uniform(-1, +1, (self.nY))
        for I in range(self.nEpoch):

حال در هر مرحله از آموزش (Train)، برای هر داده باید فرآیند آموزش را تکرار کرد. بنابراین به صورت زیر عمل می‌شود:

def fit_wb (self, X:np.ndarray, Y:np.ndarray):
        D = self.get_distances(X)
        O1 = self.bf(D)
        self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
        self.B = np.random.uniform(-1, +1, (self.nY))
        for I in range(self.nEpoch):
            for x, y in zip(O1, Y):

۷. پیاده‌سازی قانون دلتای تعمیم یافته

حال باید قانون GDR یا Generalized Delta Rule (قانون دلتای تعمیم یافته) را پیاده‌سازی کرد.

آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب
فیلم آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب در تم آف

کلیک کنید

به‌روزرسانی وزن مورد نظر

برای وزن‌ها، دو حلقه تو‌در‌تو نیاز است تا بتوان به ازای هر ورودی و هر خروجی، وزن مورد نظر را به‌روزرسانی کرد:

    def fit_wb (self, X:np.ndarray, Y:np.ndarray):
        D = self.get_distances(X)
        O1 = self.bf(D)
        self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
        self.B = np.random.uniform(-1, +1, (self.nY))
        for I in range(self.nEpoch):
            for x, y in zip(O1, Y):
                for j in range(self.nH):
                    for k in range(self.nY):

محاسبه مقدار خروجی شبکه RBF با استفاده از تابع Model

مقدار خروجی شبکه با استفاده از تابع model به صورت زیر محاسبه می‌شود:

    def fit_wb (self, X:np.ndarray, Y:np.ndarray):
        D = self.get_distances(X)
        O1 = self.bf(D)
        self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
        self.B = np.random.uniform(-1, +1, (self.nY))
        for I in range(self.nEpoch):
            for x, y in zip(O1, Y):
                for j in range(self.nH):
                    for k in range(self.nY):
                        o = self.model(x)

فرمول قانون GDRبه چه صورت است؟

قانون GDR به صورت زیر است:

$$Delta W_{i,j} = eta.x_i.(y_i – o_j).{f’}_{(z)}$$

$$Delta B_j = eta.(y_i – o_j).{f’}_{(z)}$$

برای وزن‌ها به صورت زیر خواهیم داشت:

    def fit_wb (self, X:np.ndarray, Y:np.ndarray):
        D = self.get_distances(X)
        O1 = self.bf(D)
        self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
        self.B = np.random.uniform(-1, +1, (self.nY))
        for I in range(self.nEpoch):
            for x, y in zip(O1, Y):
                for i in range(self.nH):
                    for j in range(self.nY):
                        o = self.model(x)
                        e = y[j] - o[j]
                        d = (o[j] * (1 - o[j]))
                        self.W[i, j] += self.lr * x[i] * e * d

باید توجه داشت که چون از تابع فعال‌سازی Sigmoid در لایه خروجی استفاده خواهد شد، مشتق آن نیز به صورت زیر در خواهد آمد:

$$ y = S_{(x)} = frac{1}{1+e^{-x}} = (1+ e^{-x})^{-1} $$

$$ Rightarrow frac{dS}{dx} = ((1+e^{-x} )^{-1} )^{‘} = -(0-e^{-x}) (1+e^{-x} )^{-2} = frac {e^{-x}}{(1+e^{-x} )^2} = frac {e^{-x}}{(1+e^{-x})} S_{(x)} $$

$$ space =(1-S_{(x)} ) S_{(x)} = y(1-y) $$

حالا برای کدهای مربوط به به‌روزرسانی بایاس‌ها نیز می‌توان به روش مشابه عمل کرد:

    def fit_wb (self, X:np.ndarray, Y:np.ndarray):
        D = self.get_distances(X)
        O1 = self.bf(D)
        self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
        self.B = np.random.uniform(-1, +1, (self.nY))
        for I in range(self.nEpoch):
            for x, y in zip(O1, Y):
                for i in range(self.nH):
                    for j in range(self.nY):
                        o = self.model(x)
                        e = y[j] - o[j]
                        d = (o[j] * (1 - o[j]))
                        self.W[i, j] += self.lr * x[i] * e * d
                for j in range(self.nY):
                    o = self.model(x)
                    e = y[j] - o[j]
                    d = (o[j] * (1 - o[j]))
                    self.B[j] += self.lr * e * d

نمایش خطای کلی مدل شبکه عصبی RBF

اکنون تابع کامل شده است. برای اطلاع از شرایط لحظه‌ای مدل، می‌توان در انتهای هر مرحله خطای کلی مدل را به صورت زیر نمایش داد:

    def fit_wb (self, X:np.ndarray, Y:np.ndarray):
        D = self.get_distances(X)
        O1 = self.bf(D)
        self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
        self.B = np.random.uniform(-1, +1, (self.nY))
        O2 = self.model(O1)
        print(f'Epoch: {0} -- Loss: {round(met.mean_squared_error(Y, O2), 4)}')
        for I in range(self.nEpoch):
            for x, y in zip(O1, Y):
                for i in range(self.nH):
                    for j in range(self.nY):
                        o = self.model(x)
                        e = y[j] - o[j]
                        d = (o[j] * (1 - o[j]))
                        self.W[i, j] += self.lr * x[i] * e * d
                for j in range(self.nY):
                    o = self.model(x)
                    e = y[j] - o[j]
                    d = (o[j] * (1 - o[j]))
                    self.B[j] += self.lr * e * d
            O2 = self.model(O1)
            print(f'Epoch: {I+1} -- Loss: {round(met.mean_squared_error(Y, O2), 4)}')

حال این تابع در ابتدای هر مرحله، مقدار خطای مدل را نیز نمایش خواهد داد. حالا نیاز است تا تابع‌هایی که در طول نوشتن تابع fit_wb از آن‌ها استفاده شده را نیز پیاده‌سازی کرد.

آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب
فیلم آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب در تم آف

کلیک کنید

کدنویسی تابع محاسبه فاصله (get_distances)

تابع محاسبه فاصله به صورت زیر نوشته می‌شود:

    def get_distances (self, X:np.ndarray):
        N = X.shape[0]
        D = np.zeros((N, self.nH))
        for i in range(N):
            for j in range(self.nH):
                D[i, j] = np.linalg.norm(X[i] - self.C[j], ord=2)
        return D

این تابع با گرفتن داده‌ها، ابتدا تعداد آن‌ها را در N ذخیره می‌کند. سپس ماتریسی$$ N times nH $$ برای ذخیره فاصله هر داده از هر مرکز ایجاد می‌کند. در نهایت نیز به ازای هر داده و هر مرکز، مقدار Norm محاسبه و ذخیره می‌شود.

پیاده‌سازی تابع bf

در این کد قصد استفاده از تابع گوسی برای این منظور وجود دارد:

    def bf (self, D:np.ndarray, a:float=10):
        return np.exp(-a*np.power(D, 2))

در این تابع نیز فرمول ساده شده‌ای از تابع گوسی استفاده شده است. باید توجه داشت که عدد a در تعیین میزان شارپ بودن تابع نقش مهمی دارد و جزء هایپرپارامترهای (فرا پارامترها | Hyperparameter) مسئله محسوب می‌شود.

آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب
فیلم آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب در تم آف

کلیک کنید

کدنویسی تابع model

کدهای مربوط به این تابع به صورت زیر هستند:

    def model (self, X:np.ndarray):
        Z = np.dot(X, self.W) + self.B
        O = 1/(1 + np.exp(-Z))
        return O

این تابع ابتدا یک ترکیب خطی از X ایجاد و سپس آن را وارد تابع Sigmoid می‌کند. حال توابع مورد نیاز همگی پیاده‌سازی شده‌اند و برنامه تا به اینجا کامل است.

۸. تعریف تابعی برای سنجش میزان دقت مدل شبکه عصبی RBF در پایتون

برای اینکه بتوان دقت مدل را سنجید، تابعی دیگر برای این منظور به صورت زیر تعریف می‌شود:

    def accuracy (self, Y:np.ndarray, O:np.ndarray):
        N = Y.shape[0]
        a = 0
        for i in range(N):
            if np.argmax(Y[i, :]) == np.argmax(O[i, :]):
                a += 1
        return a/N

این تابع با دریافت مقادیر هدف و مقادیر پیش‌بینی شده توسط مدل، دقت مدل را بازمی‌گرداند که همواره عددی اعشاری بین 0 و 1 خواهد بود. اکنون باید تابع مورد نظر را در طی مراحل آموزش مدل فراخوانی کرد:

    def fit_wb (self, X:np.ndarray, Y:np.ndarray):
        D = self.get_distances(X)
        O1 = self.bf(D)
        self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
        self.B = np.random.uniform(-1, +1, (self.nY))
        O2 = self.model(O1)
        E = round(met.mean_squared_error(Y, O2), 4)
        A = round(self.accuracy(Y, O2), 4)
        print(f'Epoch: {0} -- Loss: {E} -- Accuracy: {A}')
        for I in range(self.nEpoch):
            for x, y in zip(O1, Y):
                for i in range(self.nH):
                    for j in range(self.nY):
                        o = self.model(x)
                        e = y[j] - o[j]
                        d = (o[j] * (1 - o[j]))
                        self.W[i, j] += self.lr * x[i] * e * d
                for j in range(self.nY):
                    o = self.model(x)
                    e = y[j] - o[j]
                    d = (o[j] * (1 - o[j]))
                    self.B[j] += self.lr * e * d
            O2 = self.model(O1)
            E = round(met.mean_squared_error(Y, O2), 4)
            A = round(self.accuracy(Y, O2), 4)
            print(f'Epoch: {I+1} -- Loss: {E} -- Accuracy: {A}')

به این تریتب در طول اجرای برنامه، مرحله، خطا و دقت ملاحظه خواهد شد.

آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب
فیلم آموزش الگوریتم های بهینه سازی در یادگیری ماشین + پیاده سازی در متلب در تم آف

کلیک کنید

ایجاد یک شی با استفاده از داده‌ها و آموزش مدل

حالا با استفاده از کلاس مربوطه یک شی ایجاد کرده و آن شی روی داده‌های مورد نظر آموزش داده خواهد شد:

Model = RBF('My First RBF')

Model.fit(X, OHY, 3, nEpoch=50, lr=1e-3)

پس از اجرای این کد خواهیم داشت:

Epoch: 0 -- Loss: 0.2025 -- Accuracy: 0.68
.
.
Epoch: 50 -- Loss: 0.1626 -- Accuracy: 0.99

به این صورت، دقت مدل تا مقدار 99 درصد افزایش می‌یابد. تا اینجا شبکه RBF کامل شده است و می‌تواند به خوبی آموزش ببیند. برای اینکه بتوان برای داده‌های جدید نیز خروجی تولید کرد، نیاز است تا تابعی به نام predict تعریف شود:

    def predict (self, X:np.ndarray):
        D = self.get_distances(X)
        O1 = self.bf(D)
        O2 = self.model(O1)
        return np.argmax(O2, axis=1).reshape((-1, 1))

تابع Predict شش مرحله کار را روی داده‌های ورودی انجام می‌دهد:

آموزش مقدماتی پیاده سازی شبکه های عصبی مصنوعی در پایتون Python
فیلم آموزش مقدماتی پیاده سازی شبکه های عصبی مصنوعی در پایتون Python

کلیک کنید

  1. فواصل را محاسبه می‌کند.
  2. محاسبه مقدار bf را با توجه به فواصل انجام می‌دهد.
  3. یک ترکیب خطی از خروجی لایه RBF ایجاد می‌کند.
  4. وارد کردن خروجی ترکیب خطی را به تابع سیگموئید انجام می‌دهد.
  5. برای هر داده، نورون برنده با استفاده از تابع argmax تعیین می‌شود.
  6. در نهایت نیز ماتریس برنده‌ها را به شکل ستونی در آورده و خروجی می‌دهد.

مقایسه مقدار برچسب با مقدار پیش‌بینی شده به وسیله شبکه RBF

حال می‌توان برای 10 داده اول مقدار برچسب را با مقدار پیش‌بینی شده مقایسه کرد:

print(Y[:10])

print(Model.predict(X)[:10])

خروجی به صورت زیر خواهد بود:

$$ [[0], [1], [2], [1], [0], [0], [0], [2], [1], [0]] $$
$$ [[0], [1], [2], [1], [0], [0], [0], [2], [1], [0]] $$

خروجی‌ها برای این 10 داده‌ کاملاً درست هستند.

۹. نحوه مشاهده نموداری روند آموزش مدل شبکه RBF

برای مشاهده روند آموزش مدل به صورت نموداری، می‌توان دقت و خطا را در طول مراحل اجرا ذخیره کرد و در نهایت نمایش داد. برای انجام این کار، تابع fit_wb باید به صورت زیر تغییر داده شود:

    def fit_wb (self, X:np.ndarray, Y:np.ndarray):
        D = self.get_distances(X)
        O1 = self.bf(D)
        self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
        self.B = np.random.uniform(-1, +1, (self.nY))
        self.history = {'loss':[], 'accuracy':[]}
        O2 = self.model(O1)
        E = round(met.mean_squared_error(Y, O2), 4)
        A = round(self.accuracy(Y, O2), 4)
        self.history['loss'].append(E)
        self.history['accuracy'].append(A)
        print(f'Epoch: {0} -- Loss: {E} -- Accuracy: {A}')
        for I in range(self.nEpoch):
            for x, y in zip(O1, Y):
                for i in range(self.nH):
                    for j in range(self.nY):
                        o = self.model(x)
                        e = y[j] - o[j]
                        d = (o[j] * (1 - o[j]))
                        self.W[i, j] += self.lr * x[i] * e * d
                for j in range(self.nY):
                    o = self.model(x)
                    e = y[j] - o[j]
                    d = (o[j] * (1 - o[j]))
                    self.B[j] += self.lr * e * d
            O2 = self.model(O1)
            E = round(met.mean_squared_error(Y, O2), 4)
            A = round(self.accuracy(Y, O2), 4)
            self.history['loss'].append(E)
            self.history['accuracy'].append(A)
            print(f'Epoch: {I+1} -- Loss: {E} -- Accuracy: {A}')

در کدهای فوق یک دیکشتری به اسم history ایجاد می‌شود که دو لیست خالی برای ذخیره خطا و دقت دارد. حال می‌توان این دو نمودار را نمایش داد:

Losses = Model.history['loss']
Accuracies = Model.history['accuracy']

plt.subplot(1, 2, 1)
plt.plot(Losses, lw=1.2, c='crimson', marker='o', ms=3)
plt.title('Loss')
plt.xlabel('Epoch')
plt.ylabel('MSE')

plt.subplot(1, 2, 2)
plt.plot(Accuracies, lw=1.2, c='teal', marker='o', ms=3)
plt.title('Accuracy')
plt.xlabel('Epoch')
plt.ylabel('Accuracy')

plt.show()

در خروجی این بخش از کد، دو نمودار به صورت زیر حاصل می‌شود:

نمایش روند آموزش مدل شبکه عصبی RBF به صورت نموداری

حال اگر شدت پراکندگی را از $$ 0.1 $$ به $$ 0.2 $$ افزایش یابد، نمایش بصری پراکندگی داده به صورت شکل زیر خواهد بود.:

افزایش شدت پراکندی داده‌ها برای مشاهده تاثیر آن روی دقت شبکه عصبی RBF با پایتون

در این صورت، زیان و دقت مدل به شکل زیر است:

Loss and Accuracy 2

بنابراین به راحتی می‌توان گفت که با درهم‌رفتگی دسته‌ها، دقت مدل نیز کاهش می‌یابد. همچنین، می‌توان دسته‌بندی اصلی را با دسته‌بندی مدل مقایسه کرد:

O = Model.predict(X)

plt.subplot(1, 2, 1)
plt.scatter(X[:, 0], X[:, 1], c=Y[:, 0], s=20, marker='o')
plt.scatter(M[:, 0], M[:, 1], c='r', s=80, marker='x', label='Center')
plt.title('Real')
plt.xlabel('$X_1$')
plt.ylabel('$X_2$')
plt.legend()

plt.subplot(1, 2, 2)
plt.scatter(X[:, 0], X[:, 1], c=O[:, 0], s=20, marker='o')
plt.scatter(M[:, 0], M[:, 1], c='r', s=80, marker='x', label='Center')
plt.title('Predicted')
plt.xlabel('$X_1$')
plt.ylabel('$X_2$')
plt.legend()

plt.savefig('5.png',dpi=300)

در خروجی این بخش نیز دو نمودار به شکل زیر ایجاد می‌شوند:

Prediction Results with RBF in Comparison with the Real Classification

به این ترتیب، آموزش پیاده سازی شبکه عصبی RBF در پایتون به پایان می‌رسد. پیش از ارائه یک جمع‌بندی به م

مجموعه آموزش شبکه‌ های عصبی مصنوعی
فیلم مجموعه آموزش شبکه‌ های عصبی مصنوعی در تم آف

کلیک کنید

جمع‌بندی

در پروژه پیاده سازی شبکه عصبی RBF در پایتون، ابتدا مجموعه داده‌ای ایجاد و سپس با استفاده از مفهوم شی‌گرایی، یک کلاس برای شبکه‌های عصبی RBF تعریف شد که می‌تواند به خوبی عمل طبقه‌بندی را انجام دهد.

مجموعه آموزش برنامه نویسی پایتون (Python)
فیلم مجموعه آموزش برنامه نویسی پایتون (Python) در تم آف

کلیک کنید

برای آزمایش و پژوهش بیش‌تر، می‌توان تعداد کلاس‌ها، تعداد خوشه‌های الگوریتم K-Means، ضریب تابع bf و نرخ یادگیری را تغییر داد و اثر هرکدام را در خروجی ملاحظه کرد.

ارسال پاسخ

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.