شبکه عصبی RBF یا همان «شبکه عصبی شعاعی پایه» (شبکه Radial Basis Function) نوع رایجی از شبکههای عصبی مصنوعی به حساب میآید که برای مسائل تقریب تابع (Function Approximation) مورد استفاده قرار میگیرد.
شبکه عصبی RBF چیست ؟
شبکههای عصبی RBF که کوتاه شده عبارت «Radial Basis Function» (تابع شعاعی پایه) هستند، گونهای خاص از شبکههای عصبی مصنوعی به حساب میآیند که مبتنی بر فاصلهاند و شباهت بین دادهها را براساس فاصله میسنجند.
یک شبکه RBF نوعی از شبکه عصبی مصنوعی شبکه عصبی پیشخور (Feed Forward) است که از سه لایه تشکیل میشود. هر یک از این لایه در ادامه فهرست شدهاند:
- لایه ورودی
- لایه پنهان
- لایه خروجی
در ادامه مثالی برای درک بهتر فرآیندی ارائه شده است که در شبکههای RBF اتفاق میافتد.
مثالی برای درک بهتر شبکه عصبی RBF
برای شرح منطق کلی در شبکههای عصبی RBF بهتر است مثالی ارائه شود. در این مثال فرض بر این است که ۳ نمونه داده معین وجود دارند و مقادیر ویژگی هدف برای آنها مطابق تصویر زیر است:
میتوان برای یک داده ورودی جدید براساس فاصله آن از تک تک دادههای موجود تصمیمگیری کرد. برای مثال داده ورودی جدید در تصویر زیر به صورت علامت ضربدر مشخص شده است:
همانطور که ملاحظه میشود، ورودی جدید به داده شماره یک نزدیکتر است؛ بنابراین، ویژگی هدف آن نیز شباهت زیادی به داده شماره یک خواهد داشت. اما اثر داده شماره 2 نیز قابل چشمپوشی نیست. در نتیجه بهتر است، عکس فاصله را به عنوان ضریب هر داده نظر گرفت و یک میانگینگیری وزندار انجام داد. در شبکههای عصبی RBF نیز فرآیندی شبیه به این مثال اتفاق میافتد.
حالا پس از پاسخ به این سوال که شبکه عصبی RBF چیست ، در ادامه میتوان به بحث اصلی، یعنی پیاده سازی شبکه عصبی RBF در پایتون پرداخت.
پیاده سازی شبکه عصبی RBF در پایتون
در این بخش به آموزش پیاده سازی شبکه عصبی RBF در پایتون پرداخته شده است. هر یک از گامهای این پیاده سازی در ادامه فهرست شدهاند:
- فراخوانی کتابخانههای مورد نیاز برای پیادهسازی شبکه عصبی RBF در پایتون
- تعیین وضعیت تصادفی و تغییر سبک نمودارها به ggplot
- ایجاد مجموعه داده مورد نیاز برای پیادهسازی شبکه عصبی RBF در پایتون
- مصورسازی مجموعه داده تولیدی برای پیاده سازی شبکه عصبی RBF در پایتون
- پیادهسازی شبکه عصبی RBF روی مجموعه داده تولید شده در پایتون
- تعریف تابع fit_wb برای تنظیم بایاسهای لایه آخر شبکه عصبی RBF در پایتون
- پیادهسازی قانون دلتای تعمیم یافته
- تعریف تابعی برای سنجش میزان دقت مدل شبکه عصبی RBF در پایتون
- نحوه مشاهده نموداری روند آموزش مدل شبکه RBF
۱. فراخوانی کتابخانههای مورد نیاز برای پیادهسازی شبکه عصبی RBF در پایتون
اکنون برای شروع پیاده سازی شبکه عصبی RBF در پایتون ، باید وارد محیط برنامهنویسی شده و کتابخانههای مورد نیاز را فراخوانی کرد:
import numpy as np
import sklearn.cluster as cl
import sklearn.metrics as met
import matplotlib.pyplot as plt
import sklearn.preprocessing as pp
هر یک از کتابخانههای فراخوانی شده به ترتیب برای اهداف زیر فراخوانی میشوند:
- Numpy : کار با آرایهها
- Sklearn.Cluster : خوشهبندی
- Sklearn.Metrics : محاسبه معیارهای دقت و خطا
- Matplotlib.Pyplot : رسم نمودار
- Sklearn.Preprocessing : عملیات پیشپردازش
- مقالههای پیشنهادی:
- Scikit-Learn کتابخانه
- رسم نمودار در پایتون با Matplotlib — راهنمای کاربردی
۲. تعیین وضعیت تصادفی و تغییر سبک نمودارها به ggplot
ابتدا Random State را تعیین کرده و سپس باید استایل نمودارها را به ggplot تغییر داد:
np.random.seed(0)
plt.style.use('ggplot')
حال نیاز به یک مجموعه داده وجود دارد. بنابراین، در ادامه به ایجاد آن در پایتون پرداخته شده است.
۳. ایجاد مجموعه داده مورد نیاز برای پیادهسازی شبکه عصبی RBF در پایتون
برای تولید مجموعه داده، نیاز به مجموعهای با ۳ دسته مختلف وجود دارد. در این مجموعه داده از توزیع نرمال حول تعدادی مرکز دسته استفاده شده است. ابتدا باید تعداد دادهها و مراکز دستهها را مشخص کرد.
مشخص کردن تعداد دادهها و مراکز دستهها برای ایجاد مجموعه داده
مشخص کردن تعداد دادهها و مراکز دسته به صورت زیر انجام میشود:
nD = 200 # Data Size
M = np.array([[0, 0], [1, 0.6], [0.6, 0.9]]) # Clusters Center
S = 0.2 # Distribution Variance
در کدهای فوق، 3 مرکز دسته با مختصات (0,0)، (1,0.6) و (0.6,0.9) ایجاد شدهاند. باید توجه داشت که چون نمایش دادههایی با ابعاد بالاتر ممکن نیست، از دادههای دوبُعدی استفاده شده است. متغیر S نیز برای تعیین انحراف معیار (واریانس) توزیع نرمال تعریف میشود که با شدت پراکندگی دادهها ارتباط مستقیم دارد. حالا باید تعداد ویژگیها (Features) و تعداد کلاسها (دستهها) را مشخص کرد.
تعیین تعداد ویژگیها و کلاسها برای ایجاد مجموعه داده
تعیین تعداد ویژگیها و کلاسها به صورت زیر انجام میشود:
nC, nX = M.shape
در نتیجه اجرای خط کد بالا، دو متغیر nX و nC به صورت زیر مقداردهی میشوند:
$$ nC=3 $$
$$ nX=2 $$
ایجاد ماتریسهای مورد نیاز برای ذخیرهسازی دادهها
حالا باید ماتریسهایی خالی را برای ذخیرهسازی دادهها ایجاد کرد:
X = np.zeros((nD, nX))
Y = np.zeros((nD, 1))
چون در مسائل دستهبندی (Classification) تنها یک ویژگی هدف وجود دارد و آن برچسب (Label) داده است، ماتریس Y تنها دارای یک ستون خواهد بود.
تولید و ذخیرهسازی دادهها با استفاده از حلقه For در پایتون
اکنون باید یک حلقه for ایجاد کرد تا به وسیله آن دادهها تولید و در ماتریسهای X و Y ذخیره شوند:
# Creating Dataset
for i in range(nD):
c = np.random.randint(nC)
X[i, :] = M[c] + S*np.random.randn(nX)
Y[i, 0] = c
در سطر اول کدهای بالا ابتدا در مورد کلاس دادهای که قصد ایجاد آن وجود دارد تصمیمگیری شده است که یک عدد از 0 تا 2 خواهد بود. در سطر بعدی، مختصات یک نمونه داده با افزودن مقداری جابهجایی (به صورت تصادفی) به مرکز دسته تولید شده است که این میزان جابهجایی در تمامی ابعاد به صورت توزیع نرمال خواهد بود. در سطر بعدی نیز برچسب دادهها در ماتریس ستونی Y ذخیره میشود.
رمزگذاری ماتریس برچسبها با روش One-Hot
برای انجام مسائل طبقهبندی، نیاز است تا ماتریس Y را با روش One-Hot رمزگذاری (Encode) کنیم:
# One-Hot Encoding Labels
OHE = pp.OneHotEncoder()
OHY = OHE.fit_transform(Y).toarray()
اکنون ماتریس OHY تنها شامل اعداد 1 و 0 است و در هر سطر تنها ستون متناظر با کلاس مربوطه، دارای مقدار یک است. توجه داشته باشید که خروجی تابع fit_transform یک آرایه نیست و برای تبدیل آن باید از تابع toarray استفاده شود. پس از اتمام تولید دادهها، نیاز است تا آنها را مصورسازی و از مطلوب بودن نتایج اطمینان حاصل کرد.
۴. مصورسازی مجموعه داده تولیدی برای پیاده سازی شبکه عصبی RBF در پایتون
مصورسازی دادههای تولید شده در مرحله قبل به صورت زیر انجام میشود:
# Visualizing Created Data
plt.scatter(X[:, 0], X[:, 1], c=Y[:, 0], s=20, marker='o')
plt.scatter(M[:, 0], M[:, 1], c='r', s=80, marker='x', label='Center')
plt.xlabel('$X_1$')
plt.ylabel('$X_2$')
plt.legend()
plt.show()
عملیات زیر به ترتیب در ۵ سطر فوق انجام میشوند:
- دادههای تولید شده در محل مختصات خود با رنگ مربوط به دسته خود رسم میشوند.
- مرکزهای دستهها با علامت x و با رنگ قرمز در محل مختصات خود رسم میشوند.
- نام محور افقی به $$ X_1 $$ تغییر میکند.
- اسم محور عمودی به $$ X_2 $$ تغییر مییابد.
- برای نمایش برچسبها، legend فراخوانی میشود.
- نمودار نمایش داده خواهد شد.
در نهایت، خروجی کدهای بالا به صورت زیر خواهد بود:
به این ترتیب، مجموعه دادهها آماده شده است و میتوان گام بعدی پیاده سازی شبکه عصبی RBF در پایتون را آغاز کرد. برای ادامه کار باید آشنایی کافی با شبکههای عصبی مصنوعی وجود داشته باشد. بنابراین، مطالعه مقالههای زیر به آن دسته از افرادی پیشنهاد میشود که نیاز به کسب آشنایی با شبکههای عصبی مصنوعی دارند:
- انواع شبکه های عصبی مصنوعی — راهنمای جامع
- ساخت شبکه عصبی — راهنمای مقدماتی
- ساخت شبکه عصبی (Neural Network) در پایتون — به زبان ساده
- شبکه عصبی مصنوعی و پیادهسازی در پایتون — راهنمای کاربردی
- دسته بندی داده ها با شبکه عصبی مصنوعی | راهنمای کاربردی
۵. پیادهسازی شبکه عصبی RBF روی مجموعه داده تولید شده در پایتون
در این بخش هر یک از مراحل پیادهسازی شبکه عصبی RBF روی مجموعه داده تولید شده در پایتون شرح داده شدهاند.
ایجاد یک کلاس برای شبکه عصبی RBF
برای پیادهسازی شبکه عصبی RBF روی مجموعه داده تولید شده، ابتدا باید یک کلاس برای شبکه عصبی RBF ایجاد شود:
Class RBF:
ایجاد تابع سازنده برای پیاده سازی شبکه عصبی RBF در پایتون
سپس باید تابع سازنده را ایجاد کرد:
def __init__ (self, name:str):
self.name = name
تعریف تابعی برای تعیین مراکز نورونها
حالا باید تابعی برای تعیین مرکزهای نورونها ایجاد شود:
def fit_centers (self, X:np.ndarray):
self.KMN = cl.KMeans(n_clusters=self.nH)
self.KMN.fit(X)
self.C = self.KMN.cluster_centers_
این تابع در ورودی ماتریس Xها را میگیرد و یک الگوریتم K-Means را روی آنها برازش (Fit) میکند. در نهایت نیز باید مراکز خوشهها را با نام C در شی مربوطه ذخیره کرد.
- مقالههای پیشنهادی:
- پیاده سازی الگوریتم خوشه بندی K-means در پایتون — راهنمای گام به گام
- خوشه بندی K-Means در پایتون — راهنمای کاربردی
تعیین تابعی برای برازش جهت اجرای مراحل آموزش مدل
در این مرحله باید تابعی را برای برازش تعیین کرد تا تمامی مراحل آموزش مدل در آن رخ دهند:
def fit (self, X:np.ndarray, Y:np.ndarray, nH:int, nEpoch:int=100, lr:float=1e-2):
self.nX = X.shape[1]
self.nY = Y.shape[1]
self.nH = nH
self.nEpoch = nEpoch
self.lr = lr
self.fit_centers(X)
self.fit_wb(X, Y)
این تابع در ورودی دادهها، تعداد نورونهای مخفی (مربوط به لایهی RBF)، تعداد مراحل آموزش مدل و نرخ یادگیری را دریافت میکند. سپس باید تعداد ورودی، تعداد خروجی، تعداد نورونها، تعداد مراحل آموزش و نرخ یادگیری را در شی مربوطه ذخیره کرد. پس از آن، تابع fit_centers برای تعیین مراکز فراخوانی میشود. سپس، تابع fit_wb فراخوانی خواهد شد که این تابع هنوز تعریف نشده است. بنابراین در ادامه به تعریف آن پرداخته میشود. پیش از آن به معرفی مجموعه دورههای آموزش شبکههای عصبی تم آف پرداخته شده است.
۶. تعریف تابع fit_wb برای تنظیم بایاسهای لایه آخر شبکه عصبی RBF در پایتون
تابع fit_wb وزنها و بایاسهای لایهی آخر را تنظیم میکند. این تابع به صورت زیر تعریف میشود:
def fit_wb (self, X:np.ndarray, Y:np.ndarray):
محاسبه خروجی لایه RBF
ابتدا نیاز است تا خروجی لایه RBF محاسبه شود؛ برای انجام این کار، ابتدا باید فاصله هر داده از هر مرکز را محاسبه کرد. برای انجام این محاسبات از تابع get_distances استفاده شده است:
def fit_wb (self, X:np.ndarray, Y:np.ndarray):
D = self.get_distances(X)
حالا فاصلهها باید وارد Basis Function شوند:
def fit_wb (self, X:np.ndarray, Y:np.ndarray):
D = self.get_distances(X)
O1 = self.bf(D)
بدین ترتیب، خروجی لایه اول به دست میآید. از این بخش به بعد، میتوان وزنها و بایاسها را تنظیم کرد. اما ابتدا نیاز است تا مقداردهی اولیه آنها انجام شود.
مقداردهی اولیه وزنها و بایاسها
مقداردهی اولیه وزنها و بایاسها به صورت زیر انجام میشود:
def fit_wb (self, X:np.ndarray, Y:np.ndarray):
D = self.get_distances(X)
O1 = self.bf(D)
self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
self.B = np.random.uniform(-1, +1, (self.nY))
باید توجه داشت که ماتریس وزن بین لایه مخفی و لایه خروجی تعریف شده است؛ بنابراین شکل آن به صورت $$ nH times nY $$ خواهد بود. ماتریس بایاس نیز تنها برای نورونهای لایه خروجی تعریف شده و به اندازه خروجیهای شبکه خواهد بود.
ایجاد یک حلقه برای تک تک Epochها
حالا باید یک حلقه برای تک تک Epochها ایجاد کرد:
def fit_wb (self, X:np.ndarray, Y:np.ndarray):
D = self.get_distances(X)
O1 = self.bf(D)
self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
self.B = np.random.uniform(-1, +1, (self.nY))
for I in range(self.nEpoch):
حال در هر مرحله از آموزش (Train)، برای هر داده باید فرآیند آموزش را تکرار کرد. بنابراین به صورت زیر عمل میشود:
def fit_wb (self, X:np.ndarray, Y:np.ndarray):
D = self.get_distances(X)
O1 = self.bf(D)
self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
self.B = np.random.uniform(-1, +1, (self.nY))
for I in range(self.nEpoch):
for x, y in zip(O1, Y):
۷. پیادهسازی قانون دلتای تعمیم یافته
حال باید قانون GDR یا Generalized Delta Rule (قانون دلتای تعمیم یافته) را پیادهسازی کرد.
بهروزرسانی وزن مورد نظر
برای وزنها، دو حلقه تودرتو نیاز است تا بتوان به ازای هر ورودی و هر خروجی، وزن مورد نظر را بهروزرسانی کرد:
def fit_wb (self, X:np.ndarray, Y:np.ndarray):
D = self.get_distances(X)
O1 = self.bf(D)
self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
self.B = np.random.uniform(-1, +1, (self.nY))
for I in range(self.nEpoch):
for x, y in zip(O1, Y):
for j in range(self.nH):
for k in range(self.nY):
محاسبه مقدار خروجی شبکه RBF با استفاده از تابع Model
مقدار خروجی شبکه با استفاده از تابع model به صورت زیر محاسبه میشود:
def fit_wb (self, X:np.ndarray, Y:np.ndarray):
D = self.get_distances(X)
O1 = self.bf(D)
self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
self.B = np.random.uniform(-1, +1, (self.nY))
for I in range(self.nEpoch):
for x, y in zip(O1, Y):
for j in range(self.nH):
for k in range(self.nY):
o = self.model(x)
فرمول قانون GDRبه چه صورت است؟
قانون GDR به صورت زیر است:
$$Delta W_{i,j} = eta.x_i.(y_i – o_j).{f’}_{(z)}$$
$$Delta B_j = eta.(y_i – o_j).{f’}_{(z)}$$
برای وزنها به صورت زیر خواهیم داشت:
def fit_wb (self, X:np.ndarray, Y:np.ndarray):
D = self.get_distances(X)
O1 = self.bf(D)
self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
self.B = np.random.uniform(-1, +1, (self.nY))
for I in range(self.nEpoch):
for x, y in zip(O1, Y):
for i in range(self.nH):
for j in range(self.nY):
o = self.model(x)
e = y[j] - o[j]
d = (o[j] * (1 - o[j]))
self.W[i, j] += self.lr * x[i] * e * d
باید توجه داشت که چون از تابع فعالسازی Sigmoid در لایه خروجی استفاده خواهد شد، مشتق آن نیز به صورت زیر در خواهد آمد:
$$ y = S_{(x)} = frac{1}{1+e^{-x}} = (1+ e^{-x})^{-1} $$
$$ Rightarrow frac{dS}{dx} = ((1+e^{-x} )^{-1} )^{‘} = -(0-e^{-x}) (1+e^{-x} )^{-2} = frac {e^{-x}}{(1+e^{-x} )^2} = frac {e^{-x}}{(1+e^{-x})} S_{(x)} $$
$$ space =(1-S_{(x)} ) S_{(x)} = y(1-y) $$
حالا برای کدهای مربوط به بهروزرسانی بایاسها نیز میتوان به روش مشابه عمل کرد:
def fit_wb (self, X:np.ndarray, Y:np.ndarray):
D = self.get_distances(X)
O1 = self.bf(D)
self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
self.B = np.random.uniform(-1, +1, (self.nY))
for I in range(self.nEpoch):
for x, y in zip(O1, Y):
for i in range(self.nH):
for j in range(self.nY):
o = self.model(x)
e = y[j] - o[j]
d = (o[j] * (1 - o[j]))
self.W[i, j] += self.lr * x[i] * e * d
for j in range(self.nY):
o = self.model(x)
e = y[j] - o[j]
d = (o[j] * (1 - o[j]))
self.B[j] += self.lr * e * d
نمایش خطای کلی مدل شبکه عصبی RBF
اکنون تابع کامل شده است. برای اطلاع از شرایط لحظهای مدل، میتوان در انتهای هر مرحله خطای کلی مدل را به صورت زیر نمایش داد:
def fit_wb (self, X:np.ndarray, Y:np.ndarray):
D = self.get_distances(X)
O1 = self.bf(D)
self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
self.B = np.random.uniform(-1, +1, (self.nY))
O2 = self.model(O1)
print(f'Epoch: {0} -- Loss: {round(met.mean_squared_error(Y, O2), 4)}')
for I in range(self.nEpoch):
for x, y in zip(O1, Y):
for i in range(self.nH):
for j in range(self.nY):
o = self.model(x)
e = y[j] - o[j]
d = (o[j] * (1 - o[j]))
self.W[i, j] += self.lr * x[i] * e * d
for j in range(self.nY):
o = self.model(x)
e = y[j] - o[j]
d = (o[j] * (1 - o[j]))
self.B[j] += self.lr * e * d
O2 = self.model(O1)
print(f'Epoch: {I+1} -- Loss: {round(met.mean_squared_error(Y, O2), 4)}')
حال این تابع در ابتدای هر مرحله، مقدار خطای مدل را نیز نمایش خواهد داد. حالا نیاز است تا تابعهایی که در طول نوشتن تابع fit_wb از آنها استفاده شده را نیز پیادهسازی کرد.
کدنویسی تابع محاسبه فاصله (get_distances)
تابع محاسبه فاصله به صورت زیر نوشته میشود:
def get_distances (self, X:np.ndarray):
N = X.shape[0]
D = np.zeros((N, self.nH))
for i in range(N):
for j in range(self.nH):
D[i, j] = np.linalg.norm(X[i] - self.C[j], ord=2)
return D
این تابع با گرفتن دادهها، ابتدا تعداد آنها را در N ذخیره میکند. سپس ماتریسی$$ N times nH $$ برای ذخیره فاصله هر داده از هر مرکز ایجاد میکند. در نهایت نیز به ازای هر داده و هر مرکز، مقدار Norm محاسبه و ذخیره میشود.
پیادهسازی تابع bf
در این کد قصد استفاده از تابع گوسی برای این منظور وجود دارد:
def bf (self, D:np.ndarray, a:float=10):
return np.exp(-a*np.power(D, 2))
در این تابع نیز فرمول ساده شدهای از تابع گوسی استفاده شده است. باید توجه داشت که عدد a در تعیین میزان شارپ بودن تابع نقش مهمی دارد و جزء هایپرپارامترهای (فرا پارامترها | Hyperparameter) مسئله محسوب میشود.
کدنویسی تابع model
کدهای مربوط به این تابع به صورت زیر هستند:
def model (self, X:np.ndarray):
Z = np.dot(X, self.W) + self.B
O = 1/(1 + np.exp(-Z))
return O
این تابع ابتدا یک ترکیب خطی از X ایجاد و سپس آن را وارد تابع Sigmoid میکند. حال توابع مورد نیاز همگی پیادهسازی شدهاند و برنامه تا به اینجا کامل است.
۸. تعریف تابعی برای سنجش میزان دقت مدل شبکه عصبی RBF در پایتون
برای اینکه بتوان دقت مدل را سنجید، تابعی دیگر برای این منظور به صورت زیر تعریف میشود:
def accuracy (self, Y:np.ndarray, O:np.ndarray):
N = Y.shape[0]
a = 0
for i in range(N):
if np.argmax(Y[i, :]) == np.argmax(O[i, :]):
a += 1
return a/N
این تابع با دریافت مقادیر هدف و مقادیر پیشبینی شده توسط مدل، دقت مدل را بازمیگرداند که همواره عددی اعشاری بین 0 و 1 خواهد بود. اکنون باید تابع مورد نظر را در طی مراحل آموزش مدل فراخوانی کرد:
def fit_wb (self, X:np.ndarray, Y:np.ndarray):
D = self.get_distances(X)
O1 = self.bf(D)
self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
self.B = np.random.uniform(-1, +1, (self.nY))
O2 = self.model(O1)
E = round(met.mean_squared_error(Y, O2), 4)
A = round(self.accuracy(Y, O2), 4)
print(f'Epoch: {0} -- Loss: {E} -- Accuracy: {A}')
for I in range(self.nEpoch):
for x, y in zip(O1, Y):
for i in range(self.nH):
for j in range(self.nY):
o = self.model(x)
e = y[j] - o[j]
d = (o[j] * (1 - o[j]))
self.W[i, j] += self.lr * x[i] * e * d
for j in range(self.nY):
o = self.model(x)
e = y[j] - o[j]
d = (o[j] * (1 - o[j]))
self.B[j] += self.lr * e * d
O2 = self.model(O1)
E = round(met.mean_squared_error(Y, O2), 4)
A = round(self.accuracy(Y, O2), 4)
print(f'Epoch: {I+1} -- Loss: {E} -- Accuracy: {A}')
به این تریتب در طول اجرای برنامه، مرحله، خطا و دقت ملاحظه خواهد شد.
ایجاد یک شی با استفاده از دادهها و آموزش مدل
حالا با استفاده از کلاس مربوطه یک شی ایجاد کرده و آن شی روی دادههای مورد نظر آموزش داده خواهد شد:
Model = RBF('My First RBF')
Model.fit(X, OHY, 3, nEpoch=50, lr=1e-3)
پس از اجرای این کد خواهیم داشت:
Epoch: 0 -- Loss: 0.2025 -- Accuracy: 0.68 . . Epoch: 50 -- Loss: 0.1626 -- Accuracy: 0.99
به این صورت، دقت مدل تا مقدار 99 درصد افزایش مییابد. تا اینجا شبکه RBF کامل شده است و میتواند به خوبی آموزش ببیند. برای اینکه بتوان برای دادههای جدید نیز خروجی تولید کرد، نیاز است تا تابعی به نام predict تعریف شود:
def predict (self, X:np.ndarray):
D = self.get_distances(X)
O1 = self.bf(D)
O2 = self.model(O1)
return np.argmax(O2, axis=1).reshape((-1, 1))
تابع Predict شش مرحله کار را روی دادههای ورودی انجام میدهد:
- فواصل را محاسبه میکند.
- محاسبه مقدار bf را با توجه به فواصل انجام میدهد.
- یک ترکیب خطی از خروجی لایه RBF ایجاد میکند.
- وارد کردن خروجی ترکیب خطی را به تابع سیگموئید انجام میدهد.
- برای هر داده، نورون برنده با استفاده از تابع argmax تعیین میشود.
- در نهایت نیز ماتریس برندهها را به شکل ستونی در آورده و خروجی میدهد.
مقایسه مقدار برچسب با مقدار پیشبینی شده به وسیله شبکه RBF
حال میتوان برای 10 داده اول مقدار برچسب را با مقدار پیشبینی شده مقایسه کرد:
print(Y[:10])
print(Model.predict(X)[:10])
خروجی به صورت زیر خواهد بود:
$$ [[0], [1], [2], [1], [0], [0], [0], [2], [1], [0]] $$
$$ [[0], [1], [2], [1], [0], [0], [0], [2], [1], [0]] $$
خروجیها برای این 10 داده کاملاً درست هستند.
۹. نحوه مشاهده نموداری روند آموزش مدل شبکه RBF
برای مشاهده روند آموزش مدل به صورت نموداری، میتوان دقت و خطا را در طول مراحل اجرا ذخیره کرد و در نهایت نمایش داد. برای انجام این کار، تابع fit_wb باید به صورت زیر تغییر داده شود:
def fit_wb (self, X:np.ndarray, Y:np.ndarray):
D = self.get_distances(X)
O1 = self.bf(D)
self.W = np.random.uniform(-1, +1, (self.nH, self.nY))
self.B = np.random.uniform(-1, +1, (self.nY))
self.history = {'loss':[], 'accuracy':[]}
O2 = self.model(O1)
E = round(met.mean_squared_error(Y, O2), 4)
A = round(self.accuracy(Y, O2), 4)
self.history['loss'].append(E)
self.history['accuracy'].append(A)
print(f'Epoch: {0} -- Loss: {E} -- Accuracy: {A}')
for I in range(self.nEpoch):
for x, y in zip(O1, Y):
for i in range(self.nH):
for j in range(self.nY):
o = self.model(x)
e = y[j] - o[j]
d = (o[j] * (1 - o[j]))
self.W[i, j] += self.lr * x[i] * e * d
for j in range(self.nY):
o = self.model(x)
e = y[j] - o[j]
d = (o[j] * (1 - o[j]))
self.B[j] += self.lr * e * d
O2 = self.model(O1)
E = round(met.mean_squared_error(Y, O2), 4)
A = round(self.accuracy(Y, O2), 4)
self.history['loss'].append(E)
self.history['accuracy'].append(A)
print(f'Epoch: {I+1} -- Loss: {E} -- Accuracy: {A}')
در کدهای فوق یک دیکشتری به اسم history ایجاد میشود که دو لیست خالی برای ذخیره خطا و دقت دارد. حال میتوان این دو نمودار را نمایش داد:
Losses = Model.history['loss']
Accuracies = Model.history['accuracy']
plt.subplot(1, 2, 1)
plt.plot(Losses, lw=1.2, c='crimson', marker='o', ms=3)
plt.title('Loss')
plt.xlabel('Epoch')
plt.ylabel('MSE')
plt.subplot(1, 2, 2)
plt.plot(Accuracies, lw=1.2, c='teal', marker='o', ms=3)
plt.title('Accuracy')
plt.xlabel('Epoch')
plt.ylabel('Accuracy')
plt.show()
در خروجی این بخش از کد، دو نمودار به صورت زیر حاصل میشود:
حال اگر شدت پراکندگی را از $$ 0.1 $$ به $$ 0.2 $$ افزایش یابد، نمایش بصری پراکندگی داده به صورت شکل زیر خواهد بود.:
در این صورت، زیان و دقت مدل به شکل زیر است:
بنابراین به راحتی میتوان گفت که با درهمرفتگی دستهها، دقت مدل نیز کاهش مییابد. همچنین، میتوان دستهبندی اصلی را با دستهبندی مدل مقایسه کرد:
O = Model.predict(X)
plt.subplot(1, 2, 1)
plt.scatter(X[:, 0], X[:, 1], c=Y[:, 0], s=20, marker='o')
plt.scatter(M[:, 0], M[:, 1], c='r', s=80, marker='x', label='Center')
plt.title('Real')
plt.xlabel('$X_1$')
plt.ylabel('$X_2$')
plt.legend()
plt.subplot(1, 2, 2)
plt.scatter(X[:, 0], X[:, 1], c=O[:, 0], s=20, marker='o')
plt.scatter(M[:, 0], M[:, 1], c='r', s=80, marker='x', label='Center')
plt.title('Predicted')
plt.xlabel('$X_1$')
plt.ylabel('$X_2$')
plt.legend()
plt.savefig('5.png',dpi=300)
در خروجی این بخش نیز دو نمودار به شکل زیر ایجاد میشوند:
به این ترتیب، آموزش پیاده سازی شبکه عصبی RBF در پایتون به پایان میرسد. پیش از ارائه یک جمعبندی به م
جمعبندی
در پروژه پیاده سازی شبکه عصبی RBF در پایتون، ابتدا مجموعه دادهای ایجاد و سپس با استفاده از مفهوم شیگرایی، یک کلاس برای شبکههای عصبی RBF تعریف شد که میتواند به خوبی عمل طبقهبندی را انجام دهد.
برای آزمایش و پژوهش بیشتر، میتوان تعداد کلاسها، تعداد خوشههای الگوریتم K-Means، ضریب تابع bf و نرخ یادگیری را تغییر داد و اثر هرکدام را در خروجی ملاحظه کرد.