0917-062-0010

مشاوره رایگان

9 صبح تا 9 شب

شنبه تا پنجشنبه

پیاده سازی شبکه عصبی SOM در پایتون — راهنمای گام به گام

در آموزش‌های پیشین مجله تم آف، با پیاده‌سازی شبکه عصبی RBF در پایتون آشنا شدیم. در این آموزش، روش پیاده سازی شبکه عصبی SOM در پایتون را شرح می‌دهیم.

فهرست مطالب این نوشته
شبکه عصبی SOM

آموزش شبکه عصبی SOM

پیاده سازی شبکه عصبی SOM در پایتون

جمع‌بندی

faradars mobile

شبکه عصبی SOM

شبکه‌های عصبی SOM یا Self-Organizing Map که با نام شبکه کوهونن (Kohonen Network) نیز شناخته می‌شوند، یک روش غیرنظارت‌شده (Unsupervised Learning) برای استخراج ویژگی و کاهش ابعاد است که با وجود سادگی، توانایی زیادی از خود نشان داده است.

آموزش مقدماتی پیاده سازی شبکه های عصبی مصنوعی در پایتون Python
فیلم آموزش مقدماتی پیاده سازی شبکه های عصبی مصنوعی در پایتون Python در تم آف

کلیک کنید

آموزش شبکه عصبی SOM

در این شبکه، تعدادی نورون با موقعیت اولیه تصادفی انتخاب می‌شوند که این نورون‌ها در یک شبکه منظم به نام Lattice در کنار هم قرار گرفته‌اند. در طول آموزش، نورون‌های شبکه به مکان‌هایی با چگالی بیشتر داده حرکت می‌کنند و فرم نهایی Lattice حاصل می‌شود

آموزش پیاده سازی گام به گام شبکه های عصبی در پایتون
فیلم آموزش پیاده سازی گام به گام شبکه های عصبی در پایتون در تم آف

کلیک کنید

الگوریتم آموزش SOM به‌صورت زیر است:

۱. همه داده‌ها تک تک وارد شبکه می‌شوند.

۲. فاصله همه نورون‌ها از بردار ورودی محاسبه می‌شود.

۳. نزدیک‌ترین نورون به بردار ورودی تعیین و به‌عنوان نورون برنده انتخاب می‌شود.

۴. موقعیت نورون برنده با استفاده از رابطه زیر به‌روزرسانی می‌شود:

$$ large W _ J ^ { t + 1 } = W _ J ^ t + eta cdot ( x – W _ J ^ t ) $$

5. موقعیت نورون‌های موجود در همسایگی نورون برنده با استفاده از رابطه زیر به‌روزرسانی می‌شود:

$$ large W _ N ^ { t + 1 } = W _ N ^ t + theta cdot eta cdot ( x – W _ N ^ t ) $$

به این ترتیب، با تکرار این 5 مرحله، شبکه در نهایت به موقعیت مناسبی برای هر نورون دست می‌یابد.

توجه داشته باشید که در مراحل 3 و 4 فاز رقابت (Competition) و در مرحله 5 فاز همکاری (Cooperation) وجود دارد و وجود این دو عامل، SOM را خاص‌تر می‌کند.

آموزش طبقه بندی و بازشناسی الگو با شبکه های عصبی LVQ در متلب MATLAB
فیلم آموزش طبقه بندی و بازشناسی الگو با شبکه های عصبی LVQ در متلب MATLAB در تم آف

کلیک کنید

برای یادگیری برنامه‌نویسی با زبان پایتون، پیشنهاد می‌کنیم به مجموعه آموزش‌های مقدماتی تا پیشرفته پایتون تم آف مراجعه کنید که لینک آن در ادامه آورده شده است.

پیاده سازی شبکه عصبی SOM در پایتون

حال برای پیاده‌سازی SOM وارد محیط برنامه‌نویسی شده و کتابخانه‌های مورد نیاز را فراخوانی می‌کنیم:

import numpy as np
import matplotlib.pyplot as plt

این دو کتابخانه برای کار با آرایه‌ها، تولید داده، آموزش مدل و رسم نمودار استفاده خواهند شد.

آموزش مقدماتی پیاده سازی شبکه های عصبی مصنوعی در پایتون Python
فیلم آموزش مقدماتی پیاده سازی شبکه های عصبی مصنوعی در پایتون Python در تم آف

کلیک کنید

حال Random Seed و Plot Style را تنظیم می‌کنیم:

np.random.seed(0)
plt.style.use('ggplot')

برای پیاده‌سازی و آموزش مدل، به یک مجموعه داده ساده نیاز داریم. می‌توانیم یک مجموعه داده دوبعدی به شکل دایره توخالی (دونات) ایجاد کنیم.

تعداد داده‌ها، شعاع داخلی و شعاع خارجی دایره را تعیین می‌کنیم:

nD = 1000 # Data Size
r1 = 1 # Inner Radius
r2 = 2 # Outer Radius

حال یک آرایه برای ذخیره داده‌ها ایجاد می‌کنیم:

nX = 2
X = np.zeros((nD, nX)) # Placeholder for Data

عدد nX نشان‌دهنده تعداد ویژگی‌های هر داده است که به‌دلیل محدودیت در نمایش آن‌ها، از داده‌های دوبُعدی استفاده می‌کنیم.

آموزش یادگیری ماشین و پیاده سازی در پایتون Python – بخش یکم
فیلم آموزش یادگیری ماشین و پیاده سازی در پایتون Python – بخش یکم در تم آف

کلیک کنید

حال یک حلقه While ایجاد می‌کنیم و تا زمانی که تعداد داده‌های مورد نیاز تأمین نشده باشد، عملیات را ادامه می‌دهیم:

i = 0
while i

حال باید یک داده به‌صورت تصادفی درون مربع اول انتخاب کنیم:

i = 0
while i

حال باید شعاع داده از مرکز مختصات را حساب کنیم و در صورتی که داده دارای شعاعی بین $$r_1$$ و $$r_2$$ بود، آن را به‌عنوان داده جدید به مجموعه داده اضافه کنیم:

i = 0
while i

به این ترتیب، داده‌های مورد نیاز ایجاد می‌شود.

آموزش رگرسیون خطی و شبکه عصبی MLP در پایتون برای پیش بینی چربی بدن (رایگان)
فیلم آموزش رگرسیون خطی و شبکه عصبی MLP در پایتون برای پیش بینی چربی بدن (رایگان) در تم آف

کلیک کنید

حال برای مصورسازی می‌توانیم به‌شکل زیر عمل کنیم:

plt.scatter(X[:, 0], X[:, 1], s=12, label='Data')
plt.title('Created Dataset')
plt.xlabel('X1')
plt.ylabel('X2')
plt.legend()
plt.show()

نتیجه این مصورسازی در نمودار زیر نشان داده شده است.

پیاده سازی شبکه عصبی SOM در پایتون

به این صورت، مجموعه داده مورد نیاز تولید می‌شود.

حال برای آموزش مدل، ابتدا موقعیت اولیه نورون‌ها را به‌صورت تصادفی انتخاب می‌کنیم:

nK = 20 # Kohonen Neurons Count
W = np.random.uniform(-r2, +r2, (nK, nX)) # Kohonen Neurons Position

توجه داشته باشید که می‌توان موقعیت‌های اولیه را به صورت منظم نیز انتخاب کرد.

آموزش شبکه های عصبی پیچشی CNN – مقدماتی
فیلم آموزش شبکه های عصبی پیچشی CNN – مقدماتی در تم آف

کلیک کنید

برای رسم نورون‌ها روی مجموعه داده خواهیم داشت:

plt.scatter(X[:, 0], X[:, 1], s=12, label='Data')
plt.plot(W[:, 0], W[:, 1], lw=1, c='b', marker='o', ms=4, label='Neurons')
plt.title('Created Dataset + Neurons Initial Position')
plt.xlabel('X1')
plt.ylabel('X2')
plt.legend()
plt.show()

در نهایت نمودار زیر حاصل می‌شود.

پیاده سازی شبکه عصبی SOM در پایتون

به این ترتیب، موقعیت نورون‌ها نیز مقداردهی اولیه می‌شود.

آموزش دسته بندی تصاویر با شبکه های عصبی در پایتون و در Google Colab
فیلم آموزش دسته بندی تصاویر با شبکه های عصبی در پایتون و در Google Colab در تم آف

کلیک کنید

توجه داشته باشید که خطوط بین هر نورون، نشان‌دهنده همسایگی بین آن‌ها است.

حال باید پارامترهای مربوط به آموزش مدل را تعیین کنیم:

nEpochs = 50 # Model Learning Epochs Count
LR = 0.5 # Learning Rate
dLR = -0.01 # Learning Rate Linear Decay
Theta = 1/4 # Cooperation Coefficient

حال می‌توانیم حلقه اصلی آموزش مدل را ایجاد کنیم:

for i in range(nEpochs):

حال به‌ازای هر داده باید مراحل گفته شده انجام شود، پس:

for i in range(nEpochs):
    for x in X:

حال باید فاصله داده از هر نورون را محاسبه کنیم:

for i in range(nEpochs):
    for x in X:
        D = np.linalg.norm(W - x, axis=1)

حال با استفاده از Argmin می‌توانیم نورون برنده را تعیین کنیم:

for i in range(nEpochs):
    for x in X:
        D = np.linalg.norm(W - x, axis=1)
        J = np.argmin(D)

به این ترتیب، نورون برنده تعیین شد. حال باید موقعیت نورون برنده را به‌روزرسانی کنیم:

for i in range(nEpochs):
    for x in X:
        D = np.linalg.norm(W - x, axis=1)
        J = np.argmin(D)
        W[J] += LR * (x - W[J])

حال باید فاز همکاری را نیز وارد کد کنیم. با توجه به اینکه یک Lattice یک‌بُعدی استفاده می‌شود، برای نورون برنده J دو نورون J+1 و J-1 همسایه انتخاب و به‌روزرسانی می‌شوند:

for i in range(nEpochs):
    for x in X:
        D = np.linalg.norm(W - x, axis=1)
        J = np.argmin(D)
        W[J] += LR * (x - W[J])
        W[J+1] += Theta * LR * (x - W[J+1])
        W[J-1] += Theta * LR * (x - W[J-1])

این کد برای نورون‌ها موجود در اواسط Lattice درست کار می‌کند، اما برای نورون‌های موجود در مرز‌های Lattice دچار خطا می‌شود، بنابراین، باید شرط‌هایی به‌صورت زیر اضافه کنیم:

for i in range(nEpochs):
    for x in X:
        D = np.linalg.norm(W - x, axis=1)
        J = np.argmin(D)
        W[J] += LR * (x - W[J])
        if J == 0:
            W[J+1] += Theta * LR * (x - W[J+1])
        elif J == nK-1:
            W[J-1] += Theta * LR * (x - W[J-1])
        else:
            W[J+1] += Theta * LR * (x - W[J+1])
            W[J-1] += Theta * LR * (x - W[J-1])

به این ترتیب، همه مراحل پیاده‌سازی شدند.

آموزش پیاده سازی گام به گام شبکه های عصبی در پایتون
فیلم آموزش پیاده سازی گام به گام شبکه های عصبی در پایتون در تم آف

کلیک کنید

حال در انتهای Epoch نرخ یادگیری را به‌روز‌رسانی می‌کنیم و پیام اتمام مرحله را می‌نویسیم:

for i in range(nEpochs):
    for x in X:
        D = np.linalg.norm(W - x, axis=1)
        J = np.argmin(D)
        W[J] += LR * (x - W[J])
        if J == 0:
            W[J+1] += Theta * LR * (x - W[J+1])
        elif J == nK-1:
            W[J-1] += Theta * LR * (x - W[J-1])
        else:
            W[J+1] += Theta * LR * (x - W[J+1])
            W[J-1] += Theta * LR * (x - W[J-1])
    LR += dLR
    print(f'Epoch {i+1} Ended.')

به این ترتیب، آموزش مدل به اتمام می‌رسد. حال برای مشاهده نتایج، به‌صورت زیر عمل می‌کنیم:

plt.scatter(X[:, 0], X[:, 1], s=12, label='Data')
plt.plot(W[:, 0], W[:, 1], lw=1, c='b', marker='o', ms=4, label='Neurons')
plt.title('Created Dataset + Neurons Final Position')
plt.xlabel('X1')
plt.ylabel('X2')
plt.legend()
plt.show()

که نمودار نهایی زیر حاصل می‌شود.

پیاده سازی شبکه عصبی SOM در پایتون

به این ترتیب، مشاهده می‌کنیم که نورون‌ها وضعیت مناسبی به خود می‌گیرند. حال اگر تعداد نورون‌ها را از 20 به 100 عدد برسانیم، نمودار زیر حاصل خواهد شد.

به این ترتیب مشاهده می‌کنیم که نورون‌ها وضعیت مناسبی به خود می‌گیرند. حال اگر تعداد نورون‌ها را از 20 به 100 عدد برسانیم، نمودار زیر حاصل خواهد شد:

مشاهده می‌کنیم که شبکه همه داده‌ها را به‌خوبی پوشش داده شده است، اما به‌دلیل زیاد بودن تعداد نورون‌ها نسبت به پیچیدگی مسئله، مشکلاتی در آموزش آن رخ داده است. اگر تعداد مناسبی از نورون‌ها انتخاب کنیم، حالتی میان این دو نمودار خواهیم داشت. شکل زیر این موضوع را به‌خوبی نشان می‌دهد.

شبکه عصبی SOM در پایتون

مشاهده می‌کنیم که نورون‌ها به‌صورت همگن پخش شده‌اند و همه نورون‌ها در موقعیت مناسبی درون داده‌ها قرار دارند.

آموزش مقدماتی پیاده سازی شبکه های عصبی مصنوعی در پایتون Python
فیلم آموزش مقدماتی پیاده سازی شبکه های عصبی مصنوعی در پایتون Python در تم آف

کلیک کنید

اگر ضریب $$theta$$ را از $$frac 14$$ به $$frac 1{10}$$ کاهش دهیم، نتایج نهایی به‌شکل زیر خواهد بود.

شبکه عصبی SOM در پایتون

مشاهده می‌کنیم که نظم موجود در حالت قبلی در این نتایج وجود ندارد که نشان‌دهنده اهمیت مقدار $$theta $$ است.

مجموعه آموزش هوش مصنوعی
فیلم مجموعه آموزش هوش مصنوعی در تم آف

کلیک کنید

جمع‌بندی

در این مطلب به پیاده سازی شبکه عصبی SOM در پایتون پرداختیم. برای بررسی‌ها بیشتر، می‌توان موارد زیر را بررسی کرد:

مجموعه آموزش شبکه‌ های عصبی مصنوعی
فیلم مجموعه آموزش شبکه‌ های عصبی مصنوعی در تم آف

کلیک کنید

  • مقداردهی اولیه به موقعیت نورون‌ها به‌صورت Lattice منظم
  • بررسی مقدار اینرسی در طول آموزش شبکه
  • بررسی روند آموزش مدل در شرایطی که نرخ یادگیری ثابت است

ارسال پاسخ

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.