۴- پردازش موازی[۲۲]: هنگامیکه شبکه عصبی در قالب سخت افزار پیاده می شود سلول هایی که در یک تراز قرار می گیرند میتواننند به طور همزمان به ورودی های ان تراز پاسخ دهند. این ویژگی باعث افزایش سرعت پردازش می شود در واقع در چنین سیستمی ، وظیفه کلی پردازش ، بین پردازنده های کوچکتر مستقل از یکدیگر توزیع می گردد.
۵- مقاوم بودن[۲۳]: در یک شبکه عصبی ، هر سلول به طور مستقل عمل می کند و رفتار کلی شبکه برآیند رفتارهای محلی سلول های متعددی است. این ویژگی باعث می شود تا خطاهای محلی از چشم خروجی نهایی دور بمانند. به عبارت دیگر سلول ها در یک روند همکاری، خطاهای محلی یکدیگر را تصحیح می کنند این خصوصیت باعث افزایش قابلیت مقاوم بودن در سیستم می گردد.
۲-۹- تاریخچه شبکه های عصبی مصنوعی
گرچه برخی از پیش زمینه های شبکه های عصبی در اوائل قرن بیستم و اواخر قرن نوزدهم در فیزیک، روانشناسی و نروفیزیولوژی مطرح گردید، ولی دیدگاه جدید شبکه های عصبی در دهه ۴۰ قرن بیستم شروع شد. در سال ۱۹۴۳ اولین مدل نرون بر مبنای ساختمان نرون بیولوژیکی توسط McCulloch و Pitts ارائه شد که به نرون M-P مشهور است . در این نرون وزنها به دو دسته تحریک (۱+) و بازدارنده (۱-) تقسیم میشوند. ورودی ها و خروجی نرون تنها می تواند مقادیر باینری صفر و یک را بگیرند. نرون وقتی فعال است که میزان کلی تحریک از یک مقدار یا حد آستانه بیشتر شود. با این مدل میتوان عملیات منطقی نظیر AND ، OR و NOT را انجام داد.
در سال ۱۹۴۹، اولین قانون یادگیری به نام قانون یادگیری Hebb ارائه شد. هب در کتاب مشهور خود بیان کرد که ارتباط بین نرونهای مغز همراه با یادگیری تغییر می کند. بر طبق نظریه هب، تحریک مکرر یک نرون توسط نرونی دیگر از طریق یک ارتباط خاص، هدایت آن ارتباط را افزایش میدهد. در سال ۱۹۵۸، Rosenblat یک شبکه عصبی موسوم به پرسپترون[۲۴] را معرفی کرد که شبکه ای متشکل از نرون های M-P بود. پرسپترون متشکل از یک لایه ورودی بود که به وسیله وزنهایی قابل تنظیم به نرونها متصل میشد. قاعده یادگیری پرسپترون بر مبنای تحصیح وزن در یک روش تکراری است که قویتر از قاعده یادگیری هب است.
در اوایل دهه ۶۰ Widrow و شاگردش Hoff یک قاعده یادگیری که به نام ویدرو – هوف یا قاعده دلتا نامیده می شود، ارائه دادند که مشابه قاعده یادگیری پرسپترون بود.
قاعده دلتا وزنها را برای کاهش خطای مابین ورودی به نرون خروجی و خروجی مطلوب تصحیح می کند این شبکه به نام آدلاین[۲۵] نامیده می شود بعدها شبکه های چند لایه از آدلاین به نام مادلاین[۲۶] به وجود آمدند.
این شبکه ها کاربرد گستردهای در زمینه مخابرات شناسایی الگو و مسائل کنترل داشتند. اما در سال ۱۹۶۹ ،Minsky و Papert محدودیتهای پرسپترون را در تمایز گذاشتن بین برخی الگوهای ساده نشان دادند و متذکر شدند که یک نرون M-Pنمیتواند عنصر محاسباتی کاملی باشد. همچنین نبود رایانههای سریع به این مشکل دامن میزند از اینجا دوران رکود در شبکه های عصبی شروع شد که این رکود تا اواسط دهه ۸۰ ادامه داشت.
در اواسط دهه ۸۰ رشد تکنولوژی VLSI از دو جهت باعث رشد عملی شبکه های عصبی شد. با پیشرفت تکنولوی VLSI قدرت و سرعت میکروپروسسورها به درجهای رسید که میتوانستند شبکه های چند لایه بزرگ را شبیهسازی کنند، تکنولوژی VLSI برای پیادهسازی سختافزاری شبکه های عصبی به منظور بهره بردن از خواص موازی بالای آنها مناسب به نظر میرسید. از طرف دیگر نظریه های جدید نیز باعث رشد تئوریک این شبکه های شدند. استفاده از مکانیزم تصادفی جهت توضیح عملکرد یک طبقه وسیع از شبکه های برگشتی[۲۷] که میتوان آنها را جهت ذخیره سازی اطلاعات استفاده نمود. این ایده توسط Hopfield فیزیکدان آمریکایی در سال ۱۹۸۲ مطرح شد دومین ایده مهم که کلید توسعه شبکه های عصبی در دهه ۸۰ مطرح شد الگوریتم پس انتشار خطا[۲۸] میباشد که توسط Rummelhurt در سال ۱۹۸۶ مطرح گردید. با بروز این دو ایده شبکه های عصبی متحول شدند.
در ده سال اخیر هزاران مقاله نوشته شده است و شبکه های عصبی کاربردهای زیادی در رشته های مختلف علوم پیدا کرده اند. شبکه های عصبی در هر دو جهت توسعه تئوریک و عملی در حال رشد میباشند. بیشتر پیشرفتها در شبکه های عصبی به ساختارهای نوین و روشهای یادگیری جدید مربوط می شود آنچه که در مورد آینده میتوان گفت این است که شبکه های عصبی جایگاه مهمی به عنوان یک ابزار علمی که بتواند برای حل مسائل خاص مورد استفاده قرار گیرد خواهند داشت.
۲- ۱۰- مدلهای شبکه های عصبی مصنوعی
برای مدل کردن آسانتر سیستم عصبی بیولوژیکی، در شبکه های عصبی مصنوعی فرض بر این است که اطلاعات در اتصالات مابین نرونها و توابع انتقالی آنها قرار دارد بسته به نوع کاربرد شکبههای عصبی با ساختارهای مختلف وجود دارند درکل میتوان شبکه های را از سه جهت دستهبندی کرد.
ساختمان و عملکرد هر نرون
ساختنمان شبکه و نحوه ارتباط مابین لایه ها
نوع آموزش ( یادگیری )
۲-۱۰-۱- مدل ریاضی ساختمان و عملکرد نرونها
همانطور که گفتیم یک نرون کوچکترین واحد پردازشگر اطلاعات است که اساس عملکرد شبکه های عصبی را تشکیل میدهد، بنابراین در این قسمت مدل سادهای از یک نورن ارائه می شود.
۲-۱۰-۱-۱- مدل نرون تک ورودی
شکل ۲-۲ ساختار یک نرون تک ورودی را نشان می دهد اسکالرهای p و a به ترتیب ورودی و خروجی میباشند. میزان تاثیر p روی a به وسیله مقدار اسکالر w تعیین می شود. ورودی دیگر که مقدار ثابت ۱ است درجمله بایاس b ضرب شده و سپس با wp جمع می شود. این حاصل جمع، ورودی [۲۹]n برای تابع محرک[۳۰] (یا تابع تبدیل )f خواهد بود بدین ترتیب خروجی نرون با معادله زیر تعریف می شود.
شکل ۲-۷: مدل نرون تک ورودی |
با مقایسه این مدل تک ورودی با یک نرون بیولوژیکی ، عملا w معادل شدت سیناپس جمعکننده و تابع محرک معادل هسته سلول و سیگنال خروجی نرون، a ، معادل سیگنال گذرنده از آکسون خواهند بود. نکتهای که باید به آن توجه شود اهمیت و تأثیر جمله بایاس b است. این جمله را میتوان مانند وزنه w در نظر گرفت با این تصور که میزان تاثیر ورودی ثابت ۱ را روی نرون منعکس میسازد.
باید توجه داشت که پارامترهایw و bقابل تنظیم می باشد و تابع محرک f نیز توسط طراح انتخاب می شود. بر اساس انتخاب f و نوع الگوریتم یادگیری پارامترهایw و b تنظیم میشوند. یادگیری بدین معنا است که w و b طوری تنظیم می کند تا رابطه ورودی و خروجی نرون با هدف خاصی مطابقت نماید.
تابع محرک f می تواند خطی یا غیرخطی باشد یک تابع محرک بر اساس نیاز خاص حل یک مسئله، مسئلهای که قرار است به وسیله شبکه عصبی حل شود، انتخاب می شود. در عمل تعداد محدودی از توابع محرک مورد استفاده قرار میگیرند که در اینجا به عنوان یک مثال تابع محرک زیگموئیدی را معرفی میکنیم.
این تابع با فرمول کلی زیر بیان می شود:
مقدار c وسعت ناحیه خطی بودن تابع را تعیین می کند. مثلا اگر c خیلی بزرگ باشد شکل منحنی به تابع پلهای نزدیکتر می شود این تابع در شبکه های عصبی مورد استفاده زیادی دارد.
فرم در حال بارگذاری ...