وبلاگ

توضیح وبلاگ من

ارائه روشی جهت تحقق پرداخت الکترونیکی عوارض در کشور با استفاده از الگو های داده کاوی- قسمت ۴

 
تاریخ: 20-07-00
نویسنده: فاطمه کرمانی

۴- پردازش موازی[۲۲]: هنگامیکه شبکه عصبی در قالب سخت افزار پیاده می شود سلول هایی که در یک تراز قرار می گیرند میتواننند به طور همزمان به ورودی های ان تراز پاسخ دهند. این ویژگی باعث افزایش سرعت پردازش می شود در واقع در چنین سیستمی ، وظیفه کلی پردازش ، بین پردازنده های کوچکتر مستقل از یکدیگر توزیع می گردد.
۵- مقاوم بودن[۲۳]: در یک شبکه عصبی ، هر سلول به طور مستقل عمل می کند و رفتار کلی شبکه برآیند رفتارهای محلی سلول های متعددی است. این ویژگی باعث می شود تا خطاهای محلی از چشم خروجی نهایی دور بمانند. به عبارت دیگر سلول ها در یک روند همکاری، خطاهای محلی یکدیگر را تصحیح می کنند این خصوصیت باعث افزایش قابلیت مقاوم بودن در سیستم می گردد.
۲-۹- تاریخچه شبکه ­های عصبی مصنوعی
گرچه برخی از پیش زمینه ­های شبکه ­های عصبی در اوائل قرن بیستم و اواخر قرن نوزدهم در فیزیک، روان­شناسی و نروفیزیولوژی مطرح گردید، ولی دیدگاه جدید شبکه ­های عصبی در دهه ۴۰ قرن بیستم شروع شد. در سال ۱۹۴۳ اولین مدل نرون بر مبنای ساختمان نرون بیولوژیکی توسط McCulloch و Pitts ارائه شد که به نرون M-P مشهور است . در این نرون وزن­ها به دو دسته تحریک (۱+) و بازدارنده (۱-) تقسیم می­شوند. ورودی­ ها و خروجی نرون تنها می ­تواند مقادیر باینری صفر و یک را بگیرند. نرون وقتی فعال است که میزان کلی تحریک از یک مقدار یا حد آستانه بیشتر شود. با این مدل می­توان عملیات منطقی نظیر AND ، OR و NOT را انجام داد.
در سال ۱۹۴۹، اولین قانون یادگیری به نام قانون یادگیری Hebb ارائه شد. هب در کتاب مشهور خود بیان کرد که ارتباط بین نرون­های مغز همراه با یادگیری تغییر می­ کند. بر طبق نظریه هب، تحریک مکرر یک نرون توسط نرونی دیگر از طریق یک ارتباط خاص، هدایت آن ارتباط را افزایش می­دهد. در سال ۱۹۵۸، Rosenblat یک شبکه عصبی موسوم به پرسپترون[۲۴] را معرفی کرد که شبکه­ ای متشکل از نرون های M-P بود. پرسپترون متشکل از یک لایه ورودی بود که به وسیله وزن­هایی قابل تنظیم به نرون­ها متصل می­شد. قاعده یادگیری پرسپترون بر مبنای تحصیح وزن در یک روش تکراری است که قوی­تر از قاعده یادگیری هب است.
در اوایل دهه ۶۰ Widrow و شاگردش Hoff یک قاعده یادگیری که به نام ویدرو – هوف یا قاعده دلتا نامیده می­ شود، ارائه دادند که مشابه قاعده یادگیری پرسپترون بود.
قاعده دلتا وزن­ها را برای کاهش خطای مابین ورودی به نرون خروجی و خروجی مطلوب تصحیح می­ کند این شبکه به نام آدلاین[۲۵] نامیده می­ شود بعدها شبکه ­های چند لایه از آدلاین به نام مادلاین[۲۶] به وجود آمدند.
پایان نامه
این شبکه­ ها کاربرد گسترده­ای در زمینه مخابرات شناسایی الگو و مسائل کنترل داشتند. اما در سال ۱۹۶۹ ،Minsky و Papert محدودیت­های پرسپترون را در تمایز گذاشتن بین برخی الگوهای ساده نشان دادند و متذکر شدند که یک نرون M-Pنمی­تواند عنصر محاسباتی کاملی باشد. همچنین نبود رایانه­های سریع به این مشکل دامن می­زند از اینجا دوران رکود در شبکه ­های عصبی شروع شد که این رکود تا اواسط دهه ۸۰ ادامه داشت.
در اواسط دهه ۸۰ رشد تکنولوژی VLSI از دو جهت باعث رشد عملی شبکه ­های عصبی شد. با پیشرفت تکنولوی VLSI قدرت و سرعت میکروپروسسورها به درجه­ای رسید که می­توانستند شبکه ­های چند لایه بزرگ را شبیه­سازی کنند، تکنولوژی VLSI برای پیاده­سازی سخت­افزاری شبکه ­های عصبی به منظور بهره بردن از خواص موازی بالای آن­ها مناسب به نظر می­رسید. از طرف دیگر نظریه­ های جدید نیز باعث رشد تئوریک این شبکه ­های شدند. استفاده از مکانیزم تصادفی جهت توضیح عملکرد یک طبقه وسیع از شبکه ­های برگشتی[۲۷] که می­توان آن­ها را جهت ذخیره سازی اطلاعات استفاده نمود. این ایده توسط Hopfield فیزیک­دان آمریکایی در سال ۱۹۸۲ مطرح شد دومین ایده مهم که کلید توسعه شبکه ­های عصبی در دهه ۸۰ مطرح شد الگوریتم پس انتشار خطا[۲۸] می­باشد که توسط Rummelhurt در سال ۱۹۸۶ مطرح گردید. با بروز این دو ایده شبکه ­های عصبی متحول شدند.
در ده سال اخیر هزاران مقاله نوشته شده است و شبکه ­های عصبی کاربردهای زیادی در رشته­ های مختلف علوم پیدا کرده ­اند. شبکه ­های عصبی در هر دو جهت توسعه تئوریک و عملی در حال رشد می­باشند. بیشتر پیشرفت­ها در شبکه ­های عصبی به ساختارهای نوین و روش­های یادگیری جدید مربوط می­ شود آن­چه که در مورد آینده می­توان گفت این است که شبکه ­های عصبی جایگاه مهمی به عنوان یک ابزار علمی که بتواند برای حل مسائل خاص مورد استفاده قرار گیرد خواهند داشت.
۲- ۱۰- مدل­های شبکه ­های عصبی مصنوعی
برای مدل کردن آسان­تر سیستم عصبی بیولوژیکی، در شبکه ­های عصبی مصنوعی فرض بر این است که اطلاعات در اتصالات مابین نرون­ها و توابع انتقالی آن­ها قرار دارد بسته به نوع کاربرد شکبه­های عصبی با ساختارهای مختلف وجود دارند درکل می­توان شبکه ­های را از سه جهت دسته­بندی کرد.
ساختمان و عملکرد هر نرون
ساختنمان شبکه و نحوه ارتباط مابین لایه ها
نوع آموزش ( یادگیری )
۲-۱۰-۱- مدل ریاضی ساختمان و عملکرد نرون­ها
همان­طور که گفتیم یک نرون کوچک­ترین واحد پردازش­گر اطلاعات است که اساس عملکرد شبکه ­های عصبی را تشکیل می­دهد، بنابراین در این قسمت مدل ساده­ای از یک نورن ارائه می­ شود.
۲-۱۰-۱-۱- مدل نرون تک ورودی
شکل ۲-۲ ساختار یک نرون تک ورودی را نشان می دهد اسکالرهای p و a به ترتیب ورودی و خروجی می­باشند. میزان تاثیر p روی a به وسیله مقدار اسکالر w تعیین می­ شود. ورودی دیگر که مقدار ثابت ۱ است درجمله بایاس b ضرب شده و سپس با wp جمع می­ شود. این حاصل جمع، ورودی [۲۹]n برای تابع محرک[۳۰] (یا تابع تبدیل )f خواهد بود بدین ترتیب خروجی نرون با معادله زیر تعریف می شود.

 

   

 

 

 
شکل ۲-۷: مدل نرون تک ورودی

با مقایسه این مدل تک ورودی با یک نرون بیولوژیکی ، عملا w معادل شدت سیناپس جمع­کننده و تابع محرک معادل هسته سلول و سیگنال خروجی نرون، a ، معادل سیگنال گذرنده از آکسون خواهند بود. نکته­ای که باید به آن توجه شود اهمیت و تأثیر جمله بایاس b است. این جمله را می­توان مانند وزنه w در نظر گرفت با این تصور که میزان تاثیر ورودی ثابت ۱ را روی نرون منعکس می­سازد.
باید توجه داشت که پارامترهایw و bقابل تنظیم می باشد و تابع محرک f نیز توسط طراح انتخاب می­ شود. بر اساس انتخاب f و نوع الگوریتم یادگیری پارامترهایw و b تنظیم می­شوند. یادگیری بدین معنا است که w و b طوری تنظیم می­ کند تا رابطه ورودی و خروجی نرون با هدف خاصی مطابقت نماید.
تابع محرک f می ­تواند خطی یا غیرخطی باشد یک تابع محرک بر اساس نیاز خاص حل یک مسئله، مسئله­ای که قرار است به وسیله شبکه عصبی حل شود، انتخاب می­ شود. در عمل تعداد محدودی از توابع محرک مورد استفاده قرار می­گیرند که در اینجا به عنوان یک مثال تابع محرک زیگموئیدی را معرفی می­کنیم.
این تابع با فرمول کلی زیر بیان می­ شود:

 

   

مقدار c وسعت ناحیه خطی بودن تابع را تعیین می­ کند. مثلا اگر c خیلی بزرگ باشد شکل منحنی به تابع پله­ای نزدیک­تر می­ شود این تابع در شبکه ­های عصبی مورد استفاده زیادی دارد.


فرم در حال بارگذاری ...

« بررسی جامعه شناختی مهارت های اجتماعی و ارتباطی مؤثر بر بازدارندگی رفتارهای پرخطر جوانان(مطالعه موردی شهر شیراز)- قسمت ۴تحلیل ارتباط عملکرد بازار سرمایه و متغیرهای کلان اقتصادی در ایران- قسمت ۷ »