-
- میانگین تعداد سهام منتشر شده
-
- میانگین ارزش جاری سهام شرکت در دوره بررسی
مقایسه و رتبه بندی فعالیت شرکتهای پذیرفته شده در بورس بر پایه متغیرهای فوق و به کمک میانگین هارمونیک به صورت زیر انجام می شود :
معادله ۱۵
که در آن :
Mj رتبه شرکت j ام
N تعداد متغیرهای ششگانه
I متغیر iام از مجموعه متغیرهای ششگانه می باشند.
شاخص پنجاه شرکت فعالتر بورس به دو روش میانگین حسابی وزنی و میانگین حسابی ساده و بر پایه ارزش جاری سهام پنجاه شرکت انتخاب شده ، محاسبه می شود . شاخص میانگین وزنی از ۰۱/۰۱/۱۳۷۷ و شاخص میانگین ساده از ۰۱/۰۸/۱۳۷۹ محاسبه وعدد مبنای آنها ۱۰۰ در نظر گرفته شده است .
شبکه های عصبی مصنوعی
یک شبکه عصبی مصنوعی مدلی از شبکه عصبی بیولوژیک است . امروزه هوش محاسباتی یک مجموعه محدود از مفاهیم را مورد استفاده قرار می دهد که مبتنی بر دانش ما از سیستم های عصبی بیولوژیک می باشد . این مفاهیم به منظور پیاده سازی وشبیه سازی های نرم افزاری فرایند های موازی شامل عناصر پردازشی ( نرون های مصنوعی ) متصل به هم در معماری شبکه را مورد استفاده قرار می گیرند. علیرغم تحقیقات گسترده در زمینه هوش محاسباتی بیولوژیک ، هنوز سوالات مهمی در خصوص نحوه کار مغز وحافظه مطرح می باشد شبکه های عصبی مصنوعی مدل های غیر خطی ناپارامتری هستند که با قابلیت یادگیری ای که دارند می توان آنها را به منظور اهداف طبقه بندی پیش بینی وکنترل به کار برد . در این بخش مفاهیم شبکه های عصبی را به طور خلاصه توضیح می دهیم ابتدا اشاره ای به شبکه های عصبی بیولوژیک کرده ودر ادامه شبکه های مصنوعی تشریح می گردد .
شبکه های عصبی بیولوژیک
مغز انسان ( وحیوان ) متشکل از یک سری سلول به نام نرون می باشد که ویژگی بی نظیر آنها این است که این نرونها از بین نمی روند و احتمالا این پدیده علت آن است که ما قادر به حفظ اطلاعات هستیم . نرون های موجود در مغز انسان تا ۱۰۰ میلیارد تخمین زده می شود و صدها نوع نرون تاکنون شناخته شده است . مجموعه نرون ها در یک گروه و ارتباطات آنها را شبکه می نامند ( تریپی وتوربان ، ۱۹۹۶). لذا مغز انسان را می توان یک مجموعه از شبکه های عصبی نامید .تفکر هوشمند توسط مغز و سیستم عصبی مرکزی کنترل می گردد و توان یادگیری وعکس العمل در مقابل تغییرات محیط ، مستلزم وجود هوش می باشد .
یادگیری در سیستم های بیولوژیک
تصور می شود یادگیری هنگامی صورت می گیرد که شدت اتصال یک سلول و سلول دیگر در محل سیاپس ها اصلاح می گردد .شکل (۲-۳) ویژگی های مهم سیناپس را با جزییات بیشتر نشان می دهد به نظر می رسد که این مقصود از طریق ایجاد سهولت بیشتر در میزان آزاد شدن ناقل شیمیایی حاصل می گردد. این حالت باعث می شود که دروازه های بیشتری روی دندریت های سمت مقابل باز شود و به این صورت باعث افزایش میزان اتصال دو سلول شود . تغییر میزان اتصال نرون ها به صورتی که باعث تقویت تماس های مطلوب شود از مشخصه های مهم در مدل های شبکه های عصبی است .
شکل ۲-۳- یک نرون بیولوژیکی ساده
مدل سازی نرون تنها
ابتدا مشخصات یک نرون و نحوه مدلسازی آن را بررسی می کنیم. نقش اصلی یک نرون بیولوژیکی عمل جمع آوری ورودیهای خود تا جایی است که مجموع ورودهای از حدی که به آن استانه می گوییم تجاوز نکند و آنگاه تولید یک خروجی است .ورودی های نرون از طریق دندریت ها که به خروجی های نرونهای دیگر توسط نقاط اتصال ( سیناپسها ) متصل است وارد می شوند . سیناپس ها کارایی سیگنال های دریافتی را تغییر می دهند . بدنه سلول کلیه ورودی ها را دریافت می کند . یک نرون بیولوژیکی ساده در شکل ۲-۳ نشان داده شده است . مدلی که از نرون می سازیم باید مشخصه های زیر را داشته باشد به طور خلاصه :
-
- خروجی یک نرون یا فعال است ( یک ) ویا غیرفعال است ( صفر ).
-
- خروجی تنها به ورودی های بستگی دارد میزان ورودی ها باید به حدی برسد که خروجی نرون را فعال سازد .
کارایی سیناپس ها در انتقال سیگنال های ورودی به بدنه سلول را می توان با بهره گرفتن از ضریبی که در ورودیهای نرون ضرب می شود مدلسازی کرد. سیناپس های قوی تر که سیگنال بیشتری را منتقل می کنند، دارای ضریب های بسیار بزرگتری هستند در حالی که سیناپس ها ضعیف ضریب های کوچکتری دارند .
شکل ۲-۴- شمای ساده یک آکسون عصبی
شکل ۲-۵- شمای ساده از نحوه مقدار دهی یک سلول عصبی
بدین صورت مدل ما به صورتی خواهد بود که در آن شکل ۲-۵ آمده است . این مدل ابتدا مجموع وزنی ورودی های خود را محاسبه کرده ، سپس آن را با سطح آستانه داخلی خود مقایسه می کند و چنانچه آز آن تجاوز کرد فعال می شود . در غیر این صورت غیر فعال باقی می ماند. چون ورودها برای تولید خروجی از میان نرون عبور می کنند به این سیستم «پیشخور » می گوییم .
بنابراین اگر خروجی را y بنامیم ،
معادله ۱۶
درحالی که یک تابع پلکانی است ( در واقع این تابع را تابع «هوی ساید » می نامند) و
معادله ۱۷
بدین صورت منظور ما برآورده می شود دقت کنید که خروجی تابع تنها مقادیر ۱و۰ است به عبارت دیگر نرون یا فعال است یا غیر فعال .
مدل نرون که در شکل ۲-۴ آمده است در سال ۱۹۴۳ توسط مک کولو و پیتس پیشنهاد شده است . مدل آنها تقریباً به همان صورت که ما بحث کردیم از طرق تحقیق در رفتار نرون های مغز پیشنهاد شده بود .مهم است که درباره مشخصات این مدل بیشتر صحبت کنیم . مدل آنها وسیله ای بسیار ساده است که مجموع وزنی ورودهای خود را برای تعیین خروجی با آستانه مقایسه می کند . مدل هیچ اهمیتی به ساختار پیچیده و زمان بندی فعالیت نرونهای واقعی نمی دهد و دارای هیچکدام از ویژگیهای پیچیده نرونهای بیولوژیکی نیست ، به همین دلیل است که آن را یک مدل و نه یک نسخه تکراری از نرون بیولوژیک می نامیم و می توان آن را در یک کامپیوتر دیجتال پیاده کرد .این توانایی مدل است. اکنون باید دید که چگونه می توان از این الگوی ساده بهره جست . نحوه ارتباط نرونها با یکدیگر مهم است ، لیکن در پیروی از روش قبلی خود در انتخاب مدل های ساده برای شناخت آنچه در دنیای واقعی پیچیده می گذرد بهتر است ابتدا تنها یک لایه از نرونها را مد نظر قرار دهیم تا بتوانیم خروجی های نرونهای مورد نظر را تحت ورودی های معینی مطالعه کنیم .
شکل ۲-۵- نحوه مقدار دهی در سلول عصبی
نرونهای مدل ، که به طریقی ساده به یکدیگر متصل اند . در سال ۱۹۶۲ توسط فرانک روزنبلات[۱۲] به نام پرسپترون نامگذاری شد . او برای نخستین بار نرونهای مدل را در کامپیوترهای دیجیتال شبیه سازی کرد و آنها را به طور رسمی تحلیل نمود. روزنبلات در کتاب خود «اصول دینامیسم عصبی»[۱۳] پرسپترون ها را به صورت شبکه های ساده شده شرح داد که در آنها برخی از ویژگیهای سیستم های عصبی واقعی به طور اغراق آمیز بکار رفته و برخی دیگر از آنها نادیده گرفته شده بود . او اعتراف کرد که مدل مذکور به هیچ وجه نسخه دقیق سیستم های عصبی نمی باشد . به عبارت دیگر او از ابتدا آگاه بود با مدلی پایه روبرو است .
هدف ما کشف خواص مدلهایی است که رفتار خود را از صورت های بسیار ساده تر شده سیستم های عصبی طبیعی فرا می گیرند که معمولاً با مقیاس بسیار کوچکتری نیز بنا شده اند . جایی که مغز دارای نرون است که هر کدام با نرون دیگر متصل است ، ما با چند صد نرون که هر کدام حداکثر با چند هزارخط ورودی متصل اند سروکار داریم .
شبکه های عصبی چند لایه پیشخور
در این قسمت ، تعمیمی از الگوریتم LMS برای طبقه مهمی از شبکه های عصبی موسوم به شبکه های عصبی چند لایه پیشخور [۱۴]MLFN ارائه می شود . این تعمیم موسوم است به یادگیری پس انتشار خطا که مبتنی بر قانون یادگیری اصلاح خطا[۱۵] می باشد . از قانون یادگیری پس انتشار خطا (BP)[16] برای آموزش شبکه های عصبی چند لایه پیشخور که عموماً شبکه های چند لایه پرسپترون (MLP)[17] هم نامیده می شود استفاده می کنند . به عبارتی توپولوژی شبکه MLP با قانون یادگیری پس انتشار خطا تکمیل می شود . این قانون مثل قانون LMS تقریبی است از الگوریتم SD ودر چارچوب یادگیری عملکردی[۱۸] قرار می گیرد.
قانون پس انتشار خطا از دو مسیر اصلی تشکیل می شود . مسیر اول به مسیر رفت[۱۹] موسوم می باشد که در این مسیر ، بردار ورودی به شبکه LMS اعمال می شود و تاثیراتش از طریق لایه های میانی به لایه های خروجی انتشار می یابد. بردار خروجی تشکیل یافته در لایه خروجی ، پاسخ واقعی شبکه MLP را تشکیل می دهد . در این مسیر پارامترهای شبکه ، ثابت و بدون تغییر در نظر گرفته می شوند .
مسیر دوم به مسیر برگشت[۲۰] موسوم می باشد . در این مسیر ، برعکس مسیر رفت ، پارامترهای شبکه MLP تغییر وتنظیم می گردند. این تنظیم مطابق با قانون اصلاح خطا انجام می گیرد . سیگنال خطا در لایه خروجی شبکه تشکیل می گردد .
بردار خطا برابر با اختلاف بین پاسخ مطلوب و پاسخ واقعی شبکه می باشد . مقدار خطا، پس از محاسبه ، در مسیر برگشت از لایه خروجی و از طریق لایه های شبکه در کل شبکه توزیع می گردد . چون توزیع اخیر ، در خلاف مسیر ارتباطات وزنی سیناپسها صورت می پذیرد ، کلمه پس انتشار خطا جهت توضیح اصلاح رفتاری شبکه انتخاب شده است . پارامترهای شبکه طوری تنظیم می شوند که پاسخ واقعی شبکه هر چه بیشتر ، به سمت پاسخ مطلوب نزدیک تر شود .
در شبکه MLP ، مدل هر نرون دارای یک تابع محرک غیر خطی است که از ویژگی هموار(مشتق پذیر ) برخوردار است . در این حالت ، ارتباط بین پارامترهای شبکه وسیگنال خطا کاملاً پیچیده وغیر خطی می باشد . جهت محاسبه مشتقات به استفاده از قانون زنجیره ای معمول در جبر نیاز است .
مروی بر تاریخچه MLFN
تحقیقات روی شبکه های عصبی چند لایه پیشخور ، به کارهای اولیه فرانک روزنبلات (۱۹۵۸) روی شبکه عصبی پرسپترون تک لایه ، با تابع محرک دو مقداره حدی غیر خطی وقانون یادگیری SLPR وکارهای اولیه برنارد ویدرو[۲۱] و ماریان هوف[۲۲] (۱۹۶۰) وشبکه های آدالاین وقانون یادگیری LMS ، بر می گردد. شبکه های تک لایه از این مشکل اساسی برخوردارند که تنها توانایی حل آن دسته از مسایل طبقه بندی را دارند که بطور خطی از هم مستقل اند . هم روزنبلات وهم ویدرو بر این امر واقف بودند و شبکه های چند لایه را پیشنهاد کرده بودند لکن به علت عدم ارائه قانون یادگیری که بتوان جهت تنظیم پارامترهای شبکه به کار برد ، توپولوژی شبکه MLP ناقص بود .به عبارت دیگر اگر چه آنها توانسته بودند شبکه های تک لایه را به چند لایه تعمیم بدهند ، اما قادر نشدند که قانون یادگیری LMS یا SLPR را برای شبکه های چند لایه تعمیم بدهند .
هر چند استفاده از عبارت « پس انتشار » عملاً پس از ۱۹۸۵ متداول گشت ، لکن نخستین توصیف الگوریتم BP توسط پاول وربز[۲۳] در سال ۱۹۷۴ در رساله دکترایش مطرح شد. در این رساله الگوریتم BP تحت مفهوم شبکه های عمومی ارائه شد . این الگوریتم در دنیای شبکه های عصبی ظاهر نشد تا این که در اواسط دهه ۸۰ الگوریتم BP دوباره کشف و به طور وسیعی مطرح شد . این الگوریتم بطور مستقل توسط دیوید راملهارت[۲۴] ، جفری هینتون[۲۵] و رونالد ویلیامز[۲۶] در سال ۱۹۸۶ و دیوید پارکر[۲۷] و یان لی چون[۲۸] در سال ۱۹۸۵ دوباره مطرح و در دنیای شبکه عصبی معروف گردید( منهاج ،۱۳۷۹).
توسعه الگوریتم BP با فراهم آوردن روشی از نظر محاسباتی کارآ، رنسانسی در شبکه های عصبی ایجاد نمود . در اینجا نخست پس از معرفی توانایی های شبکه های پرسپترون چند لایه ، الگوریتم BP ارائه می گردد .