در صورتی که مسئله درگیر یادگیری رفتاری، حدوداً میانگین را داشته باشد، توابع فعالیت حلقوی بهترین کار را انجام میدهد. در صورتی که مسئله درگیر یادگیری، انحرافات از میانگین را داشته باشد. در این حالت توابع تانژانت هذلولی بهترین کار را انجام می دهد. با توجه به تابع، خروجی مسئله ارزیابی و خوشه بندی اعتبار مشتریان در فاصله صفر و یک می باشد. در این مقاله از تابع فعالیت حلقوی استفاده شده است.

قاعده اصلی یادگیری به وسیله رو هل هارت تحت عنوان قاعده دلتا ارائه گردید. این قاعده یادگیری شامل سه مرحله محاسبه خروجی ها، مقایسه خروجی واقعی با خروجی مطلوب و تعدیل کردن وزن ها و مقادیر بایاس با تکرار پردازش می باشد. در این عملیات تفاوت بین خروجی حقیقی و مطلوب از طریق تعدیل وزن ها و مقادیر بایاس حداقل می شود [۲۶.

موضوع اصلی در معماری شبکه تعیین تعداد لایه میانی و تعداد نرون در هر لایه مخفی می باشد. اگر بیشتر از یک لایه مخفی داشته باشیم زمان یادگیری افزایش می یابد، الگوریتم یادگیری پیچیده تر و محاسبات سنگین تر می شود. همچنین تعداد کمتر نرون در هر لایه مخفی باعث تعمیم بهتر شبکه به مسائل جدید می باشد. وجود یک لایه مخفی می تواند کلیه توابع تبدیل را با الگوریتم های ساده یادگیری شبیه سازی کند [۲۶]

در این مقاله برای تعیین تعداد لایه از روش سازنده استفاده شده است. در این روش ورودی ها مستقیماً به خروجی متصل می شوند. وزن ها را آموزش داده تا اینکه خطا به مقدار ثابتی برسد. در مرحله بعد یک لایه مخفی با یک نرون ایجاد و دوباره عملیات آموزش را تکرار می کنیم. افزایش تعداد لایه های مخفی و تعداد ترون های آنها متوقف می شود که با افزایش تعداد لایه نرون در جواب ها بهبودی حاصل نشود. در این صورت آخرین لایه یا نرون مخفی اضافه شده حذف می شود. در این مقاله کمترین خطای شبکه با یک لایه مخفی دارای پنج نرون حاصل شده است. این شبکه همچنین دارای ۴۰ نرون ورودی و یک نرون خروجی می باشد. نکته مهم این است که معماری به دست آمده بر نمودار فرآیند تحلیل سلسله مراتبی در شکل ۲ انطباق دارد. یعنی تعداد نرون ها در لایه میانی برابر تعداد خوشه هایی است که می توان عوامل فرعی را در آن خوشه ها، دسته بندی نمود.