سلام
من می خواهم با یک شبکه MLP یک گیت exor دو ورودی درست کنم که دو نرون درورودی و یک نرون در خروجی گذاشته ام و ورودی را به هر دو نرون داده ام اما از انجایی که خروجی هر کدام از نرون ها در شبکه MLP باید دارای Transfer Function تابع پله یا به اصطلاح Hardlim باشد بعد از اجرای برنامه بدون هیچ تکرار و اموزشی برنامه stop می کند اما با Transfer Function های دیگر این کار انجام می شود که با عوض کردن Hardlim دیگر شبکه ما MLP نخواهد بود و فقط یک شبکه چند لایه می باشد سوال من این است ایا هیج الگوریتم اموزشی وجود ندارد که با hardlim سازگار باشد؟
با تشکر
من می خواهم با یک شبکه MLP یک گیت exor دو ورودی درست کنم که دو نرون درورودی و یک نرون در خروجی گذاشته ام و ورودی را به هر دو نرون داده ام اما از انجایی که خروجی هر کدام از نرون ها در شبکه MLP باید دارای Transfer Function تابع پله یا به اصطلاح Hardlim باشد بعد از اجرای برنامه بدون هیچ تکرار و اموزشی برنامه stop می کند اما با Transfer Function های دیگر این کار انجام می شود که با عوض کردن Hardlim دیگر شبکه ما MLP نخواهد بود و فقط یک شبکه چند لایه می باشد سوال من این است ایا هیج الگوریتم اموزشی وجود ندارد که با hardlim سازگار باشد؟
با تشکر