انجام پروژه شبکه عصبی

انجام پروژه شبکه عصبی با گروه تخصصی متلبی

دعوت به همکاری

سایت متلبی سفارشات زیادی دریافت می کند

اگر در شبیه سازی با شبکه عصبی تبحّر دارید منتظر شما هستیم

انجام پروژه شبکه عصبی , به همراه خودآموز از فعالیتهای سایت متلبی است.

انجام پروژه عصبی با قیمت مناسب در تمامی رشته های تخصصی انجام می شود.
اگر برای پروژه خود نیاز به شبیه سازی با شبکه عصبی و انجام پروژه با ANN دارید.
سایت متلبی گزینه مناسبی برای انجام پروژه شبکه عصبی شماست.
تیم تخصصی متلبی انجام پروژه ANN را با آموزش به دو صورت آموزش در قالب ورد و آموزش در قالب ویدیو به شما ارائه می کند.
سایت متلبی حامی مشتریان عزیز خود است و بر همین اساس حق الزحمه استادکار را بعد از دو روز و اگر پروژه شبکه عصبی انجام شده مورد تایید قرار گرفت به آن استادکار پرداخت می کند.
همچنین جهت انجام پروژه شما درگاه آنلاین پرداخت را جهت راحتی و سهولت روند کار راه اندازی کرده است.
با در نظر گرفتن شرایط و قوانین کافی حقوق مشتری را در انجام پروژه ها بخوبی حفظ کرده ایم و تمامی قرارداد مابین را از طریق مکاتبه ایمیلی انجام میدهیم تا روند انجام پروژه شما بخوبی قابل پیگیری حقوقی باشد.
استادکار های سایت متلبی از فیلترهای سختی جهت همکاری با سایت گذر کرده اند و این اطمینان را به شما می دهیم که برجسته ترین و فرهیخته ترین افراد را در تیم تخصصی متلبی جای داده ایم.
12635

پروژه های انجام شده

6

سال ارائه خدمت

2156

استادکارهای آنلاین

7/18

پشتیبانی هر روز 18ساعت

تضیمن کیفیت پروژه های شبکه عصبی

مبلغ پرداختی شما پس از 48 ساعت برای مجری واریز خواهد شد و درصورت وجود ایراد استادکار ملزم به رفع آن است.

قیمت مناسب با متلبی

به دلیل رقابت بین مجریان سایت, کمترین قیمت برای سفارش شما پیشنهاد می شود.

شبکه‌های عصبی مصنوعی یا شبکه‌های عصبی صناعی (Artificial Neural Networks – ANN) یا به زبان ساده‌تر شبکه‌های عصبی سیستم‌ها و روش‌های محاسباتی نوین برای یادگیری ماشینی، نمایش دانش و در انتها اعمال دانش به دست آمده در جهت بیش‌بینی پاسخ‌های خروجی از سامانه‌های پیچیده هستند. ایدهٔ اصلی این گونه شبکه‌ها تا حدودی الهام‌گرفته از شیوهٔ کارکرد سیستم عصبی زیستی برای پردازش داده‌ها و اطلاعات به منظور یادگیری و ایجاد دانش میباشد. عنصر کلیدی این ایده، ایجاد ساختارهایی جدید برای سامانهٔ پردازش اطلاعات است.

این سیستم از شمار زیادی عناصر پردازشی فوق‌العاده بهم‌پیوسته با نام نورون تشکیل شده که برای حل یک مسئله با هم هماهنگ عمل می‌کنند و توسط سیناپس‌ها (ارتباطات الکترومغناطیسی) اطلاعات را منتقل می‌کنند. در این شبکه‌ها اگر یک سلول آسیب ببیند بقیه سلول‌ها می‌توانند نبود آن را جبران کرده، و نیز در بازسازی آن سهیم باشند. این شبکه‌ها قادر به یادگیری‌اند. مثلاً با اعمال سوزش به سلول‌های عصبی لامسه، سلول‌ها یادمی‌گیرند که به طرف جسم داغ نروند و با این الگوریتم سیستم می‌آموزد که خطای خود را اصلاح کند. یادگیری در این سیستم‌ها به صورت تطبیقی صورت می‌گیرد، یعنی با استفاده از مثال‌ها وزن سیناپس‌ها به گونه‌ای تغییر می‌کند که در صورت دادن ورودی‌های جدید، سیستم پاسخ درستی تولید کند. (منبع ویکی پدیا)

کاربرد شبکه عصبی

شبکه های عصبی مصنوعی ابزاری مهم در میان مباحث هوش محاسباتی (Computational Intelligence) به حساب می آیند. انواع مختلفی از شبکه های عصبی مصنوعی معرفی شده اند که عمدتا در کاربردهایی همچون: طبقه بندی، خوشه بندی، تشخیص الگو، مدل سازی و تقریب توابع، کنترل، تخمین و بهینه سازی مورد استفاده قرار می گیرند.

شبکه عصبی دارای تولباکس در متلب هست که کار با آن را برای برنامه نویسان بسیار راحت کرده است.

سعی می کنیم در مورد شبکه عصبی مطالب آموزشی بیشتری قرار دهیم. همچنین پروژه های متعددی را توسط شبکه عصبی انجام داده ایم که میتوانید از فروشگاه متلبی دریافت نمایید.

  1. برای سفارش انجام پروژه شبکه عصبی با متلب بر روی دکمه “سفارش انجام پروژه” که در انتهای همین صفحه قرار دارد، کلیک کنید.
  2. کارشناسان سایت متلبی پس از بررسی دقیق محتوای پروژه، زمان و هزینه آن را تعیین می کنند که توسط ایمیل به اطلاع شما خواهد رسید.
  3. پس از توافق بر موعد تحویل و هزینه انجام پروژه و پرداخت نیمی از هزینه انجام پروژه بعنوان پیش پرداخت، کار روی پروژه آغاز خواهد شد.
  • قیمت انجام پروژه های شبکه عصبی بر اساس حجم کار و زمان درخواستی انجام پروژه و پس از بررسی تعیین می گردد. لذا قبل از بررسی به هیچ عنوان امکان اعلام تعرفه سفارش وجود ندارد.
  • حتی الامکان سعی می شود که زمان انجام پروژه های شبکه عصبی با زمان پیشنهادی شما تنظیم گردد، اما در مواردی با توجه به نوع و حجم پروژه و ترافیک کاری متلبی نیاز به زمان بیشتری خواهد بود.
  • پس شما همواره حداکثر زمان را در فرم سفارش پیشنهاد دهید.

متلبی به منزله پلی بین شما و مجری عمل نموده و مبلغ پرداختی شما را 48 ساعت پس از تحویل پروژه (یا آموزش) و درصورت نبود ایراد و رضایت شما بحساب مجری واریز خواهد نمود. لذا با خیال آسوده سفارش خود را به ما بسپارید.

  • سایت متلبی بعد از دریافت پیشنهادات از سوی استادکارها, مناسبترین قیمت و زمان را از بین پیشنهادات دریافت شده برای شما ارسال می کند.
  • برای پیگیری سریع تر سفارش، بایستی ایمیل خود را به صورت روزانه بررسی فرمایید. (پوشه spam فراموش نشود، در موارد نادر ممکن است ایمیل ما به این پوشه رفته باشد.)
  • کلیه سفارش ها ظرف مدت حداکثر 24 ساعت پاسخ داده میشوند، در صورت عدم دریافت پاسخ, به منزله عدم دریافت پیشنهاد از سوی استادکارها بوده است. میتوانید بعد از چند روز مجدد سفارش خود را ثبت کنید تا مجریانی که وقتشان خالی شده, سفارش شما را بررسی کنند.
انجام پروژه متلب

مرکز تخصصی انجام پروژه های شبکه عصبی در ایران

گروه تخصصی متلبی با گزینش نیروهای مجرب و متخصص در انجام پروژه شبکه عصبی تلاش به انجام پروژه های علمی، تخصصی با بالاترین کیفیت و کمترین هزینه را دارد. ادعای ما این است که پروژه هایی که همکاران ما در نقاط مختلف کشور قادر به انجام آن نبوده اند را ما انجام خواهیم داد.
امروزه قبل از عملیاتی کردن طرح ها, آنها را با مدل کردن و شبیه سازی کردن در نرم افزار قدرتمند متلب, کاملا بررسی و مورد آزمون و خطا قرار میدهند, از این رو ریسک عملیاتی کردن آنها بسیار پایین خواهد آمد.

سایت متلبی توانمندی همکاری با ارگان ها و نهادهای خصوصی و دولتی را دارد.

  •   تضمین انجام پروژه EMTP به همراه آموزش آن
  •   کار بدون تعطیلی و 24 ساعته در سایت متلبی
  •   پرداخت حق الزحمه مجری بعد از 48 ساعت و یا با تایید مشتری
  •   اگر کوچکترین ایرادی در انجام درخواست شما از سوی اساتید متلبی باشد. هزینه ای به استادکار پرداخت نمی شود و به شما برگشت داده می شود
  •   انجام کلیه مراحل سفارش به صورت کاملا غیرحضوری و آنلاین
  •   بهره مندی از تخفیف ویژه توسط کوپن های وفاداری متلبی
  •   تهیه آموزش به درخواست مشتری
  •   امکان تهیه آموزش به دو صورت ویدیو و ورد
  •   بهره گیری از مجریان حرفه ای هر رشته
  •   پرداخت آنلاین با کلیه کارتهای عضو شتاب با درگاه های مستقیم بانکی
  •   انجام پروژه EMTP در کوتاهترین زمان ممکن به همراه خودآموز
  •   دریافت پروژه EMTP از طریق ایمیل
  •   قیمت مناسب
  •   کیفیت عالی انجام پروژه EMTP و فایل آموزشی
  •   دارای قرارداد محکم و متناسب با قواعد روز معاملات و حفظ حقوق مشتری

با توجه به این که برای شروع آموزش شبکه عصبی نیاز به بررسی چندین پروژه آماده در این زمینه می باشد. تیم تخصصی متلبی در زمان های مختلف, اقدام به انتشار پست های آموزشی و کمک آموزشی به همراه پروژه آماده شبکه عصبی می کند. تا با در دسترس قرار گرفتن شبیه سازی آماده بتوانید به راحتی برنامه را تحلیل کنید.

سایت متلبی تمام محصولات خود را با دقت و بوسیله متخصصین حرفه ای در همان زمینه انجام می دهد. چون خدمات سایت متلبی دارای کمترین هزینه و بالاترین کیفیت است, بعد از مدت بیش از 6ماه اقدام به فروش محصولات می کنیم. البته این اقدام کاملا با رضایت درخواست دهنده اولیه است. وجود بانک عظیمی از شبیه سازی مقالات با شبکه عصبی و داشتن فایل کمک آموزشی به همراه آنها برگ مثبتی جهت اطمینان از کیفیت بالا و ارائه خدمات ارزان قیمت از سوی سایت متلبی است.

سفارش دهندگانی که درخواست اختصاصی بودن سفارششان را بدهند بعد از انجام کار بطور کامل پروژه شبکه عصبی مربوطه از سیستم و ایمیل سایت متلبی حذف می شود. ما مقید به حقوق مادی و معنوی و البته اخلاق حرفه ای در کار خودمان هستیم.

جهت دانلود پروژه بصورت آماده به وبلاگ متلبی و دسته آموزش آن سر بزنید. نمونه ای از پروژه های شبکه عصبی به همراه آموزش در سایت متلبی منتشر شده و به مرور نیز این کار را جهت ارائه خدمات آموزشی و کمک آموزشی بهتر انجام خواهیم داد.

قیمت انجام پروژه های ANN بر اساس حجم، سختی کار و زمان درخواستی انجام پروژه تعیین می گردد. سایت متلبی انجام پروژه ها را به خواسته شما به همراه آموزش در قالب ویدیو یا قالب ورد انجام می دهد.

درخواست انجام پروزه برای تمامی نهادها و مصارف صنعتی و پژوهشی بلامانع است و انجام می شود

انواع شبکه‌های عصبی مصنوعی

انواع شبکه را در زیر به صورت مختصر آورده ایم.

شبکه عصبی پرسپترون

«پرسپترون» (Perceptron | P)، ساده‌ترین و قدیمی‌ترین مدل از نورون محسوب می‌شود که تاکنون توسط بشر شناخته شده است. پرسپترون، تعدادی ورودی را دریافت، آن‌ها را تجمیع و تابع فعال‌سازی را روی آن‌ها اعمال می‌کند و در نهایت، آن‌ها را به لایه خروجی پاس می‌دهد. در این قسمت، معجزه اصلی شبکه‌های عصبی مصنوعی به وقوع نمی‌پیوندد. برای مطالعه بیش‌تر پیرامون پرسپترون چند لایه، مطالعه مطلب «پرسپترون چند لایه در پایتون — راهنمای کاربردی» پیشنهاد می‌شود.

شبکه عصبی پیش‌خور

«شبکه‌های عصبی پیش‌خور» (Feed Forward Neural Networks | FF) نیز از اعضای قدیمی خانواده شبکه‌های عصبی محسوب می‌شوند و رویکرد مربوط به آن‌ها از دهه ۵۰ میلادی نشأت می‌گیرد. عملکرد این الگوریتم، به طور کلی از قواعد زیر پیروی می‌کند:

  • همه گره‌ها کاملا متصل هستند.
  • فعال‌سازی از لایه ورودی به خروجی، بدون داشتن حلقه رو به عقب، جریان پیدا می‌کند.
  • یک لایه (لایه پنهان) بین ورودی و خروجی وجود دارد.

در اغلب مواقع، این نوع از شبکه‌های عصبی با استفاده از روش «پس‌انتشار» (Backpropagation) آموزش داده می‌شوند.

شبکه عصبی شعاعی پایه

«شبکه‌های عصبی شعاعی پایه» (Radial Basis Networks | RBF) در واقع شبکه‌های عصبی پیش‌خوری (FF) هستند که از «تابع شعاعی پایه» (Radial Basis Function)، به جای «تابع لجستیک» (Logistic Function)، به عنوان تابع فعال‌سازی استفاده می‌کنند. سوالی که در این وهله مطرح می‌شود این است که تفاوت شبکه عصبی شعاعی پایه با شبکه عصبی پیش‌خور چیست؟ تابع لجستیک برخی از مقادیر دلخواه را به یک بازه ۰ تا ۱ نگاشت می‌کند تا به یک پرسش «بله یا خیر» (پرسش دودویی) پاسخ دهد. این نوع از شبکه‌های عصبی برای «دسته‌بندی» (Classification) و «سیستم‌های تصمیم‌گیری» (Decision Making Systems) مناسب هستند، ولی برای مقادیر پیوسته عملکرد بدی دارند.

این در حالی است که توابع شعاعی پایه به این پرسش پاسخ می‌دهند که «چقدر از هدف دوریم؟» و این امر موجب می‌شود تا این شبکه‌های عصبی برای تخمین تابع و کنترل ماشین (برای مثال، به عنوان جایگزینی برای کنترل کننده PID) مناسب محسوب شوند. به طور خلاصه باید گفت که شبکه‌های عصبی شعاعی پایه در واقع نوعی از شبکه‌های عصبی پیش‌خور با تابع فعال‌سازی و ویژگی‌های متفاوت هستند.

شبکه عصبی پیش‌خور عمیق

«شبکه عصبی پیش‌خور عمیق» (Deep Feed Forward Neural Networks | DFF)، در اوایل دهه ۹۰ میلادی، مقدمه‌ای بر بحث شبکه‌های عصبی شد. این نوع از شبکه‌های عصبی نیز شبکه‌های عصبی پیش‌خور هستند، ولی بیش از یک «لایه پنهان» (Hidden Layer) دارند. سوالی که در این وهله پیش می‌آید آن است که تفاوت این نوع از شبکه‌های عصبی با شبکه‌های عصبی پیش‌خور سنتی در چیست؟

در هنگام آموزش دادن یک شبکه عصبی پیش‌خور، تنها بخش کوچکی از خطا به لایه پیشین پاس داده می‌شود. به همین دلیل، استفاده از لایه‌های بیشتر، منجر به رشد نمایی زمان آموزش می‌شود و همین موضوع، موجب می‌شود که شبکه‌های عصبی پیش‌خور عمیق، عملا بدون کاربرد و غیر عملی باشند. در اوایل سال دو هزار میلادی، رویکردهایی توسعه پیدا کردند که امکان آموزش دادن یک شبکه عصبی پیش‌خور عمیق (DFF) را به صورت موثر فراهم می‌کردند. امروزه، این شبکه‌های عصبی، هسته سیستم‌های یادگیری ماشین مدرن را تشکیل می‌دهند و هدفی مشابه با هدف شبکه‌های عصبی پیش‌خور (FF) را پوشش می‌دهند؛ اما نتایج بهتری را دربردارند.

شبکه‌های عصبی بازگشتی

«شبکه‌های عصبی بازگشتی» (Recurrent Neural Networks | RNN) نوع متفاوتی از سلول‌ها با عنوان «سلول‌های بازگشتی» (Recurrent Cells) را معرفی می‌کنند. اولین شبکه از این نوع، «شبکه جردن» (Jordan Network) است؛ در این نوع از شبکه، هر یک از سلول‌های پنهان، خروجی خود را با تاخیر ثابت – یک یا تعداد بیشتری تکرار- دریافت می‌کنند. صرف نظر از این موضوع، شبکه جردن مشابه با شبکه‌های عصبی پیش‌خور متداول بود.

البته، تغییرات گوناگونی مانند پاس دادن حالت به «گره‌های ورودی» (Input Nodes)، تأخیر متغیرها و دیگر موارد در این نوع از شبکه‌ها اتفاق افتاده، اما ایده اصلی به همان صورت باقی مانده است. این نوع از شبکه‌های عصبی (NN) اساسا هنگامی استفاده می‌شوند که «زمینه» (Context) مهم است و در واقع یعنی هنگامی که تصمیم‌گیری‌ها از تکرارهای قبلی یا نمونه‌ها، می‌تواند نمونه‌های کنونی را تحت تاثیر قرار دهد. به عنوان مثالی متداول از این نوع از زمینه‌ها، می‌توان به «متن» (Text) اشاره کرد. در متن، یک کلمه را می‌توان تنها در زمینه کلمه یا جمله پیشین تحلیل کرد.

حافظه کوتاه مدت بلند

«حافظه کوتاه مدت بلند» (Long/Short Term Memory | LSTM) نوع جدیدی از «سلول حافظه» (Memory Cell) را معرفی می‌کند. این سلول می‌تواند داده‌ها را هنگامی که دارای شکاف زمانی (یا تاخیر زمانی) هستند، پردازش کند. شبکه عصبی پیش‌خور می‌تواند متن را با «به خاطر سپردن» ده کلمه پیشین پردازش کند. این در حالی است که LSTM می‌تواند قاب‌های ویدئو را با «به خاطر سپردن» چیزی که در قاب‌های بسیار پیشین اتفاق افتاده است پردازش کند. شبکه‌های LSTM به طور گسترده‌ای برای «بازشناسی گفتار» (Speech Recognition) و «بازشناسی نوشتار» (Writing Recognition) مورد استفاده قرار می‌گیرند. سلول‌های حافظه اساسا ترکیبی از یک جفت عنصر که به آن‌ها گیت گفته می‌شود هستند. این عنصرها، بازگشتی هستند و چگونگی به یاد آوردن و فراموش کردن اطلاعات را کنترل می‌کنند. ساختار این نوع از شبکه‌ها، در تصویر زیر به خوبی مشخص است. این نکته که هیچ تابع فعال‌سازی بین بلوک‌ها وجود ندارد نیز شایان توجه است.

X‌های موجود در نمودار، گیت‌ها هستند و وزن و گاهی تابع فعال‌سازی خود را دارند. برای هر نمونه، Xها تصمیم می‌گیرند داده‌ها را به جلو پاس دهند یا خیر، حافظه را پاک کنند یا نه و به همین ترتیب. گیت ورودی، تصمیم می‌گیرد که چه میزان اطلاعات از آخرین نمونه در حافظه نگه‌داری می‌شود. گیت خروجی میزان داده‌های پاس داده شده به لایه بعدی را تنظیم می‌کند و گیت فراموشی، نرخ خارج شدن از موارد ذخیره شده در حافظه را کنترل می‌کند. آنچه بیان شد، یک شکل بسیار ساده از سلول‌های LSTM است و معماری‌های متعدد دیگری نیز برای این نوع از شبکه‌های عصبی، موجود است.

شبکه عصبی واحد بازگشتی گِیتی

«واحد بازگشتی گیتی» (Gated Recurrent Unit | GRU) نوعی از LSTM با گیت‌ها و دوره زمانی متفاوت است. این نوع از شبکه عصبی ساده به نظر می‌آید. در حقیقت، فقدان گیت خروجی، تکرار چندین باره یک خروجی مشابه را برای ورودی‌ها ساده‌تر می‌سازد. این نوع از شبکه‌های عصبی بازگشتی در حال حاضر بیشتر در «موتور متن به گفتار» (Speech Synthesis) و «ترکیب صدا» (Music Synthesis) به کار می‌رود. البته، ترکیب واقعی LSTM با GRU اندکی متفاوت است. زیرا، همه گیت‌های LSTM در یک گیت که به آن گیت به روز رسانی گفته می‌شود ترکیب شده‌اند و گیت «بازشناسی» (Reset) از نزدیک به ورودی گره خورده است. GRU‌ها نسبت به LSTM‌ها کمتر از منابع استفاده می‌کنند و اثر مشابهی را دارند.

شبکه عصبی خود رمزگذار

شبکه‌های عصبی «خود رمزگذار» (Auto Encoder | AE) برای دسته‌بندی، «خوشه‌بندی» (Clustering) و «فشرده‌سازی ویژگی‌ها» (Feature Compression) استفاده می‌شوند. هنگامی که یک شبکه عصبی پیش‌خور برای دسته‌بندی آموزش داده می‌شود، باید نمونه‌های X در Y دسته به عنوان خوراک داده شوند و انتظار می‌رود یکی از سلول‌های Y فعال‌سازی شده باشد. به این مورد، «یادگیری نظارت شده» (Supervised Learning) گفته می‌شود. از سوی دیگر، شبکه‌های عصبی خود رمزگذار را می‌توان بدون نظارت، آموزش داد. با توجه به ساختار این شبکه‌ها (که در آن تعداد لایه‌های پنهان کوچک‌تر از تعداد سلول‌های ورودی است و تعداد سلول‌های خروجی برابر با سلول‌های ورودی است) و اینکه AE به نوعی آموزش داده می‌شود که خروجی تا حد امکان به ورودی نزدیک باشد، شبکه عصبی خود رمزگذار مجبور می‌شود داده‌ها را تعمیم دهد و به دنبال الگوهای متداول بگردد.

شبکه عصبی خود رمزگذار متغیر

«شبکه عصبی خود رمزگذار متغیر» (Variational Auto Encoder | VAE) در مقایسه با شبکه عصبی خود رمزگذار، احتمالات را به جای ویژگی‌ها فشرده می‌کند. علارغم تغییرات کوچک که بین دو شبکه عصبی مذکور اتفاق افتاده است، هر یک از این انواع شبکه های عصبی مصنوعی به پرسش متفاوتی پاسخ می‌دهند. شبکه عصبی خودرمزگذار به پرسش «چگونه می‌توان داده‌ها را تعمیم داد؟» پاسخ می‌دهد، در حالی که شبکه عصبی خود رمزگذار متغیر به پرسش «اتصال بین دو رویداد چقدر قوی است؟ آیا باید خطا را بین دو رویداد توزیع کرد یا آن‌ها به طور کامل مستقل هستند؟» پاسخ می‌دهد.

شبکه عصبی خود رمزگذار دینوزینگ

با وجود جالب بودن شبکه‌های خود رمزگذار، اما این شبکه‌های عصبی گاهی به جای پیدا کردن مستحکم‌ترین ویژگی، فقط با داده‌های ورودی سازگار می‌شوند (این مورد مثالی از بیش‌برازش یا همان Overfitting است). شبکه عصبی «خود رمزگذار دینوزینگ» (Denoising AutoEncoder | DAE) اندکی نویز به سلول ورودی اضافه می‌کنند. با این کار، شبکه عصبی خود رمزگذار دینوزینگ، مجبور می‌شود که خروجی را از یک ورودی نویزی، مجددا بسازد و آن را عمومی‌تر کند و ویژگی‌های متداول بیشتری را انتخاب کند.

شبکه عصبی خود رمزگذار اسپارس

شبکه عصبی «خود رمزگذار اسپارس» (Sparse AutoEncoder | SAE) نیز یک نوع دیگر از شبکه‌های عصبی مصنوعی خود رمزگذار است که در برخی موارد، می‌تواند برخی از الگوهای گروهی پنهان موجود در داده‌ها را آشکار کند. ساختار شبکه عصبی خود رمزگذار اسپارس نیز مشابه با AE است، در این نوع از شبکه‌های عصبی، تعداد لایه پنهان، بیشتر از تعداد سلول لایه ورودی/خروجی است.

زنجیره مارکوف

«زنجیره‌های مارکو» (Markov Chains) مفهومی بسیار قدیمی از گراف‌ها هستند که در آن‌ها، هر یالی یک احتمال دارد. در زمان‌های قدیم، از زنجیره‌های مارکوف برای ساخت متن استفاده می‌شد؛ برای مثال، بعد از کلمه Hello، با احتمال %0/0053 کلمه Dear و با احتمال %0.03551 کلمه You می‌آید (در فناوری پیش‌بینی متن T9 که در موبایل‌ها وجود دارد، از زنجیره‌های مارکوف استفاده می‌شود). زنجیره‌های مارکوف، شبکه‌های عصبی به شیوه کلاسیک نیستند و می‌توانند برای دسته‌بندی بر پایه احتمالات (مانند فیلترهای بیزی)، برای خوشه‌بندی (برخی از انواع) و «ماشین حالت متناهی» (Finite State Machine) استفاده شوند.

شبکه عصبی هاپفیلد

«شبکه‌های هاپفیلد» (Hopfield Networks | HN) روی مجموعه محدودی از نمونه‌ها آموزش دیده‌اند و بنابراین، به یک نمونه شناخته شده با نمونه مشابهی پاسخ می‌دهند. پیش از آموزش، هر سلول به عنوان یک سلول ورودی، در طول آموزش به عنوان یک سلول پنهان و در هنگام استفاده، به عنوان یک سلول خروجی کار می‌کند. یک شبکه هاپفیلد در تلاش است تا نمونه‌های آموزش دیده‌ای را بسازد، این شبکه‌ها برای دینوزینگ و بازگردانی ورودی‌ها مورد استفاده قرار می‌گیرند. در صورتی که به این شبکه‌ها نیمی از یک تصویر یا توالی یاد گرفته شده ارائه شود، نمونه کامل  را بازمی‌گردانند.

ماشین بولتزمن

«ماشین‌های بولتزمن» (Boltzmann Machines | BM) از این جهت که برخی از سلول‌ها به عنوان ورودی علامت‌گذاری می‌شوند و پنهان باقی می‌مانند، شباهت بسیاری زیادی به شبکه‌های هاپفیلد دارند. سلول‌های ورودی به محض اینکه سلول‌های پنهان حالت خود را به روز رسانی می‌کنند، به سلول‌های خروجی مبدل می‌شوند (در طول آموزش، ماشین بولتزمن/شبکه هاپفیلد، سلول‌ها را یکی یکی به روز رسانی می‌کند و این کار به صورت موازی انجام نمی‌شود).

ماشین بولتزمن محدود

«ماشین بولتزمن محدود» (Restricted Boltzmann Machine) در ساختار شبیه به BM است. اما به دلیل محدود بودن، فقط امکان آموزش دادن آن با استفاده از پس‌انتشار، صرفا به عنوان پیش‌خور وجود دارد (تنها با این تفاوت که داده‌های پاس داده شده پس‌انتشار، یک‌بار به لایه ورودی برگشت داده می‌شوند).

شبکه باور عمیق

«شبکه باور عمیق» (Deep Belief Network | DBN) که در تصویر بالا قابل مشاهده است، در واقع پشته‌ای از ماشین‌های بولتزمن است (با خودرمزگذار متغیر احاطه شده است). آن‌ها را می‌توان به صورت زنجیره‌ای با یکدیگر قرار داد (هنگامی که یک شبکه عصبی دیگری را آموزش می‌دهد) و برای تولید داده‌ها با یک الگوی یاد گرفته شده، قابل استفاده است.

شبکه پیچشی عمیق

«شبکه پیچشی عمیق» (Deep Convolutional Network | DCN) در حال حاضر، ستاره شبکه‌های عصبی است. این نوع از شبکه‌های عصبی، دارای سلول‌های پیچشی (یا لایه‌های پولینگ) و کرنل‌هایی هستند که هر یک، به هدف متفاوتی خدمت‌دهی می‌کند. کرنل‌های پیچشی در واقع داده‌های ورودی را پردازش می‌کنند و لایه‌های پولینگ (گردآوری) این کار را با کاهش ویژگی‌های غیر لازم، ساده‌تر می‌کنند (معمولا با استفاده از توابع غیر خطی مانند Max).شبکه‌های عصبی پیچشی عمیق معمولا برای «بازشناسی تصویر» (Image Recognition) مورد استفاده قرار می‌گیرند؛ این شبکه‌ها، روی یک زیرمجموعه از تصاویر (چیزی در حدود 20×20) عمل می‌کنند. پنجره ورودی، روی کل تصویر به صورت کرکره‌ای، پیکسل به پیکسل، عبور می‌کند. داده‌ها به لایه‌های پیچشی پاس داده می‌شوند و این امر موجب می‌شود که یک قیف شکل بگیرد (فشرده‌سازی ویژگی‌های ورودی). در حوزه بازشناسی تصویر، اولین لایه گرادیان، دومین لایه خطوط و سومین لایه شکل را شناسایی می‌کند و این روال به همین ترتیب در مقیاس یک شی مشخص ادامه خواهد داشت. DFF معمولا به لایه پیچشی نهایی پیوست می‌شود تا پیش‌پردازش‌های داده آتی انجام شود.

شبکه دکانولوشنی

«شبکه دکانولوشنی» (Deconvolution Network | DN)، معکوس DCN است. شبکه دکانولوشنی تصویر گربه را دریافت و برداری مانند {dog : 0,lizard : 0,horse :0, cat :1} می‌سازد. شبکه پیچشی عمیق می‌تواند این بردار را دریافت کند و بر اساس آن، تصویر یک گربه را بکشد.

شبکه گرافیکی معکوس پیچشی عمیق

«شبکه گرافیکی معکوس پیچشی عمیق» (Deep Convolutional Inverse Graphics Network | DCIGN) که در تصویر بالا نمایش داده شده، به گونه‌ای است که به نظر می‌رسد DCN و DN به یکدیگر چسبانده شده‌اند؛ اما این درست نیست. در واقع، DCIGN یک خود رمزگذار است. DCN و DN به عنوان شبکه‌های مجزا عمل نمی‌کنند، در عوض، آن‌ها فاصله‌گذارهایی برای ورودی و خروجی شبکه هستند. این نوع از شبکه‌ها که بیشتر برای پردازش تصویر مورد استفاده قرار می‌گیرند، می‌توانند تصاویری را پردازش کنند که پیش از این، با آن‌ها آموزش ندیده باشند. DCIGN‌ها به دلیل سطوح انتزاعی که دارند، می‌توانند شی خاصی را از تصویر حذف کنند، آن را از نو بکشند و یا مثلا، اسب‌ها را با گوره‌خرها جایگزین کنند (مانند کاری که با CycleGAN در یک پژوهشی انجام شده است).

شبکه مولد تخاصمی

«شبکه‌های مولد تخاصمی» (Generative Adversarial Networks) خانواده بزرگی از شبکه‌های دوتایی هستند که از «مولد» (Generator) و «متمایزگر» (Discriminator) ساخته شده‌اند. این نوع از شبکه‌های عصبیِ دائما در حال تحول، در شرایطی که بتوان توازن آموزش را بین این دو شبکه (در دوتایی) حفظ کرد، می‌توانند تصاویر واقعی تولید کنند.

ماشین حالت سیال

«ماشین حالت سیال» (Liquid State Machine | LSM) یک شبکه عصبی اسپارس (کاملا متصل نیست) است که در آن، توابع فعال‌سازی با سطح آستانه جایگزین شده‌اند. سلول، مقادیر را از نمونه‌های ترتیبی تجمیع می‌کند و خروجی را تنها هنگامی می‌دهد که به آستانه رسیده باشد؛ سپس، شمارنده خارجی را مجددا روی صفر قرار می‌دهد. چنین ایده‌ای، از مغز انسان الهام گرفته شده است و این شبکه‌ها به طور گسترده‌ای در «بینایی کامپیوتری» (Computer Vision) و سیستم‌های بازشناسی گفتار مورد استفاده قرار می‌گیرند؛ اما پیشرفت‌های اساسی نداشته‌اند.

ماشین یادگیری حداکثری

«ماشین یادگیری حداکثری» (Extreme Learning Machine | ELM) تلاشی برای کاهش پیچیدگی نهفته در پس شبکه‌های عصبی پیش‌خور است. این کار با ساخت لایه‌های پنهان اسپارس با اتصالات تصادفی، انجام می‌شود. این نوع از شبکه‌های عصبی به قدرت محاسباتی کم‌تری نیاز دارند، اما کارایی واقعی آن‌ها به شدت بستگی به وظیفه قابل انجام و داده‌ها دارد.

شبکه حالت پژواک

«شبکه حالت پژواک» (Echo State Network | ESN)، زیرنوعی از شبکه‌های عصبی بازگشتی با رویکرد آموزشی ویژه‌ای است. داده‌ها به ورودی و سپس، در صورتی که برای تکرارهای چندگانه مورد نظارت باشند، به خروجی پاس داده می‌شود (بدین شکل، این امکان فراهم می‌شود که ویژگی‌های بازگشتی دخیل شوند). پس از انجام این کار، فقط وزن‌های بین سلول‌های پنهان به روز رسانی می‌شود. البته، این نوع از شبکه‌های عصبی کاربردهای قابل توجهی ندارند.

شبکه باقیمانده عمیق

«شبکه باقیمانده عمیق» (Deep Residual Network | DRN) یک شبکه عمیق است که در آن، بخشی از داده‌های ورودی به لایه‌های بعدی پاس داده می‌شوند. این ویژگی، به این شبکه‌ها این امکان را می‌دهد که حقیقتا عمیق باشند (تا ۳۰۰ لایه)، اما در واقع، نوعی از شبکه‌های پیچشی عمیق بدون تاخیر صریح هستند.

شبکه عصبی کوهنن

«شبکه عصبی کوهنن» (Kohonen Network | KN)، ویژگی فاصله تا سلول را معرفی می‌کند. این نوع از شبکه‌های عصبی برای دسته‌بندی استفاده می‌شوند و تلاش می‌کنند تا سلول‌های خود را برای بیشینه واکنش به یک ورودی خاص آماده کنند. هنگامی که برخی از سلول‌ها به روز رسانی می‌شوند، نزدیک‌ترین همسایه‌های آن‌ها نیز به همین ترتیب به روز رسانی می‌شوند. همچون «ماشین بردار پشتیبان» (Support Vector Machine)، این نوع از شبکه‌ها نیز معمولا همیشه به عنوان شبکه‌های عصبی «واقعی» به حساب نمی‌آیند.

ماشین بردار پشتیبان

«ماشین بردار پشتیبان» (Support Vector Machine | SVM) برای وظیفه «دسته‌بندی دودویی» (Binary Classification) قابل استفاده است. اهمیتی ندارد که چند بُعد – یا ورودی – در شبکه پردازش شود، ورودی همیشه «بله» یا «خیر» است. ماشین‌های بردار پشتیبان، در اغلب مواقع به عنوان شبکه‌های عصبی در نظر گرفته نمی‌شوند.

ماشین تورینگ عصبی

شبکه‌های عصبی به نوعی مانند جعبه سیاه هستند. این شبکه‌ها را می‌توان آموزش داد، نتایج آن‌ها را دریافت کرد، آن‌ها را بهبود بخشید؛ ولی مسیر تصمیم‌گیری آن‌ها در اغلب مواقع از چشم انسان پنهان است. «ماشین تورینگ عصبی» (Neural Turing Machine | NTM)، تلاشی برای حل این مشکل است. این نوع از شبکه عصبی، در واقع یک شبکه عصبی پیش‌خور (FF) با سلول‌های حافظه استخراج شده است. برخی از پژوهشگران نیز بر این باورند که ماشین عصبی تورینگ، نوعی از  انتزاع بر فراز LSTM است. در این نوع از شبکه‌های عصبی، حافظه به وسیله محتوای آن ارجاع داده می‌شود و شبکه می‌تواند بسته به حالت کنونی، از حافظه بخواند و در آن بنویسند.

سایت متلبی به صورت تخصصی پروژه های شبکه عصبی را انجام میدهد. در زیر میتوان به صورت کلیدی به آنها اشاره کرد:

  • شبکه های عصبی پرسپترون چند لایه MLP (Multi Layer Perceptron)
  • پیش بینی سری زمانی و بازشناسی الگو با شبکه عصبی
  • شبکه های عصبی شعاعی پایه (Radial Basis Function) یا RBF در متلب
  • ماشین های بردار پشتیبان (Support Vector Machine) یا SVM در متلب
  • شبکه های عصبی رقابتی و نگاشت خود سازمان ده (Self – Organization Map) یا SOM
  • تحلیل مولفه اساسی (Principal Component Analysis) یا PCA
  • شبکه های عصبی هاپفیلد (Hopfield Neural Network)
  • شبکه عصبی GMDH در متلب (Group Method of Data Handling)
  • شبکه عصبی گازی یا شبکه گاز عصبی (Neural Gas Network)
  • شبکه عصبی Learning Vector Quantization (LVQ)

ثبت سفارش انجام پروژه EMTP

لطفا از طریق دکمه روبرو پروژه شبکه عصبی خود را ثبت کنید.

متلب

سالیدورک

گمز

آباکوس

EMTP