• انجام پرو‍ژه‌های دانشجویی مهندسی برق و کامپیوتر

    ترجمه متون تخصصی

    ADS, C++, CircuitMaker, CodeVisionAVR, EWB, LabVIEW, MATLAB, MAX+PLUS II, ModelSim, OrCAD, Protel DXP, Proteus, SIMULINK, VHDL, Neural Networks, Fuzzy Logic, Signal Processing, Image Processing,...

     

    پرو‍ژه‌های آماده       سفارش پروژه و ترجمه

  • تدریس خصوصی نرم‌افزار مهندسی برق و کامپیوتر

     

    ADS, C++, CircuitMaker, CodeVisionAVR, EWB, LabVIEW, MATLAB, MAX+PLUS II, ModelSim, OrCAD, Protel DXP, Proteus, SIMULINK, VHDL, Neural Networks, Fuzzy Logic, Signal Processing, Image Processing,...

     

    سفارش تدریس

  • دعوت به همکاری در انجام پروژه

     

    VHDL, C++, Cisco Packet Tracer, GNS3, Visual Basic, C#.Net, ASP.Net, Assembly, VB.Net, Delphi

     

    همکاری با ما

آموزش سيمولينك (قسمت پنجم)

در ادامه ی آموزش Simulink ، مثالی رو مطرح می کنم که بیشتر با دقایق و ظرایف این نرم افزار آشنا شوید. فرض کنید سیستمی کنترلی دارید که تابع تبدیل آن در دسترس نیست و می خواهید مقدار ثابت زمانی این سیستم را بدست آورید. برای این منظور به ورودی سیستم، پله داده و ثابت زمانی را از روی خروجی سیستم اندازه می گیریم.

حال پنجره ای جدید باز کرده و بلوک های زیر را وارد آن کنید:

Simulink >> Sources >> Step

Simulink >> Sources >> Clock

Simulink >> Sinks >> Stop Simulation

Simulink >> Sinks >> Scope

Simulink >> Continuous >> Transfer Fcn

Simulink >> Sources >> Constant

Simulink >> Sinks >> Display

Simulink >> Logic and Bit Operations >> Relational Operator

حال بلوک ها را مانند شکل زیر مرتب کرده و سیم کشی کنید:

آموزش سیمولینک (قسمت چهارم)

در اين قسمت از آموزش سيمولينك، ابتدا با نحوه ي درون يابي و برون يابي(Interpolation-Extrapolation) در محيط Simulink آشنا مي شويم. فرض كنيد در آزمايشگاه، سيستمي(سيستمي الكتريكي، مكانيكي و يا هر سيستم ديگري) با يك ورودي را مورد آزمايش قرار داده ايد و با دادن ورودي هاي مختلف، خروجي هاي متناظر را بدست آورده ايد بصورت زير:

[X = [1 , 1.5 , 1.8 , 2.2 , 2.7 , 3.3 , 3.9

[y = [ 2.434 , 2.667 , 2.738 , 2.956 , 2.904 , 2.819 , 2.708

حال مي خواهيد منحني تغييرات اين سيستم را به ازاي بازه اي پيوسته از ورودي، با كمك درون يابي و برون يابي بدست آوريد. بصورت زير عمل كنيد:

آموزش سیمولینک (قسمت سوم)

 قسمت سوم آموزش رو با مثالي از اعداد مختلط شروع مي كنيم مي خواهيم سيستمي طراحي كنيم كه دو عدد مختلط را گرفته و چهار عمل اصلي رياضي(جمع، تفريق، ضرب، تقسيم) را روي آن دو انجام دهد و همچنين قسمت حقيقي، قسمت موهومي، اندازه، فاز و مزدوج يكي از آن دو عدد را محاسبه كند توجه داشته باشيد كه هدف از اين مثال يادگيري كار با اعداد مختلط و نحوه ايجاد زير سيستم است.

 

آموزش سیمولینک (قسمت دوم)

در قسمت اول آموزش با يك مثال بسيار ساده نحوه ايجاد مدل، آوردن قطعات از كتابخانه، اتصال قطعات به يكديگر و در نهايت شبيه سازي مدل مورد نظر بيان شد. اكنون در قسمت دوم با ذكر چند مثال كاربردي، آموزش Simulink رو ادامه مي دهيم. در اين قسمت فرض برآن است كه دوستان يا قسمت اول آموزش را خوانده اند و يا اينكه اطلاعات اوليه را دارند پس از ذكر جزئيات صرفه مي كنيم.

مثال اول را مي خواهيم با رسم نمودار يك تابع آغاز كنيم ضابطه اين تابع به صورت زير است:

 

 

مقدمه ای بر شبکه های عصبی مصنوعی (قسمت دوازده)

کاربرد شبکه های عصبی در تقريب توابع

تقريب توابع، يکی از مهمترين کاربردهای شبکه های عصبی است. سيستمی را در نظر بگيريد، که می خواهيم نگاشت خاصی بين ورودی و خروجی آن صورت پذيرد. مثلا می خواهيم با دادن يک ورودی به سيستم، خروجی مورد نظر بدست آيد. به عبارتی ديگر هدف اين است که نگاشت مناسبی که خروجی سيستم را به ورودی های کنترلی سيستم ارتباط می دهد، ياد گرفته شود (تقريب زده شود). يا مثلا در فيلترهای تطبيقی هدف اين است که تابعی را که مقادير تاخيری سيگنال ورودی را به يک سيگنال خروجی مناسب نگاشت می دهد، محاسبه کنيم. در تمامی اين موارد و موارد مشابه ديگر، می توانيم از شبکه های عصبی به عنوان يکی از ابزارهای قدرتمند، در تقريب توابع مختلف استفاده کنيم.

در حقيقت نشان داده شده است که شبکه های MLP با يک لايه مخفی، با توابع تبديل سيگموئيدی در لايه ميانی و توابع تبديل خطی در لايه خروجی قادر به تقريب تمامی توابع مورد نظر، با هر درجه تقريب خواهند بود، مشروط بر اينکه به اندازه کافی نرون در لايه مخفی داشته باشيم. اين موضوع نخستين بار توسط Hecht Nielson (1987) و سپس توسط افرادی چون Cybenco (1987) و Hornik (1989) و ديگران مورد اثبات قرار گرفت. آنها قضيه ای را موسوم به تقريب ساز جهانی ثابت کردند. اگر چه اين قضيه از حيث تئوری خيلی مهم است، ولی فقط اثبات وجوبی شبکه های MLP را با يک لايه مخفی، جهت حل طبقه وسيعی از مسائل طبقه بندی و يادگيری توابع ارائه می دهد. به عبارتی روشن تر اين قضيه می گويد اگر نگاشتی موجود باشد، می توان شبکه MLP با يک لايه مخفی پيدا کرد که چنين نگاشتی را تقريب بزند. اما اين قضيه چيزی در مورد نحوه ساختن چنين شبکه ای نمی گويد و بايستی متذکر شد که محدوديت های عملی هم موجود می باشد؛ يکی اينکه توابع مورد تقريب، بطور قطعه ای پيوسته باشند. و ديگر اينکه تعداد نرون های لايه ميانی، نمی توانند نامحدود انتخاب شوند.

يک شبکه عصبی MLP را با الگوريتم BP ، می توان به عنوان يک ماشين در نظر گرفت که در طبيعت کلی خود، نگاشت غير خطی را بين ورودی ها و خروجی ها ايجاد می کند. بنابراين يکی از بهترين گزينه های موجود از بين شبکه های عصبی برای تقريب توابع، MLP می باشد.

 

تابعی که اغلب بطور موفقيت آميزی در پرسپترون های چند لايه از آن استفاده می شود، تابع سيگموئيد است. که در شکل زیر نشان داده شده است.