مشتق‌گیری و بهینه‌یابی در پایتون

779
10 ساعت

مشتق‌گیری یکی از مفاهیم پایه ریاضیات است که در بسیاری از حوزه‌های ریاضیات، علوم ریاضی و مهندسی مورد استفاده قرار می‌گیرد. مشتق‌گیری به معنی محاسبه نرخ تغییر یک تابع در یک نقطه خاص است. این نرخ تغییر با مشتق یا تغییرات کوچک تابع در آن نقطه محاسبه می‌شود


مشتق‌گیری را می‌توان برای بهینه‌سازی پارامترهای مدل و یافتن بهترین راه‌حل برای یک مسئله، به کار برد. به همین دلیل، مشتق‌گیری از مهم‌ترین ابزارها و تکنیک‌هایی است که در بسیاری از الگوریتم‌ها و روش‌های یادگیری ماشین همچون رگرسیون، روش‌های دسته‌بندی، شبکه‌های عصبی، و ... به‌کار می‌رود و نقش مهمی ایفا می‌کند.

از مهم‌ترین الگوریتم‌های بهینه‌سازی می‌توان به الگوریتم گرادیان کاهشی (Gradient Descent) اشاره نمود که پایه و أساس آن مشتق‌گیری است. گرادیان کاهشی یک الگوریتم بهینه‌سازی است که برای پیدا کردن بهترین پارامترهای مدل در یادگیری ماشین استفاده می‌شود. در این الگوریتم، با استفاده از مشتقات جزئی تابع هزینه نسبت به پارامترهای مدل، یک مقدار برای هر پارامتر محاسبه می‌شود که با تغییر آن، تابع هزینه را به حداقل می‌رساند. با توجه به سادگی و کارایی الگوریتم گرادیان کاهشی، این الگوریتم به عنوان یکی از روش‌های محبوب برای بهینه‌سازی مدل‌های یادگیری ماشین مطرح شده است.

اهداف

فهرست:

15 درس10h

مقدمه

اهمیت مشتق‌گیری و بهینه‌یابی در علوم داده

مشتق‌گیری

مشتق‌گیری توابع چند متغیره

بهینه‌یابی

خانم حمیده حسین زاده فارغ التحصیل پست دکترا دیتاساینس در دانشگاه شهید بهشتی است. او سابقا پژوهشگر بهینه سازی ترکیبی در دانشگاه واترلو کانادا بوده و اکنون به عنوان دیتاساینتیست ارشد مشغول به کار است. وی چندین مقاله معتبر هم در زمینه علوم داده نگاشته است.

4.38 (8 نظر)

4 دوره ها

1754 دانشجو

نظرات

4.0

جمعاً 4 نظر

5
3 نظر
4
0 نظر
3
0 نظر
2
0 نظر
1
1 نظر

مطالب عالی و کافی بودن

عالی بود خانم دکتر.

بسیار عالی بود.

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors