رگرسیون لجستیک (Logistic Regression) یکی از الگوریتم‌های یادگیری ماشین است. این الگوریتم برای مسائل طبقه‌بندی (Classification) استفاده می‌شود که در آن متغیر وابسته‌ی گسسته (Categorical) مطرح می‌شود.

قبل از بررسی رگرسیون لجستیک، بهتر است کمی با یادگیری ماشین و طبقه‌بندی آشنا شویم.

یادگیری ماشین چیست؟

یادگیری ماشین زیرمجموعه‌ای از هوش مصنوعی است که شامل توسعه الگوریتم‌ها و مدل‌هایی است که رایانه‌ها را قادر می‌سازد از داده‌ها بدون برنامه‌ریزی صریح یاد بگیرند. الگوریتم‌های یادگیری ماشین برای تشخیص الگوها و روابط درون داده‌ها و استفاده از این الگوها برای پیش‌بینی یا تصمیم‌گیری درباره داده‌های جدید طراحی شده‌اند. یادگیری ماشین در سال‌های اخیر به دلیل در دسترس بودن حجم زیادی از داده‌ها و توسعه منابع محاسباتی قدرتمندتر به طور فزاینده‌ای محبوب شده است.

انواع مختلفی از الگوریتم‌های یادگیری ماشین وجود دارد، از جمله یادگیری تحت نظارت، یادگیری بدون نظارت و یادگیری تقویتی. یادگیری تحت نظارت شامل استفاده از داده‌های برچسب دار برای آموزش مدل است، در حالی که یادگیری بدون نظارت شامل یافتن الگوها در داده‌های بدون برچسب است. یادگیری تقویتی شامل استفاده از یک سیستم پاداش برای تشویق مدل به یادگیری از تجربیاتش است. یادگیری ماشین طیف گسترده‌ای از کاربردها، از تشخیص تصویر و گفتار گرفته تا تشخیص تقلب را دارد و به طور فزاینده‌ای در صنایعی مانند مراقبت‌های بهداشتی، مالی و حمل‌ونقل استفاده می‌شود.

طبقه‌بندی یا Classification چیست؟

طبقه‌بندی (Classification) نوعی یادگیری تحت نظارت در یادگیری ماشین است که شامل پیش‌بینی یک متغیر خروجی بر اساس متغیرهای ورودی است. در طبقه‌بندی، یک مدل بر روی یک مجموعه داده برچسب دار با مقادیر خروجی شناخته شده آموزش داده می‌شود و هدف استفاده از این مدل برای پیش‌بینی دقیق مقدار خروجی داده‌های ورودی جدید است.

داده‌های ورودی مورد استفاده برای آموزش مدل طبقه‌بندی معمولاً شامل ویژگی‌هایی هستند که با پیش‌بینی متغیر خروجی مرتبط هستند. به عنوان مثال، در یک سیستم تشخیص ایمیل اسپم، ویژگی‌ها ممکن است شامل موضوع، آدرس فرستنده و محتوای ایمیل باشد. متغیر خروجی در این مورد یک طبقه بندی باینری است که نشان می‌دهد ایمیل اسپم است یا خیر.

انواع مختلفی از مدل‌های طبقه بندی وجود دارد که می‌توانند در یادگیری ماشین استفاده شوند، از جمله رگرسیون لجستیک، درخت تصمیم، جنگل‌های تصادفی، ماشین بردار پشتیبان و شبکه‌های عصبی. انتخاب مدل به مشکل خاصی که قرار است حل شود و ویژگی‌های داده‌ها بستگی دارد.

طبقه‌بندی کاربردهای گسترده‌ای در زمینه‌های مختلف دارد، از جمله پردازش زبان طبیعی، تشخیص تصویر، تشخیص تقلب و تشخیص پزشکی. طبقه‌بندی یک تکنیک مهم و قدرتمند در یادگیری ماشین است که می‌تواند به خودکارسازی تصمیم‌گیری و بهبود کارایی و دقت بسیاری از فرآیندها کمک کند.

رگرسیون لجستیک (Logistic Regression) چیست؟

رگرسیون لجستیک یکی از الگوریتم‌های طبقه‌بندی (Classification) است که برای اختصاص داده‌ها به مجموعه‌ای از کلاس‌ها استفاده می‌شود. برخی از نمونه‌های مسائل طبقه‌بندی عبارت‌اند از: طبقه‌بندی ایمیل‌ها به دو دسته‌ی ایمیل‌های اسپم (Spam) یا غیراسپم (Not Spam) یا طبقه‌بندی معاملات آنلاین به دو دسته‌ی کلاهبرداری یا غیرکلاهبرداری یا طبقه‌بندی تومورهای بدخیم یا خوش‌خیم.

همان‌طور که تا الان متوجه شدیم، به‌طور کلی در رگرسیون لجستیک خروجی به‌شکل صفر یا ۱ است؛ یعنی برای مثال، یا تورمور بدخیم است (1) یا خوش خیم (0).

زمانی‌که تعداد کلاس‌های خروجی 2 باشد، به آن طبقه‌بندی باینری (Binary Classification) گفته می‌شود؛ البته تعداد کلاس‌های خروجی می‌تواند بیشتر هم باشد که در این صورت به آن طبقه‌بندی مالتی (Multi Classification) گفته می‌شود.

تا اینجا فهمیدیم که در رگرسیون لجستیک هدف در خروجی اختصاص داده‌ها به یکی از دو کلاس صفر یا ۱ است. درواقع در این تکنیک احتمال این را که داده به کدام کلاس متعلق است در خروجی خواهیم داشت. از آنجا که درباره‌ی احتمال صحبت می‌کنیم، پس قطعاً می‌دانیم خروجی ما باید بین صفر و ۱ باشد. حال لازم است ببینیم در اینجا ما به چه تابعی احتیاج داریم که بتواند داده‌ها را به‌خوبی نمایش دهد و در کلاس درستی طبقه‌بندی کند.

چرا رگرسیون خطی نه؟

فرض کنید ما مجموعه‌داده‌ای داریم که اندازه‌ی تومورها و این امر را که آیا بدخیم هستند یا نه نشان می‌دهد. اگر این داده‌ها را روی نمودار ببریم، از آنجا که مسئله طبقه‌بندی است، تمامی داده‌ها یا صفر هستند یا یک.

نمودار رگرسیون خطی برای تومور خوش‌خیم و بدخیم

حال اگر از رگرسیون خطی استفاده کنیم، چنین خطی را که در نمودار بالا مشاهده می‌کنیم به ما می‌دهد. در اینجا می‌توانیم با تعیین یک آستانه (Threshold) در محور x، داده‌ها را طوری تقسیم کنیم که همه‌ی داده‌های موجود در سمت راست آستانه‌ی بدخیم (متعلق به کلاس ۱ یا همان مثبت) و در سمت چپ آن همه‌ی داده‌های موجود خوش‌خیم (متعلق به کلاس صفر یا همان منفی) هستند. در اینجا این آستانه ۰.۵ است.

عملکرد رگرسیون خطی برای تومور خوش‌خیم و بدخیم

خب، تا اینجای کار رگرسیون خطی خوب جواب داده است و شاید فکر کنیم که اصلاً به رگرسیون لجستیک نیازی نداریم، اما این‌طور نیست.

بیایید در نظر بگیریم یک داده‌ی پرت (Outlier) به این داده‌ها اضافه شود؛ در این صورت خطی که رگرسیون خطی به ما می‌دهد به‌این شکل خواهد بود:

اضافه‌شدن داده‌ی پرت به رگرسیون خطی

در اینجا اگر بازه‌ی ۰.۵ را بار دیگر بررسی کنیم، می‌بینیم که داده‌ها به‌درستی تقسیم نمی‌شوند؛ خیلی از کلاس‌های مثبت را به‌اشتباه در دسته‌ی کلاس‌های منفی قرار می‌دهد. درواقع باید بگوییم بار اول رگرسیون خطی به‌صورت اتفاقی داده‌ها را به درستی تقسیم کرد؛ پس به‌همین دلیل، ما به رگرسیون لجستیک نیاز داریم.

اگر می‌خواهید درباره‌ی رگرسیون خطی بیشتر بدانید، این مطلب را حتماً مطالعه کنید:

با رگرسیون خطی (Linear Regression) آشنا شوید!

چرا به رگرسیون لجستیک (Logistic Regression) نیاز داریم؟

همان‌طور که می‌دانیم، در رگرسیون خطی ما باید به بهترین معادله‌ی خطی می‌رسیدیم تا داده‌ها را به‌درستی نمایش دهد. این را در نظر بگیریم که در رگرسیون خطی معادله‌ی خطی می‌تواند هر مقداری داشته باشد، درحالی‌که در طبقه‌بندی و رگرسیون لجستیک (Logistic Regression) مقادیری که در خروجی داریم احتمال تعلق داده به یکی از دو کلاس صفر یا ۱ است؛ بنابراین مقادیر باید میان صفر و ۱ باشد که این موضوع با معادله خطی امکان‌پذیر نیست.

پس ما به معادله‌ی دیگری احتیاج داریم که آن تابع سیگموید یا همان لجستیک (Sigmoid/ Logistic Function) است.

تابع سیگموید به‌این شکل است:‌

تابع زیگموند

معادله‌ی خطی‌مان در رگرسیون خطی به‌این شکل بود:‌

Z = β₀ + β₁X

در رگسیون لجستیک معادله‌ی ما به‌این شکل خواهد بود:

معادله در رگرسیون لجستیک

یعنی همان سیگموید معادله‌ی خطی خواهد بود که در رگرسیون خطی داشتیم.

قبل از اینکه ببینیم چطور پارامترهای این معادله را بهینه می‌کنیم، بیایید درباره‌ی مرز تصمیم‌گیری (Decision Boundary) صحبت کنیم.

مرز تصمیم‌گیری (Decision Boundary)

هنگامی‌که ورودی‌ها را از یک تابع پیش‌بینی عبور دهیم و در خروجی احتمالی میان صفر تا یک را داریم، هم‌چنین انتظار داریم طبقه‌بندی‌کننده‌ی ما براساس احتمال، مجموعه‌ای از کلاس‌ها را به ما بدهد.

برای مثال، فرض کنید ۲ کلاس داریم؛ بیایید گربه و سگ (سگ کلاس ۱، گربه کلاس صفر) را در نظر بگیریم؛ حال یک آستانه‌ در نظر می‌گیریم که هر داده‌ای بالای آن باشد متعلق به کلاس یک و هر داده‌ای زیر آن باشد متعلق به کلاس صفر در نظر گرفته شود.

مرز تصمیم‌گیری (Decision Boundary)

همان‌طور که در نمودار بالا نشان داده شده است، ما آستانه را ۰.۵ انتخاب کرده‌ایم؛ اگر تابع پیش‌بینی مقدار ۰.۷ را بازگرداند، داده را به‌عنوان کلاس یک (سگ) طبقه‌بندی می‌کنیم؛ اگر مقدار پیش‌بینی ۰.۲ باشد، داده را به‌عنوان کلاس صفر (گربه) طبقه‌بندی می‌کنیم. درواقع مرز تصمیم‌گیری (Decision Boundary) به ما کمک می‌کند دو کلاس را از هم متمایز کنیم. این مرز تصمیم‌گیری را تابع لجستیک مشخص می‌کند.

حال لازم است بدانیم که پارامترهای تابع لجستیک یا همان سیگموید چطور به دست می‌آید.

تابع هزینه (Cost Function)

در رگرسیون لجستیک نیز، مانند رگرسیون خطی، ابتدا ما یک تابع با پارامترهای رندوم داریم که درنهایت با استفاده از تابع هزینه این پارامترها بهینه می‌شود تا در خروجی بهترین نتیجه را داشته باشیم؛ به‌عبارت دیگر، داده‌ها به‌درستی طبقه‌بندی شوند.

تابع هزینه میزان خطای موجود را میان کلاسی که پیش‌بینی شده است و کلاسی که واقعاً داده به آن تعلق دارد مشخص می‌کند. در رگرسیون لجستیک این خطا را تابع هزینه‌ی لگاریتمی به‌این شکل مشخص می‌کند:

تابع هزینه‌ی لگاریتمی در الگوریتم رگرسیون لجستیک

که نمودار این دو به‌این شکل خواهد بود:‌

نمودار هزینه‌ی y = 0
نمودار هزینه‌ی y = 1

همان‌طور که می‌بینیم، اگر در نمودار y = 1 پیش‌بینی مدل ما این باشد که y = 0، یعنی داده را به کلاس اشتباه طبقه‌بندی کند، مقدار هزینه (Cost) به‌سمت بی‌نهایت می‌رود. در نمودار y = 0 هم، در‌صورتی‌که پیش‌بینی مدل ما y = 1 باشد، بازهم مقدار هزینه (Cost) به‌سمت بی‌نهایت می‌رود.

شکل خلاصه‌شده‌ی تابع هزینه‌ای که در بالا داشتیم به‌این شکل خواهد بود:

شکل خلاصه‌شده‌ی نمودار هزینه

گرادیان نزولی (Gradient Descent)

حال سؤالی که برای‌مان پیش می‌آید این است که چطور باید این خطا یا هزینه‌ای را که با تابع هزینه به دست آوردیم کاهش دهیم تا خروجی ما بهینه شود؟

پاسخ الگوریتم گرادیان نزولی (Gradient Descent)‌ است که فرمول آن به‌این شکل است:

الگوریتم گرادیان نزولی (Gradient Descent)‌

که در آن مشتق زنجیره‌ای هر پارامتر (در اینجا β₀ و  β₁) را نسبت با خطای به‌دست‌آمده می‌گیریم و درنهایت مقدار مشتق را از مقدار پارامتر قبلی کم می‌کنیم تا آن را به‌روز‌رسانی کنیم. این کار چندین بار تکرار می‌شود تا زمانی‌که پارامترهای ما بهینه شوند و خروجی مدل ما نتیجه‌ی چشمگیری داشته باشد.

گرادیان نزولی یک قیاس دارد که در آن ما خود را در بالای کوهی تصور می‌کنیم، درحالی‌که چشمان‌مان بسته است. هدف ما رسیدن به پایین کوه است. برای اینکه به پایین کوه برسیم باید سراشیبی را قدم‌به‌قدم به‌سمت پایین برویم. این عمل به محاسبه‌ی گرادیان نزولی شبیه است و برداشتن یک قدم به هر بار به‌روز‌رسانی پارامترها مشابه است.

قیاس پایین‌آمدن از کوه در گرادیان نزولی

قسمتی از جزوه کلاس برای آموزش Logistic Regression

دوره جامع دیتا ساینس و ماشین لرنینگ

Logistic Regression در پایتون

خلاصه‌ی مطالب درباره‌ی رگرسیون لجستیک (Logistic Regression)

در این مطلب یکی از مشهورترین الگوریتم‌های یادگیری ماشین، یعنی رگرسیون لجستیک، را معرفی کردیم. همان‌طور که متوجه شدیم، رگرسیون لجستیک برای کار طبقه‌بندی  (Classification) استفاده می‌شود و نباید به‌دلیل اینکه آن را رگرسیون می‌نامیم، با رگرسیون خطی اشتباه گرفته شود. در رگرسیون خطی هدف پیش‌بینی مقادیر پیوسته در خروجی است، درحالی‌که در رگرسیون لجستیک هدف پیش‌بینی مقادیر گسسته است و در آن قصد داریم داده‌ها را به دو یا چند کلاس مشخص طبقه‌بندی کنیم.

رگرسیون لجستیک یکی از الگوریتم‌هایی است که تمامی افرادی که می‌خواهند یادگیری و کار در حوزه‌ی یادگیری ماشین (Machine Learning) و علم داده (Data Science) را شروع کنند حتماً به‌سراغش می‌روند. حال شما هم جزو کسانی هستید که این الگوریتم را به‌خوبی می‌شناسید!