قضیه بیز (به انگلیسی: Bayes’ theorem) روشی برای دسته بندی پدیده‌ها، بر پایه احتمال وقوع یا عدم وقوع یک پدیده‌است و در نظریه احتمالات با اهمیت و پرکاربرد است. اگر برای فضای نمونه‌ای مفروضی بتوانیم چنان افرازی انتخاب کنیم که با دانستن اینکه کدامیک از پیشامدهای افراز شده رخ داده‌است، بخش مهمی از عدم‌اطمینان تقلیل می یابد.

این قضیه از آن جهت مفید است که می‌توان از طریق آن احتمال یک پیشامد را با مشروط کردن نسبت به وقوع و یا عدم وقوع یک پیشامد دیگر محاسبه کرد. در بسیاری از حالت‌ها، محاسبهٔ احتمال یک پیشامد به صورت مستقیم کاری دشوار است. با استفاده از این قضیه و مشروط کردن پیشامد مورد نظر نسبت به پیشامد دیگر، می‌توان احتمال مورد نظر را محاسبه کرد.

این رابطه به خاطر بزرگداشت توماس بیز فیلسوف انگلیسی به نام فرمول بیز معروف است.

 

محتویات

  • ۱ معادله اصلی
  • ۲ برهان
  • ۳ یادگیری ماشینی به کمک نظریه بیز
    • ۳.۱ تئوری بیز در یادگیری ماشین
    • ۳.۲ تعریف مفاهیم اولیه
    • ۳.۳ روشهای یادگیری بیزی ماشینی
  • ۴ مثال
  • ۵ جستارهای وابسته
  • ۶ منابع

 

معادله اصلی

فرض می‌کنیم قضیه بیز یک افراز برای فضای نمونه‌ای قضیه بیز تشکیل دهند. طوری که به ازای هر قضیه بیز، داشته باشیم قضیه بیز و فرض کنید قضیه بیز پیشامدی با فرض قضیه بیز باشد، در اینصورت به ازای قضیه بیز، داریم:

قضیه بیز

برهان

طبق تعریف احتمال شرطی داریم قضیه بیز. صورت کسر قضیه طبق دستور حاصلضرب در احتمال شرطی، برابر با قضیه بیز و مخرج کسر بنابر قضیه قانون احتمال کل، برابر قضیه بیز است.

اگر A و B دو پیشامد مفروض باشند، می‌توان پیشامد A را به صورت زیر در نظر بگیریم:

A=AB∪AB’

زیرا نقطه‌ای که در A باشد باید یا در هر دوی A و B باشد و یا این که در A باشد و در B وجود نداشته باشد.از طرفی می دانیم AB و AB’ ناسازگار هستند، پس می‌توان نوشت:

P(A)=P(AB)+P(AB’)=P(A│B)P(B)+P(A│B^c )P(B’ )=p(A│B)P(B)+P(A│B’)1-P(B)

این رابطه بیان می‌دارد که احتمال به وقوع پیوستن پیشامد A یک میانگین وزنی از احتمال شرطی (A│B) و احتمال شرطی (A│B’) می‌باشد. وزن داده شده به هر احتمال شرطی به اندازهٔ احتمالی است که A نسبت به آن مشروط شده‌است.رابطه بالا را می‌توان به صورت زیر تعمیم داد. فرض کنید پیشامدهای B1، B2، … و Bn پیشامدهای دو به دو ناسازگار باشند از طرفی رابطهٔ زیر نیز بین این پیشامدها برقرار است:

U(i=1)^n Fi=S

از این عبارت این گونه می‌توان استنباط کرد که حتماً یکی از پیشامدهای B1، B2، … و Bn باید اتفاق بیفتداز طرفی می دانیم که پیشامدهای AB_iکه (i=1,2،…,n) دو به دو ناسازگار هستند و می‌نویسیم

A=⋃_(i=1)^n AB_i

از این جا می‌توان نوشت:

قضیه بیز

این رابطه بیان می‌دارد که چگونه می‌توان (P(A را با مشروط کردن به یکی از پیشامدهای داده شدهٔ B1، B2، … و Bn محاسبه نمود. به طور کلی این رابطه باین می‌دارد که P(A) برابر است با میانگین وزنی (P(A│B_c به نحوی که هر وزن هر جمله برابر با احتمالی است که به آن مشروط گردیده‌است حال فرض کنید که پیشامد A اتفاق افتاده و می‌خواهیم احتمال این که یکی از پیشامدهای Bi اتفاق افتاده باشد را حساب کنیم:

قضیه بیز

یادگیری ماشینی به کمک نظریه بیز

برای نگرش بیزی به یادگیری ماشین (و یا هر فرایند دیگر) می‌باید نخست:

  • دانش موجود در باره موضوع را بصورت احتمالاتی فرموله کنیم:برای اینکار باید مقادیر کیفی دانش را بصورت توزیع احتمال، فرضیات استقلال و غیره مدل کرد. این مدل دارای پارامترهای ناشناخته‌ای خواهد بود که برای هر یک از مقادیر ناشناخته، توزیع احتمال اولیه‌ای در نظر گرفته می‌شود که بازگو کننده باور ما به محتمل بودن هر یک ازاین مقادیر بدون دیدن داده‌است.
  • با جمع آوری داده و مشاهدهٔ آن، مقدار توزیع احتمال ثانویه را محاسبه می‌کنیم
  • با استفاده از این احتمال ثانویه:
  • به یک نتیجه گیری در مورد عدم قطعیت می‌رسیم
  • با میانگین گیری روی مقادیر احتمال ثانویه پیش بینی انجام می‌دهیم
  • برای کاهش خطای ثانویه مورد انتظار تصمیم گیری می‌کنیم

تئوری بیز در یادگیری ماشین

در یادگیری ماشین معمولاً در فضای فرضیه H بدنبال بهترین فرضیه‌ای هستیم که درمورد داده‌های آموزشی D صدق کند. یک راه تعیین بهترین فرضیه، این است که بدنبال محتمل ترین فرضیه‌ای باشیم که با داشتن داده‌های آموزشی D و احتمال قبلی در مورد فرضیه‌های مختلف می‌توان انتظار داشت تئوری بیز چنین راه حلی را ارائه می‌دهد. این روش راه حل مستقیمی است که نیازی به جستجو ندارد.

سنگ بنای یادگیری بیزی را تئوری بیز تشکیل می‌دهد. این تئوری امکان محاسبه احتمال ثانویه را بر مبنای احتمالات اولیه می‌دهد:

قضیه بیز

همانطور که مشاهده می‌شود با افزایش قضیه بیز مقدار قضیه بیز کاهش می‌یابد. زیرا هر چه احتمال مشاهده D مستقل از h بیشتر باشد به این معنا خواهد بود که D شواهد کمتری در حمایت از hدر بر دارد.

تعریف مفاهیم اولیه

فرض کنید که فضای فرضیه قضیه بیز و مجموعه مثالهای آموزش قضیه بیز موجود باشند. مقادیر احتمال زیر را تعریف می‌کنیم:

قضیه بیز: احتمال اولیه‌ای (prior probablity) که فرضیه h قبل از مشاهده مثال آموزشی قضیه بیز داشته‌است . اگر چنین احتمالی موجود نباشد می‌توان به تمامی فرضیه‌ها احتمال یکسانی نسبت داد.
قضیه بیز:احتمال اولیه‌ای که داده آموزشی قضیه بیز مشاهده خواهد شد.
قضیه بیز:احتمال مشاهده داده آموزشی قضیه بیز به فرض آنکه فرضیه قضیه بیز صادق باشد.
قضیه بیز:احتمال ثانویه (posterior probablity) نامیده می‌شود یعنی احتمال اینکه با مشاهده داده آموزشی قضیه بیز فرضیه قضیه بیز صادق باشد و

در یادگیری ماشین به دنبال یافتن این احتمال است.

توجه شود که احتمال اولیه (قضیه بیز) مستقل از داده آموزشی است ولی احتمال ثانویه (قضیه بیز) تاثیر داده آموزشی را منعکس می‌کند.

روشهای یادگیری بیزی ماشینی

روشهای بیزی فرضیه‌هائی ارائه می‌دهند که قادر به پیش بینی احتمالی هستند (مثل بیمار به احتمال ۹۳% بهبود می‌یابد) مثالهای جدید را می‌توان با ترکیب وزنی چندین فرضیه دسته بندی نمود. حتی در مواردی که روشهای بیزی قابل محاسبه نباشند، می‌توان از آنها به عنوان معیاری برای ارزیابی روشهای دیگر استفاده کرد تعدادی از روش‌های یادگیری ماشینی بیزی شامل موارد زیر است:

  • Bayes Optimal Classifier
  • دسته‌بندی کننده نایو بیز
  • شبکه‌های بیزی

    قضیه بیز

    از ویکی‌پدیا، دانشنامهٔ آزاد
     

    قضیه بیز (به انگلیسی: Bayes’ theorem) روشی برای دسته بندی پدیده‌ها، بر پایه احتمال وقوع یا عدم وقوع یک پدیده‌است و در نظریه احتمالات با اهمیت و پرکاربرد است. اگر برای فضای نمونه‌ای مفروضی بتوانیم چنان افرازی انتخاب کنیم که با دانستن اینکه کدامیک از پیشامدهای افراز شده رخ داده‌است، بخش مهمی از عدم‌اطمینان تقلیل می یابد.

    این قضیه از آن جهت مفید است که می‌توان از طریق آن احتمال یک پیشامد را با مشروط کردن نسبت به وقوع و یا عدم وقوع یک پیشامد دیگر محاسبه کرد. در بسیاری از حالت‌ها، محاسبهٔ احتمال یک پیشامد به صورت مستقیم کاری دشوار است. با استفاده از این قضیه و مشروط کردن پیشامد مورد نظر نسبت به پیشامد دیگر، می‌توان احتمال مورد نظر را محاسبه کرد.

    این رابطه به خاطر بزرگداشت توماس بیز فیلسوف انگلیسی به نام فرمول بیز معروف است.

     

    معادله اصلی

    فرض می‌کنیم قضیه بیز یک افراز برای فضای نمونه‌ای قضیه بیز تشکیل دهند. طوری که به ازای هر قضیه بیز، داشته باشیم قضیه بیز و فرض کنید قضیه بیز پیشامدی با فرض قضیه بیز باشد، در اینصورت به ازای قضیه بیز، داریم:

    قضیه بیز


    یادگیری ماشینی به کمک نظریه بیز

    برای نگرش بیزی به یادگیری ماشین (و یا هر فرایند دیگر) می‌باید نخست:

    • دانش موجود در باره موضوع را بصورت احتمالاتی فرموله کنیم:برای اینکار باید مقادیر کیفی دانش را بصورت توزیع احتمال، فرضیات استقلال و غیره مدل کرد. این مدل دارای پارامترهای ناشناخته‌ای خواهد بود که برای هر یک از مقادیر ناشناخته، توزیع احتمال اولیه‌ای در نظر گرفته می‌شود که بازگو کننده باور ما به محتمل بودن هر یک ازاین مقادیر بدون دیدن داده‌است.
    • با جمع آوری داده و مشاهدهٔ آن، مقدار توزیع احتمال ثانویه را محاسبه می‌کنیم
    • با استفاده از این احتمال ثانویه:
    • به یک نتیجه گیری در مورد عدم قطعیت می‌رسیم
    • با میانگین گیری روی مقادیر احتمال ثانویه پیش بینی انجام می‌دهیم
    • برای کاهش خطای ثانویه مورد انتظار تصمیم گیری می‌کنیم

    تئوری بیز در یادگیری ماشین

    در یادگیری ماشین معمولاً در فضای فرضیه H بدنبال بهترین فرضیه‌ای هستیم که درمورد داده‌های آموزشی D صدق کند. یک راه تعیین بهترین فرضیه، این است که بدنبال محتمل ترین فرضیه‌ای باشیم که با داشتن داده‌های آموزشی D و احتمال قبلی در مورد فرضیه‌های مختلف می‌توان انتظار داشت تئوری بیز چنین راه حلی را ارائه می‌دهد. این روش راه حل مستقیمی است که نیازی به جستجو ندارد.

    سنگ بنای یادگیری بیزی را تئوری بیز تشکیل می‌دهد. این تئوری امکان محاسبه احتمال ثانویه را بر مبنای احتمالات اولیه می‌دهد:

    قضیه بیز

    همانطور که مشاهده می‌شود با افزایش قضیه بیز مقدار قضیه بیز کاهش می‌یابد. زیرا هر چه احتمال مشاهده D مستقل از h بیشتر باشد به این معنا خواهد بود که D شواهد کمتری در حمایت از hدر بر دارد.

    تعریف مفاهیم اولیه

    فرض کنید که فضای فرضیه قضیه بیز و مجموعه مثالهای آموزش قضیه بیز موجود باشند. مقادیر احتمال زیر را تعریف می‌کنیم:

    قضیه بیز: احتمال اولیه‌ای (prior probablity) که فرضیه h قبل از مشاهده مثال آموزشی قضیه بیز داشته‌است . اگر چنین احتمالی موجود نباشد می‌توان به تمامی فرضیه‌ها احتمال یکسانی نسبت داد.
    قضیه بیز:احتمال اولیه‌ای که داده آموزشی قضیه بیز مشاهده خواهد شد.
    قضیه بیز:احتمال مشاهده داده آموزشی قضیه بیز به فرض آنکه فرضیه قضیه بیز صادق باشد.
    قضیه بیز:احتمال ثانویه (posterior probablity) نامیده می‌شود یعنی احتمال اینکه با مشاهده داده آموزشی قضیه بیز فرضیه قضیه بیز صادق باشد و

    در یادگیری ماشین به دنبال یافتن این احتمال است.

    توجه شود که احتمال اولیه (قضیه بیز) مستقل از داده آموزشی است ولی احتمال ثانویه (قضیه بیز) تاثیر داده آموزشی را منعکس می‌کند.

    روشهای یادگیری بیزی ماشینی

    روشهای بیزی فرضیه‌هائی ارائه می‌دهند که قادر به پیش بینی احتمالی هستند (مثل بیمار به احتمال ۹۳% بهبود می‌یابد) مثالهای جدید را می‌توان با ترکیب وزنی چندین فرضیه دسته بندی نمود. حتی در مواردی که روشهای بیزی قابل محاسبه نباشند، می‌توان از آنها به عنوان معیاری برای ارزیابی روشهای دیگر استفاده کرد تعدادی از روش‌های یادگیری ماشینی بیزی شامل موارد زیر است:

    • Bayes Optimal Classifier
    • دسته‌بندی کننده نایو بیز
    • شبکه‌های بیزی
[thrive_leads id='1265']
author-avatar

حدود علی ایوبی

من علی ایوبی هستم متخصص و مدرس بازاریابی اینترنتی، به کسانی که نیاز به دیجیتال مارکتینگ خود را دارند کمک می کنم که بتوانید سیستم بازاریابی آنلاین خود را راه اندازی کنند به نظرم من دلیل شکست شکست کسب و کارها نداشتن سیستمی برای جذب مخاطب(ترافیک) و تبدیل آن به مشتری(تبدیل) است روش کار من استفاده از سیستم قیف های فروش(Funnel) است.

بازگشت به لیست
0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها