نمونه گيري

تعريف نمونه گيري :

 

نمونه گيري فرآيند انتخاب مشاهده ها و تعميم نتايج مشاهده به كل جمعيت است.

 

دلايل نمونه گيري :

 

1.صرفه جويي در وقت، انرژي و هزينه.

2.جلوگيري از افزايش احتمال اشتباهات از قبيل اشتباهات پرسشگر و نيافتن پاسخگويان.

3.نتيجه نمونه گيري به شرط رعايت اصول و ضوابط آن ، با نتايج همه پرسي يكي است.

 

تاريخچه نمونه گيري :

 

نمونه گيري در علوم اجتماعي همگام با نظرسنجي سياسي، توسعه يافته است.

مجله آمريكايي ليترري دايجست در سال 1920 اسامي افرادي را از دفترچه هاي راهنماي تلفن و فهرست اسامي دارندگان خودرو انتخاب و اقدام به ارسال كارت پستالهايي براي آنان نمود. سردبيران اين مجله در اين كارت پستالها اين سؤال را مطرح كرده بودند كه از بين دو نامزد انتخابات رياست جمهوري به كدام يك رأي خواهيد داد. ليترري دايجست پس از دريافت پاسخها به درستي پيش بيني كرد كه چه كسي برندة انتخابات رياست جمهوري خواهد بود. اين مجله در دوره هاي بعدي انتخابات رياست جمهوري حجم نظرسنجي خود را گسترش داد و پيش بينيهاي آن در انتخابات رياست جمهوري سالهاي 1924، 1928 و 1932 درست از آب در آمد.

در سال 1936، اين مجله براي ده ميليون نفر برگه هاي نظرسنجي فرستاد و دو ميليون پاسخ دريافت كرد. در اين نظرسنجي 57 درصد شركت كنندگان به آلف لندون و 43 درصد به روزولت رأي داده بودند. اما پس از برگزاري انتخابات رياست جمهوري، نتايج كاملاً بر عكس بود و روزولت با 61 درصد آرا پيروز شده بود. اشتباه سردبيران ليترري دايجست در چهارچوب نمونه گيري آنها نهفته بود: دارندگان تلفن و مالكان خودروي شخصي. آنها نمونه اي از افراد ثروتمند را انتخاب كرده بودند.

 

اصطلاحات نمونه گيري :

 

1.عنصر : واحدي كه درباره اش اطلاعات جمع آوري مي شود و مبناي تحليل را فراهم مي سازد.

2.جمعيت : مجموعه افراد، اشياء يا نمودهايي كه يك يا چند صفت مشترك داشته باشند و يكجا در نظر گرفته شوند.

3.چهارچوب : فهرست اصلي واحدهاي نمونه گيري است كه نمونه يا مرحله اي از نمونه، از آن انتخاب مي شود.

4.متغير : صفات منحصر به فرد عنصرهاي يك جمعيت را توصيف مي كند.

5.نمونه : زيرمجموعه اي از يك جمعيت است كه براي استنباط ماهيت كل جمعيت انتخاب مي شود.

6.معرف بودن نمونه : همة اعضاي جمعيت بخت يكسان براي انتخاب شدن داشته باشند.

 

تعيين حجم نمونه :

تعيين حجم نمونه بستگي به ميزان دقت و اطمينان مورد نظر دارد كه با فرمولهايي قابل محاسبه است.

دو عامل خطاي نمونه گيري را كاهش مي دهد :

1.افزايش حجم نمونه.

2.افزايش همگوني عنصرهاي مورد انتخاب.

 

شيوه هاي نمونه گيري :

 

شيوه هاي نمونه گيري نسبت به مسائل مورد بررسي، متفاوت و تابع شرايط تحقيق است.

 

نمونه گيري غير احتمالي :

 

1.سهميه اي : بايد ساختار جامعه مورد مطالعه مشخص باشد و نياز به اطلاعات روزآمد دارد.

بايد همان نسبتهايي كه در جمعيت مورد مطالعه وجود دارد در نمونه انتخابي رعايت شود. مثال : افراد شاغل.

2.گلوله برفي : براي جمعيتهاي نادر كه محل استقرار آنها مشخص نيست مناسب است. عناصري از يك جمعيت، محقق را به عناصر ديگر اين جمعيت راهنمايي مي كنند. مثال : افراد بي خانمان، مهاجران غير قانوني.

3.هدفمند يا قضاوتي : نمونه بر اساس قضاوت شخصي يا اهداف مطالعه انتخاب مي شود.

 

نمونه گيري احتمالي (اتفاقي يا تصادفي) :

 

بايد فهرستي از افراد يا عناصر جمعيت مورد مطالعه در اختيار داشته باشيم.

1.ساده : از طريق قرعه كشي، استفاده از جداول اعداد تصادفي يا برنامه هاي رايانه اي.

2.سيستماتيك يا منظم : ابتدا حجم جمعيت را بر حجم نمونه تقسيم مي كنيم تا فاصله نمونه گيري بدست آيد. سپس يك عدد اتفاقي را مبناي شروع قرار مي دهيم و به اندازه فاصله نمونه گيري، افراد يا عناصر بعدي را انتخاب مي كنيم تا نمونه مورد نظر كامل شود.

3.خوشه اي : براي مناطق وسيع جغرافيايي كه بدست آوردن فهرست كاملي از اجزاي آن غير ممكن است بكار مي رود. در اين روش نقشه مورد مطالعه را به بخشهايي تقسيم مي كنيم سپس به روش اتفاقي ساده يا منظم از آن نمونه گيري مي كنيم.

دستور العمل براي انتخاب بهترين نمونه : به حداكثر رساندن تعداد خوشه ها و كاهش تعداد عناصر هر خوشه.

نمونه گيري خوشه اي با احتمال متناسب با حجم : در اين روش متناسب با حجم هر خوشه از آن نمونه گيري مي كنيم.

4.طبقه اي : براي جامعه آماري كه ساخت همگن و متجانس ندارد استفاده مي شود. اين روش خطاي نمونه گيري را كاهش مي دهد. در اين روش جمعيت مورد مطالعه را به زيرمجموعه هاي همگن تقسيم مي كنيم. مثال : اعضاي يك دانشگاه.

 

مزيتهاي نمونه گيري احتمالي :

 

الف- حذف سوگيري آگاهانه يا ناآگاهانه.

ب- امكان محاسبه درجه خطا.

 

توزیع نرمال

توزیع نرمال


 

img/daneshnameh_up/9/9f/aaaaaaaa.png
توزیع فراوانی توزیع نرمال به ازای واریانس های مختلف

 



توزیع نرمال ، یکی از مهمترین توزیع ها در نظریه احتمال است. و کاربردهای بسیاری در علم فیزیک و مهندسی دارد.این توزیع توسط کارل فریدریش گاوس در رابطه با کاربرد روش کمترین مربعات در آمارگیری کشف شد.فرمول آن بر حسب ،دو پارامتر امید ریاضی و واریانس بیان میشود. همچنین تابع توزیع نرمال یا گاوس از مهمترین توابعی است که در مباحث آمار و احتمالات مورد بررسی قرار می گیرد چرا که به تجربه ثابت شده است که در دنیای اطراف ما توزیع بسیاری از متغیرهای طبیعی از همین تابع پیروی می کنند.

 

منحنی توزیع

منحنی رفتار این تابع تا حد زیادی شبیه به زنگ های کلیسا می باشد و به همین دلیل به آن Bell Shaped هم گفته میشود. با وجود اینکه ممکن است ارتفاع و نحوه انحنای انواع مختلف این منحنی یکسان نباشد اما همه آنها یک ویژگی یکسان دارند و آن مساحت واحد می باشد. ارتفاع این منحنی با مقادیر میانگین () و انحراف معیار() ارتباط دارد. با وجود فرمول نسبتا" پیچیده و دخیل بودن پارامترهای ثابتی چون عدد (p) یا عدد (e) در این فرمول، می توان از آن برای مدل کردن رفتار میزان IQ، قد یا وزن انسان، پراکندگی ستارگان در فضا و ... استفاده کرد.


img/daneshnameh_up/6/69/normal-1.gif
سطح زیر منحنی نرمال برای مقادیر متفاوت
مقدار میانگین و واریانس

این منحنی دارای خواص بسیار جالبی است از آن جمله که نسبت به محور عمودی متقارن می باشد، نیمی از مساحت زیر منحنی بالای مقدار متوسط و نیمه دیگر در پایین مقدار متوسط قرار دارد و اینکه هرچه از طرفین به مرکز مختصات نزدیک می شویم احتمال وقوع بیشتر می شود.

سطح زیر منحنی نرمال برای مقادیر متفاوت مقدار میانگین و واریانس فراگیری این رفتار آنقدر زیاد است که دانشمندان اغلب برای مدل کردن متغیرهای تصادفی که با رفتار آنها آشنایی ندارند، از این تابع استفاده می کنند. بعنوان یک مثال در یک امتحان درسی نمرات دانش آموزان اغلب اطراف میانگین بیشتر می باشد و هر چه به سمت نمرات بالا یا پایین پیش برویم تعداد افرادی که این نمرات را گرفته اند کمتر می شود. این رفتار را بسهولت می توان با یک توزیع نرمال مدل کرد.

تابع چگالی احتمال

تابع چگالی احتمال برای توزیع نرمال بر حسب امید ریاضی و واریانس تعریف میشود.و تابع آن به صورت زیر است:



اگر در این فرمول باشد در این صورت به آن تابع توزیع نرمال استاندارد گویند. در این حالت تابع توزیع به صورت زیر خواهد بود:



کاربردها

از مهمترین کاربردهای این تابع توزیع در دانش اقتصاد و مدیریت امروز می توان به مدل کردن پورتفولیوها  (Portfolios) در سرمایه گذاری و مدیریت منابع نام برد. هنگامی که مقدار منفی برای متغییر معنی نداشته باشد معمولا" در محور x منحنی را منقل می کنند و مقدار میانگین - که دارای بیشترین احتمال وقوع هست - را به سمت مقادیر بزگتر شیفت میدهند.

img/daneshnameh_up/b/ba/chegali.gif

احتمال شرطی

تعریف احتمال شرطی

احتمال شرطی A به شرط B با (P(A│B نشان داده می‌شود و با فرمول
(P(A│B) = P(AB)/P(B

تعریف می‌گردد، که در آن P(B)>0 این فرمول را می‌توان به صورت زیر نوشت:
(P(AB) = P(B) P(A│B

که آن قانون ضرب احتمالها گوییم. به همین نحو ، احتمال شرطی B به شرط A را می‌توان به صورت زیر بیان کرد:
(P(B│A) = P(AB)/P(A


که منجر به رابطه (P(AB) = P(A) P(B|A می‌شود. بنابراین قانون ضرب احتمالها این تساوی را بیان می‌کند که حاصلضرب احتمال شرطی یک پیشامد در احتمال پیشامد شرطی کننده ، برابر است با احتمال اشتراک آن دو پیشامد.

دید کلی

اغلب لازم می‌آید که احتمال پیشامدی چون A، که با پیشامدی مانند B مربوط است، بعد از الاع بر وقوع یا عدم وقوع پیشامد B ، اصلاح گردد. بنابراین کسب اطلاعات درباره جنبه‌ای از نتایج آزمایش ، ممکن است تجدید نظر در احتمال پیشامدی را که مربوط به جنبه دیکری از نتایج است، ایجاد کند. اجتمال تجدید نظر شده A ، وقتی معلوم شود که B رخ داده است، احتمال شرطی A به شرط B نامیده و با (P(A│B نشان داده می‌شود.

احتمال شرطی برای 3 پیشامد

قانون ضرب را می‌توان برای بیش از دو پیشامد نیز تعمیم داد. در مورد سه پیشامد A ، B و C ، فرمول عبارت است از:

(P(ABC)=P(A) P(B|A) P(C|AB

احتمال شرطی برای دو پیشامد مستقل

اگر دو پیشامد A و B مستقل باشند آنگاه احتمال شرطی به صورت زیر است:
(P(A|B)=P(A

شرطهای زیر ، هم ارز شرط بالا هستند:
(P(B|A) = P(B یا (P(AB) = P(A) P(B

با توجه به شرط استقلال اگر آزمایشی مرکب از دو قسمت فیزیکی مستقل و نامربوط به هم باشد، و پیشامد A و B به قسمتهای جداگانه آن آزمایش مربوط شوند، به پیشامد AB احتمال (P(AB) = P(A) P(B را نسبت می‌دهیم.

تفاوت "پیشامدهای دو به دو ناسازگار" و پیشامدهای مستقل"

این دو خاصیت کاملا متفاوت هستند؛ در حقیقت ، برقراری یکی منجر می‌شود به این که دیگری نتواند برقرار باشد. پیشامدهای A و B را که دارای احتمال های غیر صفرند در نظر بگیرید. وقتی آنها دو به دو ناسازگارند، اشتراک AB تهی است و P(AB) = 0. اگر این پیشامدها مستقل نیز باشند، می‌بایستی در شرط (P(A) P(B) = P(AB صدق کنند، که این موضوع نمی‌تواند درست باشد چون حاصلضرب دو عدد غیر صفر نمی‌تواند صفر باشد. به عنوان مثال ، پیشامدهای A و Á دو به دو ناسازگارند ولی بطور شهودی معلوم است که کاملا وابسته‌اند، به این معنی که به محض وقوع پیشامد A ، مطمئن هستیم که Á رخ نمی‌دهد.

قضیه بیز

 قضیه بیز به صورت زیر است:

(P(B1│A) = P(B1) P(A|B1) / ∑ P(Bj) P(A|Bj


این فرمول بوسیله دیوراند تامس بیز (1702-1761) در معرض توجه عموم قرار داده شده و بنابراین به عنوان قضیه بیز معروف است. اگرچه این قضیه نتیجه‌ای مستقیم از مفهوم احتمال شرطی است، ولی دارای مفاهیم ضمنی دیگری است که در نگرش معینی به استنباط آماری موسوم به استنباط بیزی ، بکار می‌آید. این نحوه استنباط ، مبتنی بر این تعبیر است که Bjها عبارتند از "وضعیتهای طبیعی" ممکن ، که محقق احتمالهای ذهنی به آنها نسبت می‌دهد. این احتمالها که ممکن است بر مبنای احساس شخصی و نه از روی داده‌ها تعیین شوند (در حقیقت امکان دارد داده‌ها را بطور کلی در دست نداشته باشیم)، سپس با گواه آزمایشی A ترکیب می‌شوند.

احتمال پیشین و پسین

در ابتدا ، محقق از چند وضعیت طبیعی ممکن B1 ، B2 ، ... ، BK با اطلاع است ولی دقیقا نمی‌داند که کدامیک از آنها براستی پیش می‌آید. مثلا ، برای یک داروساز ، دو وضعیت طبیعی نامعلوم ، می‌تواند موثرتر بودن یا موثرتر نبودن یک دارو نسبت به داروی دیگر باشد، برای یک آژانس تبلیغاتی ، امکان دارد وضعیتهای طبیعی ، اثرات ترکیبات مختلف رنگها در یک نمایش تبلیغاتی باشد.

احتمال پیشین

بر مبنای دانش موجود درباره وضعیت ، یا براساس یک گواه آزمایشی که از وضعیتهای مشابه بدست آمده است، محقق ممکن است درباره احتمالهای (P(B) ، P(B) ، ... ، P(B ارزیابی‌ هایی نماید که در واقع بازتابی از احساس شخصی او در مورد میزان تحمل بودن هر یک از وضعیتهای طبیعی است. چنین احتمالهایی را احتمالهای پیشین یا پیش از آزمایش ، برای وضعیتهای طبیعی گویند.

احتمال پسین

بعد از این کار ، محقق به انجام مشاهده یا اجرای آزمایش می‌پردازد و داده‌ها را گردآوری می‌کند. او می‌تواند احتمال گواه آزمایشی A را به شرط وقوع هر وضعیت مشهود B تعغیین کند، آنگاه قضیه بیز به محقق امکان می‌دهد که احتمالهای شرطی (P(B|A)، (j=1,…,K را محاسبه نماید، که این مار ، چیزی نیست چز نوعی تجدید نظر در احتمالهای وضعیتهای طبیعی مختلف ، بعد از بدست آمدن گواه آزمایشی. این احتمالهای تجدید نظر شده را احتمالهای پسین یا پس از آزمایش گویند؛ که هر گونه استنباطی در مورد وضعیتهای طبیعی نامعلوم ، باید مبتنی بر آنها باشد.

این روش استدلال ، از سوی بعضی مکتبهای فکری مورد این انتقاد قرار گرفته است که احتمالهای پیشین ممکن است تحت تاثیر نظرگاههای انحرافی محقق قرار داشته باشند. در عین حال ، پژوهشگران در بسیاری از رشته‌ها ، از قبیل حسابداری ، اقتصاد ، تعلیم و تربیت و غیره از این روش ستایش کرده‌اند.

ظهور احتمال

 img/daneshnameh_up/e/e1/Chebyshev_5.jpg

ظهور احتمال

ظهور احتمال به صورت یک نظریه ریاضی نسبتاً جدید است.
مصریان قدیم در حدود ۳۵۰۰ سال قبل از میلاد برای بازی از چیزی که امروزه آن را "قاپ" می‌نامند و شیئی استخوانی شبیه تاس چهار وجهی است استفاده می‌کردندکه در استخوان زانوی پای بعضی از حیوانات وجود دارد.
تاس شش وجهی معمولی در حدود سالهای ۱۶۰۰ بعد از میلاد ساخته شد و از آن به بعد در تمام انواع بازیها ابزار اصلی بوده است.
بدیهی است که ضمن انجام بازیهای تصادفی ،بازیکنان این بازیهادرباره فراوانی وقوع پیشامدهای معین و درباره احتمال آنها ایده‌های شهودی به دست آوردند اما تعجب اینکه تا قرن پانزدهم هیچگونه بررسی علمی در مورد پیشامدهای تصادفی انجام نشد.

گذر از احتمال کلاسیک

اوایل تئوری احتمالات به یک تعداد متناهی از نتایج یک امتحان دو شقی محدود شده بود.قانون محاسبه احتمال،در اصل بسیار ساده بود:

یک پیشامد مرکب،تعدادی پیشامد اولیه را شامل میشود.احتمال آن پیشامد مرکب برابر است با حاصل جمع احتمالات آن پیشامدهای اولیه.برای تعیین احتمالهای پیشامدهای مرکب،پیشامدهای اولیه باید احتمالهایی داشته باشند.طرح های تخمینی بر اساس پیشامدهای اولیه متقارن بنیان نهاده شده بودند.در نتیجه اگر تعداد پیشامدهای اولیه m بود،تقارن نتایج یک بازی به معنی زیبا بودن آن بازی بود.
محاسبات کلاسیک احتمالات که بسیار محدود بودند،بر پایهء تفسیر کلاسیک احتمال انجام میشدند.

چبیشف و تلاش های او در زمینه علم احتمال

چبیشف در ۱۶ ماه مه ۱۸۲۱ در "اکتاوو"٬ روستایی کوچک در روسیه غربی٬ در غرب مسکو متولد شد.هنگام تولد او پدرش از ارتش بازنشسته شده بود٬ اما اخیرآ در زندگی نظامی اش بعنوان افسر مقابل نیروهای متجاوز ناپلئون جنگیده بود. چبیشف در خانواده ای کوچک که جزئی از خانواده ای بزرگ با تاریخچه ای جالب توجه به دنیا آمد.والدین اش ۹ فرزند داشتند که برخی از آنها شغل پدرشان را پیش گرفتند.
تحصیلات ابتدایی او در خانه شکل گرفت . وی در منزل توانایی های اولیه خواندن٬ زبان فرانسه و حساب را یاد گرفت.بعدها زبان فرانسه برای او بسیار سودمند بود چون توانست با تکیه بر آن فرانسه را از نزدیک ببیند و ریاضیات پیچیده را به فرانسوی در همانجا بخواند. همین طور زبان فرانسوی بین ریاضیدانان پیشرو اروپایی زبان ارتباطی مؤثری بود.
در سال ۱۸۳۲ وقتی یازده ساله بود٬ خانواده اش به مسکو رفتند.در آنجا او درس خواندن را در خانه ادامه داد ولی در آن زمان توسط پی.ان.پاگورلسکی- کسی که به بهترین مدارس ابتدایی آموزش ریاضیات در مسکو رسیدگی می کرد- در ریاضیات آموزش داده می شد. پاگورلسکی نویسنده بعضی از مشهورترین کتب درسی ریاضی مدارس ابتدایی در آن زمان و به طور قطع ریاضیات را به دانش آموزان القا می کرد و به آنها آموزش قوی ای از ریاضیات می داد.بنابراین٬ چبیشف خیلی خوب برای درس خواندن در علوم ریاضیات آماده شد وقتی که در سال ۱۸۳۷ به دانشگاه مسکو- این دانشگاه در سال ۱۷۵۵تأسیس شد- رفت.
در دانشگاه مسکو کسی که تأثیر زیادی بر چبیشف گذاشت "نیکولای مترویوچ برشمن"- پروفسور ریاضیات کاربردی در دانشگاه مسکو از سال ۱۸۳۴- بود. چبیشف همیشه به تأثیر بزرگ برشمن بر خود هنگام تحصیل در دانشگاه اعتراف می کرد و او را مهمترین عامل در رسیدن به نتایج تحقیقاتش عنوان می کرد.
دپارتمان فیزیک و ریاضی در دانشگاه او در سال تحصیلی ۴۱-۱۸۴۰ یک مسابقه برگزار کرد و چبیشف در مقاله ای (y=f(x را با استفاده از بسط سری ها برای توابع معکوس پذیر حل کرد ولی مقاله او در آن زمان تنها جایزه دوم را به خود اختصاص داد و در سال ۱۹۵۰ منتشر شد. چبیشف در سال ۱۸۴۱ فارغ التحصیل شد و تحصیلات خود را در فوق لیسانس تحت حمایت استاد محبوبش "برشمن" ادامه داد.
اولین مقاله او به زبان فرانسه٬در رابطه با انتگرالهای چندگانه ٬در سال۱۸۴۳ درمجله "liouvill" منتشر شد. دومین مقاله او نیز به زبان فرانسه بود و این بار در سال ۱۸۴۴ در مجله "crelle" به چاپ رسید. این مقاله در رابطه با همگرایی سری تیلور بود.
در تابستان ۱۸۴۶ چبیشف در حال رسیدگی به رساله دکترای خود بود و در همان سال مقاله ای در مجله crelle بر پایه رساله خود منتشر کرد. رساله او در زمینه تئوری احتمال بود و در آن نتایج حاصل از تئوری احتمال را توسعه داد ولی با روشی ابتدایی.ناگفته نماند که رساله چبیشف تا پس از مرگ او به چاپ نرسید ولی او مقاله ای در رابطه با نتایج آن را در سال ۱۸۵۳ به چاپ رساند.
همان طور که قبلآگفته شد چبیشف تئوری احتمال را بیان کرد. در سال ۱۸۶۷ او مقاله ای در رابطه با مقدار میانی را که در آن از نابرابری Bienayme استفاده شده بود چاپ کرد. یکی از نتایج این کار او نابرابری ایست که امروزه به آن نابرابری چبیشف گفته می شود. ۲۰ سال بعد چبیشف دو قضیه در رابطه با اختمال را منتشر کرد٬ یکی اساس بکاربردن تئوری احتمال در داده های آماری و دیگری عمومی کردن قضیه حد مرکزی دوموآور-لاپلاس.

نظریه احتمال

نظریه احتمال

احتمال یکی از چندین کلمه ای است که برای بیان اتفاقات یا معلومات مشکوک به کار می رود. البته شانس، شرط بندی دیگر کلمات شبیه این، مفاهیمی مشابه احتمال را در ذهن ایجاد می کنند. در نظریه احتمال سعی بر ارائه مفهوم احتمال است.امروزه نظریه احتمال با بسیاری از شاخه های دیگر ریاضیات و بسیاری از حوزه های علوم طبیعی، و اقتصاد مرتبط است.


ملاحظات تاریخی

آغاز نظریه احتمال به اواسط قرن هفدهم باز می گردد. شرط بند با حرارتی با نامde mere حل مسئله ای را، که برایش مهم بود، از بلز پاسکال درخواست کرد.
img/daneshnameh_up/1/15/probability2005.jpg

شرط بند با معلوم بودن این مطلب که در یکی از مراحل میانی بازی، یکی از آنها دور و دیگری دور راه برده باشد، و ، طبق قرار قبلی، اولین کسی که دور را ببرد برنده کل بازی باشد. پاسکال راه حل خود را با پی یردو فرما که او نیز راه حلی برای این مسئله به دست آورد. درمیان گذاشت و راه حل سوم از کریستین هویگنس (1629ـ 1695) به دست آمد. مردان فرهیخته مزبور، اهمیت مسنله مزبور را در بررسی قوانین حاکم بر پیشامدهای تصادفی دریافتند. به این ترتیب، مفاهیم و روش های اولیه علمی جدید، از مساله های مربوط به بازی های شانسی گسترش یافت.
خیلی بعد، در قرن نوزدهم، توجه به سرعت افزاینده در علوم طبیعی، گسترش نظریه احتمال را به مواردی غیر از چهارچوب بازی های شانسی ضروری ساخت. گسترش مزبور رابطه ای تنگاتنگ با نام های ژاکوب برنولی (1654ـ1705)، آبراهام دوموآور (1667ـ1754)، پیرسیمون دولاپلاس (1749ـ 1827)، کارل فردریش گاوس (1777ـ 1855)، سیمون دنیس پواسون (1781ـ 1840)ف پافنونی لووبچ چبیشف (1821ـ1894)، آندری آندری ویچ مارکوف (1856ـ1922)، و در همین اواخر با اسامی الکساندر یاکوف لویچ خین چاین (1894ـ 1959) و اندری نیکولائویچ کولموگوروف (متولد 1903) داشته است.
تحقیق در پیشامدهای انبوه با بررسی قوانین حاکن بر پیشامدهای تصادفی مرتبط است. به عنوان مثال، تولید کالایی که موارد کاربرد روزانه دارد پیشامد انبوه و ظهور کالایی معیوب در میان آنها پیشامدی تصادفی است.

پیشامد

پیشامد E ، به مفهوم پیشامد تصادفی ، نتیجه آزمونی است که گرچه میتواند رخ دهد ولی این رخ داد ضروری نیست . یک آزمون می تواند مشاهده یا آزمایش باشد و با مجموعه ای از شرایطی که باید برقرار شوند و با استفاده از تکرارپذیری مشخص می شود . حالت های حدی نیز به عنوان پیشامد در نظر گرفته می شوند : پیشامدحتمی ، پیشامدی است که به طور قطع رخ می دهد و پیشامد ناممکن، که هیچ گاه رخ نمی دهد از این قبیل اند. به عنوان مثال در انداختن یک تاس پیشامد آمدن عدد 7 یک پیشامد ناممکن پیشامد آمدن عدد 1 تا6 یک پیشامدحتمی است.
پیشامدها را دو به هر ناسازگار می گوئیم اگر تنها یکی از آنها به عنوان نتیجه آزمون بتواند رخ دهد . به عنوان مثال در بیرون آوردن یک مهره از ظرفی که محتوی مهره های قرمز و سیاه است ، بیرون آوردن مهره قرمز و سیاه است ، بیرون آوردن مهره قرمز و بیرون آوردن مهره سیاه ، ناسازگارند زیرا آن به طور همزمان نمی توانند رخ دهند.
هر گاه دو پیشامد مانند E1 و E2، دستگاه کامل پیشامد ها را تشکیل دهند هر یک از آنها متمم دیگری است به عنوان مثال در انداختن یک سکه ،"شیر" و "خط" متمم اند.

تعریف کلاسیک احتمال

اگر چه نظریه اصل موضوعی احتمال موجود است ، قوانین مهم احتمال را می توان از تعریف کلاسیک آن بدست آورد.

تعریف کلاسیک احتمال : اگر آزمونی بتواند در n پیشامد برابر – محتمل نتیجه شود و اگر m مورد از این پیشامدها برای پیشامد E مطلوب باشند احتمال ظهور پیشامد E عبارت است از:


همواره دو اصل زیر برای احتمال پیشامدهای مختلف برقرار است.

1) همواره عددی بین 0 و1 ست
2) احتمال پیشامد قطعی برابر 1 و احتمال پیشامد نا ممکن برابر صفر است.

همبستگی

                                       ضریب همبستگی

 

همبستگی : رابطه بین دو یا چند متغیر را همبستگی می گویند.

همبستگی مثبت (مستقیم) : افزایش یا کاهش یکی باعث افزایش یا کاهش دیگری می شود.

همبستگی منفی (غیر مستقیم) : افزایش یکی باعث کاهش دیگری و بلعکس.

ضریب همبستگی: شاخصی آماری برای نشان دادن شدت و حدود همبستگی .

ضریب همبستگی پیرسون(r xy) : زمانی مورد استفاده است که متغیر های مورد مطالعه با استفاده از مقیاس فاصله ای یا نسبی اندازه گیری شده باشند.

ضریب همبستگی اسپیرمن( r s ):  زمانی مورد استفاده است که متغیر های مورد مطالعه با استفاده از مقیاس رتبه ای یا نسبی اندازه گیری شده باشند.

 

مفروضه ها ضریب همبستگی پیرسون :

 1- رابطه خطی بین متغیر ها

  2- توزیع ها دارای شکل مشابه باشند

 3- نمودار پراکندگی یکسان باشد.

 ضریب تعیین: با محاسبه این ضریب می توان تعیین کرد که چند درصد از کل واریانس X ناشی از واریانس Y است . این ضریب میزان تغییراتی را که بوسیله یک متغیر برای متغیر دیگر تعیین می شود محاسبه می کند . که فرمول آن عبارت است از ضریب همبستگی پیرسون به توان 2  ضرب در 100 .

نکته: از ضریب همبستگی نمی توان روابط علت و معلولی را نتیجه گرفت .

پیش بینی : چنانچه بین دو متغیر همبستگی وجود داشته باشد می توان نمره فردی را در یک متغیر از روی متغیر دیگر پیش بینی کرد ، دقت پیش بینی به شدت همبستگی بین متغیر پیش بینی شونده و متغیر پیش بینی کننده دارد. چنانچه همبستگی کامل باشد ( 1+ ، 1- ) پیش بینی کامل و دقیق امکان پذیر است .

هنگامی که همبستگی بین دو متغیر کامل نباشد پیش بینی یک برآورد خوب است نه بیان یک حقیقت مطلق.

بخش عمده و ذاتی پیش بینی رگرسیون است.

رگرسیون زمانی اتفاق می افتد که همبستگی بین دو متغیر کامل نباشد.(1+ ، 1- نباشد