معلومة

الطرق التحليلية لتقدير احتمالية التثبيت

الطرق التحليلية لتقدير احتمالية التثبيت


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

إن احتمال تثبيت الأليل $ P $ هو مقياس مهم للغاية وتوجد عدة حلول لتقدير هذا الاحتمال. كل طريقة لها افتراضاتها الخاصة وغالبًا ما يكون من الصعب تذكر الطرق الموجودة وما هي افتراضاتهم.

على سبيل المثال ، يستخدم البعض $ P = 2s $ ، ومن الواضح أن هذا لا يمكن أن يكون مناسبًا لقيم s ، ولا للطفرات الضارة ، وبالتالي ، يبدو أن هذا التقريب يجعل حجم السكان كبيرًا فقط. طور هالدين طريقة لحساب احتمالية التثبيت بناءً على افتراض أن الخصوبة تتبع التوزيع ذي الحدين. استخدم Kimura معادلة الانتشار لتقريب احتمالية التثبيت. قد توجد حلول أخرى. لا أعتقد أنني رأيت معادلة تسمح بتغير تأثير الهيمنة $ h $.

هل يمكنك عمل ملخص للطرق التي تعرفها لحساب احتمال التثبيت؟ لا تنس إبراز الافتراضات. ستكون المقارنة بين دقة الطرق المختلفة رائعة أيضًا.


تعريف

اثنان من أكثر التعريفات استخدامًا لـ Fشارع في موضع معين على أساس تباين ترددات الأليل بين السكان ، وعلى احتمال الهوية عن طريق النسب.

إذا [math] displaystyle < bar

> [/ math] هو متوسط ​​تكرار الأليل في إجمالي عدد السكان ، [math] displaystyle < sigma ^ 2_S> [/ math] هو التباين في تردد الأليل بين المجموعات السكانية الفرعية المختلفة ، مرجحًا بأحجام المجموعات السكانية الفرعية ، و [math] displaystyle < sigma ^ 2_T> [/ math] هو تباين الحالة الأليلية في إجمالي عدد السكان ، Fشارع يعرف بـ & # 911 & # 93

يوضح تعريف رايت أن Fشارع يقيس مقدار التباين الجيني الذي يمكن تفسيره من خلال التركيب السكاني. يمكن اعتبار هذا أيضًا جزءًا من التنوع الكلي الذي لا ينتج عن متوسط ​​التنوع داخل المجموعات السكانية الفرعية ، حيث يُقاس التنوع باحتمالية اختلاف أليلين تم اختيارهما عشوائيًا ، وهما [الرياضيات] displaystyle <2p (1- p)> [/ math]. إذا كان تردد الأليل في [math] displaystyle [/ math] هو [math] displaystyle [/ math] والحجم النسبي لـ [math] displaystyle [/ math ] العدد العاشر هو [الرياضيات] displaystyle [/ math] ، إذن

حيث [math] displaystyle [/ math] هو احتمال الهوية عن طريق نزول فردين بالنظر إلى أن الشخصين في نفس المجموعة السكانية الفرعية ، و [الرياضيات] displaystyle < bar> [/ math] هو احتمال أن يكون فردين من مجموع السكان متطابقين حسب النسب. باستخدام هذا التعريف ، Fشارع يمكن تفسيره على أنه قياس مدى قرب شخصين من نفس المجموعة السكانية الفرعية ، مقارنة بإجمالي السكان. إذا كان معدل الطفرات صغيرًا ، فيمكن جعل هذا التفسير أكثر وضوحًا من خلال ربط احتمالية الهوية بالنسب بأزمنة الالتحام: دع T0 و T تشير إلى متوسط ​​الوقت اللازم للاندماج للأفراد من نفس المجموعة السكانية الفرعية ومجموع السكان ، على التوالي. ثم،

[رياضيات] displaystyle تقريبا 1- فارك > [/ الرياضيات]

تتميز هذه الصيغة بميزة أنه يمكن بسهولة تقدير الوقت المتوقع للاندماج من البيانات الجينية ، مما أدى إلى تطوير تقديرات مختلفة لـ Fشارع.


مقدمة

تُستخدم نماذج المحاكاة على نطاق واسع لنمذجة انتشار العديد من الأمراض المعدية المختلفة والسيطرة عليها في كل من الطب البشري والطب البيطري 1 ، على سبيل المثال الملاريا 2 ، السارس 3 ، الأمراض المنقولة بالاتصال الجنسي 4 ، الأنفلونزا 5 ، MRSA 6 ، الإيبولا 7 ، داء الكلب 8 ، سكرابي 9 والتهاب الضرع 10. في هذه النماذج ، تُستخدم معدلات الانتقال لوصف تدفق الأفراد في مجموعة سكانية تنتقل من حالة حساسة إلى حالة مصابة ، ومن المهم الحصول على تقدير واقعي لمعدلات الانتقال من أجل إنشاء نماذج محاكاة مفيدة وواقعية لدعم القرار 11،12،13. يعد التقدير الدقيق لهذا المعدل أمرًا مهمًا لأنه يمكن أن يكون له تأثير كبير على تنبؤات النموذج والاستنتاجات (على سبيل المثال المراجع 11 ، 14). قد يكون للمعدل أسماء مختلفة اعتمادًا على التمثيل الرياضي المحدد للانتقال بين الحالات المعرضة للإصابة والمرض ، على سبيل المثال معدل العدوى ومعامل الانتقال ومعدل الانتقال. يصعب تقدير هذه المعلمة الرئيسية لمعظم نماذج العامل الممرض المضيف لأن العمليات الطبيعية عشوائية ، وتتأثر أحداث الإرسال بمعلمات أخرى غير ما يمكن تضمينه في نموذج الإرسال 1 ، 15. وبالتالي ، غالبًا ما تكون هناك حاجة إلى مجموعات بيانات كبيرة للوصول إلى تقدير جيد.

غالبًا ما تكون التجارب التي يمكن استخدامها لتقدير معدل الإرسال صعبة وتستغرق وقتًا طويلاً لإجراء 12. يمكن أن تكون إحدى الوسائل للحصول على بيانات طولية لتقدير معدل النقل هي أخذ عينة من السكان الفرعيين بدلاً من السكان بالكامل ، على سبيل المثال دراسة Backer وآخرون. تم استخدام البيانات الميدانية لتقدير معدل انتقال فيروس التهاب الكبد E في الخنازير ، حيث تم أخذ عينات فرعية حتى 5 ٪ من السكان. يمكن أن يكون هذا هو الحال على سبيل المثال إذا كان يجب صيد الحيوانات قبل أخذ العينات ، أو إذا كان عدد السكان كبيرًا ، أو إذا كان اختبار المرض مكلفًا 17. في مثل هذه الحالات ، يمكن أن يكون أخذ العينات الفرعية طريقة ملائمة ، لكن دقة التقدير يمكن أن تتعرض للخطر من خلال أخذ عينات أقل من الأفراد. أردنا تحديد هذا في الدراسة الحالية.

في الدراسات الطولية لانتقال المرض ، غالبًا ما تكون فترة أخذ العينات القصيرة مرغوبة لأنها توفر بيانات دقيقة عن الحدوث. من الناحية المثالية ، يجب أن تكون الفترة بين نقاط أخذ العينات هي متوسط ​​الوقت بين إصابة فرد واحد وإصابة الفرد التالي المصاب من الفرد الأول 18. ومع ذلك ، غالبًا ما يكون من غير العملي أخذ العينات بفترات قصيرة جدًا لأخذ العينات. على سبيل المثال ، استخدم كالي ورامسي 12 مخططًا لأخذ العينات بثلاث عينات في السنة ، واستخدم زادوكس وآخرون. 11 تؤخذ عينة كل ثلاثة أسابيع. إذا كان الوقت بين نقاط أخذ العينات طويلاً ، فقد يصاب بعض الأفراد بالعدوى ويتعافون بين نقاط أخذ العينات وبالتالي لا يتم تسجيلهم. وبالتالي ، سيتم التقليل من معدل الإرسال. علاوة على ذلك ، غالبًا ما تحتوي البيانات من الأنظمة البيولوجية على ضوضاء قد تؤثر على المعدل المقدر. قدرت العديد من الدراسات معدل الإرسال من البيانات الميدانية 11،16،19. ومع ذلك ، فقد قيمت دراسات قليلة مدى دقة معدلات الانتقال المقدرة في الواقع. اودي وآخرون. استخدم 20 مؤخرًا انحدار بواسون لتقدير معدل الإرسال وأظهر أن دقة التقدير تزداد مع عدد الفاشيات المستخدمة في التقدير. يطبخ وآخرون. استخدم 21 الاستدلال البايزي لإظهار أنه من المهم أخذ عدم تجانس السكان المكاني في الاعتبار عند تقدير معدلات الانتقال. على حد علمنا ، لم تستكشف أي دراسات سابقة دقة معدل الإرسال المقدر فيما يتعلق بمعدل إرسال محاكاة معروف ، وفترة أخذ العينات ونسبة أخذ العينات الفرعية.

أردنا في هذه الدراسة تقدير دقة معدلات الانتقال المقدرة من البيانات السكانية ، واخترنا قطيعًا من الألبان كمجتمع الدراسة. تشكل قطعان الأبقار الحلوب الحديثة مثالًا جيدًا على السكان حيث تتوفر العديد من البيانات على المستوى الفردي. علاوة على ذلك ، فهي تمثل نظامًا متحكمًا به في الغالب أنظمة حظيرة حرة تستدعي خلطًا متجانسًا بين الأبقار المرضعة. هذه الحقائق ، جنبًا إلى جنب مع عدد لا بأس به من الأمراض التي يمكن أن توجد في قطيع الألبان ، تجعلها وحدة دراسة جيدة لتقدير معدلات انتقال المرض.

تم إجراء عدد قليل من الدراسات مؤخرًا لتقدير معامل الانتقال من البيانات الموجودة في قطعان الماشية مع الأخذ في الاعتبار عدوى السالمونيلا 18 والتهاب الضرع 11،19،22،23،24. استخدمت معظم هذه الدراسات انحدار بواسون لتقدير معدل الإرسال من بيانات الحياة الواقعية ، على الرغم من أن بعضها استخدم أيضًا الانحدار ذي الحدين السالب. يتمثل التحدي المتمثل في تقدير معدلات الانتقال في أن المعدل المنخفض يمكن أن يؤدي إلى أعداد منخفضة جدًا من الإصابات الجديدة أو عدم وجودها في كل فترة زمنية ، مما قد يمنع استخدام إجراءات الانحدار باستخدام ارتباط سجل. لذلك قمنا بتطوير طريقتين جديدتين لتقدير معدل الإرسال ، وهما طريقتان قويتان لمواجهة هذه التحديات.

ميزة البيانات المحاكاة هي أنه يمكننا قياس مدى دقة معدلات الإرسال المقدرة. أردنا في هذه الدراسة استخدام نموذجين مع معدل انتقال معروف ، نموذج SIS بسيط (SISsim) مع حالتين مرضيتين فقط (حساسة ومصابة) ، ونموذج SIS معقد (SIScom) مع ثلاث حالات مرضية (حساس ، مصاب - سريري. ، and Infected - Clinical) يعكس نظامًا واقعيًا حيث تؤثر العوامل الخارجية مثل وفاة الأفراد المصابين وعلاجهم على ديناميكيات المرض داخل النظام.

كانت أهداف هذه الدراسة هي استكشاف تأثير الفاصل الزمني لأخذ العينات ، وأخذ العينات الفرعية للسكان وحجم معدل الانتقال نفسه ، على معدل النقل المقدر. علاوة على ذلك ، أردنا تقييم دقة ومتانة انحدار بواسون لاستخراج معدلات انتقال المرض ، لأن هذه الطريقة غالبًا ما تستخدم. نقدم أيضًا طريقتين جديدتين لتقدير معدل الإرسال أبسط وأكثر قوة. على حد علمنا ، لم يتم استخدام هذه الأساليب لتقدير معدلات الإرسال من قبل. قارنا الطرق الثلاث لتقييم الطريقة التي تقدر معدل الإرسال ليكون الأقرب إلى معدل الإرسال المعروف.


اختبار Chi-Square: هل هذه العملة عادلة أم مرجحة؟ (نشاط)

  1. يجب على كل فرد في الفصل أن يقلب عملة 2x ويسجل النتيجة (بافتراض أن الفئة هي 24).
  2. من المتوقع أن تهبط العملات العادلة بنسبة 50٪ رأسًا و 50٪ ذيول.
    • 50٪ من 48 نتيجة يجب أن تكون 24.
    • تمت كتابة 24 رأس و 24 ذيول بالفعل في العمود & ldquoExpected & rdquo.
  3. كفئة ، قم بتجميع النتائج في العمود & ldquoObserved & rdquo (إجمالي 48 تقليبًا للعملة المعدنية).
  4. في العمود الأخير ، اطرح الرؤوس المتوقعة من الرؤوس الملحوظة وقم بتربيعها ، ثم اقسم على عدد الرؤوس المتوقعة.
  5. في العمود الأخير ، اطرح ذيول المتوقع من ذيول الملحوظة وقم بتربيعها ، ثم اقسم على عدد ذيول المتوقعة.
  6. اجمع القيم معًا من العمود الأخير لتوليد قيمة X 2.
  7. قارن القيمة بالقيمة عند 0.05 مع DF = 1.
    • هناك فئتان أو فئتان (رأس أو ذيل) ، لذا DF = 2 & ndash 1 = 1.
    • هل قُلبت العملة عادلة (لم تنحرف بشكل ملحوظ عن 50:50)؟

دعنا نقول أن رميات العملة أسفرت عن 26 رأسًا و 22 ذيولًا. هل يمكننا أن نفترض أن العملة كانت غير عادلة؟ إذا ألقينا عملة عددًا فرديًا من المرات (على سبيل المثال 51) ، فإننا نتوقع أن تسفر النتائج عن 25.5 (50٪) رأسًا و 25.5 (50٪) ذيول. لكن هذا ليس احتمالًا. هذا عندما يكون اختبار X 2 مهمًا لأنه يحدد ما إذا كانت 26:25 أو 30:21 وما إلى ذلك ضمن احتمال وجود عملة معدنية عادلة.


4.3 نظرية الاحتمالات الأساسية

على الرغم من الحجج الأيديولوجية بين البايزيين والمتكررين ، فقد اتضح أن الناس يتفقون في الغالب على القواعد التي يجب أن تتبعها الاحتمالات. هناك العديد من الطرق المختلفة للوصول إلى هذه القواعد. يعتمد النهج الأكثر استخدامًا على أعمال أندريه كولموغوروف ، أحد أعظم علماء الرياضيات السوفييت في القرن العشرين. لن أخوض في الكثير من التفاصيل ، لكنني سأحاول إعطائك فكرة عن كيفية عملها. ولكي أفعل ذلك ، يجب أن أتحدث عن سروالي.

4.3.1 تقديم التوزيعات الاحتمالية

إحدى الحقائق المزعجة عن حياتي هي أنني أمتلك فقط 5 أزواج من البنطلونات: ثلاثة أزواج من الجينز ، والنصف السفلي من البدلة ، وزوج من السراويل الرياضية. والأكثر حزنًا ، لقد أعطيتهم أسماء: أسميهم (X_1 ) ، (X_2 ) ، (X_3 ) ، (X_4 ) و (X_5 ). أنا أفعل ذلك حقًا: ولهذا السبب ينادونني بالسيد الخيالي. الآن ، في أي يوم ، أختار بالضبط بنطلون واحد لأرتديه. حتى أنني لست غبيًا لدرجة أنني أحاول ارتداء بنطالين ، وبفضل سنوات من التدريب لم أذهب للخارج أبدًا دون ارتداء السراويل بعد الآن. إذا كنت سأصف هذا الموقف باستخدام لغة نظرية الاحتمالات ، فسأشير إلى كل زوج من السراويل (على سبيل المثال ، كل (X )) على أنه حدث ابتدائي. السمة الرئيسية للأحداث الأولية هي أنه في كل مرة نقوم فيها بملاحظة (على سبيل المثال ، في كل مرة أرتدي فيها بنطالًا) ، فإن النتيجة ستكون واحدة فقط من هذه الأحداث. كما قلت ، في هذه الأيام أرتدي دائمًا بنطالًا واحدًا بالضبط ، لذا فإن سروالي يلبي هذا القيد. وبالمثل ، فإن مجموعة كل الأحداث المحتملة تسمى أ فضاء العينة. صحيح أن بعض الناس يسمونها "خزانة ملابس" ، ولكن هذا لأنهم يرفضون التفكير في سروالي من منظور احتمالي. حزين.

حسنًا ، بعد أن أصبح لدينا مساحة نموذجية (خزانة ملابس) ، تم بناؤها من العديد من الأحداث الأولية المحتملة (السراويل) ، ما نريد القيام به هو تخصيص احتمالا لواحد من هذه الأحداث الابتدائية. بالنسبة لحدث (X ) ، فإن احتمال هذا الحدث (P (X) ) هو رقم يقع بين 0 و 1. وكلما زادت قيمة (P (X) ) ، زاد احتمال حدوث الحدث سيحدث. لذلك ، على سبيل المثال ، إذا كان (P (X) = 0 ) ، فهذا يعني أن الحدث (X ) مستحيل (على سبيل المثال ، أنا لا أرتدي تلك السراويل مطلقًا). من ناحية أخرى ، إذا (P (X) = 1 ) فهذا يعني أن الحدث (X ) سيحدث بالتأكيد (على سبيل المثال ، أنا أرتدي تلك السراويل دائمًا). بالنسبة لقيم الاحتمالية في المنتصف ، فهذا يعني أنني أرتدي تلك السراويل أحيانًا. على سبيل المثال ، إذا (P (X) = 0.5 ) فهذا يعني أنني أرتدي تلك السراويل نصف الوقت.

في هذه المرحلة ، نحن على وشك الانتهاء. آخر شيء يجب أن ندركه هو أن "شيئًا ما يحدث دائمًا". في كل مرة أرتدي فيها البنطال ، ينتهي بي الأمر بارتداء البنطال (مجنون ، أليس كذلك؟). ما تعنيه هذه العبارة المبتذلة إلى حد ما ، من الناحية الاحتمالية ، هو أن احتمالات الأحداث الأولية تحتاج إلى إضافة ما يصل إلى 1. وهذا يُعرف باسم قانون الاحتمال الكلي، لا يعني ذلك أن أيًا منا يهتم حقًا. والأهم من ذلك ، إذا تم استيفاء هذه المتطلبات ، فإن ما لدينا هو ملف توزيع الاحتمالات. على سبيل المثال ، هذا مثال على توزيع احتمالي

أي بنطلون؟ ملصق احتمالا
جينز أزرق (X_1 ) (ف (X_1) = .5 )
جينز رمادي (X_2 ) (ف (X_2) = .3 )
جينز أسود (X_3 ) (ف (X_3) = .1 )
بدلة سوداء (X_4 ) (ف (X_4) = 0 )
بدلة رياضية زرقاء (X_5 ) (ف (X_5) = .1 )

كل حدث له احتمال يقع بين 0 و 1 ، وإذا جمعنا احتمالية كل الأحداث ، فسيكون مجموعها 1. رائع. يمكننا حتى رسم رسم بياني شريطي جميل لتصور هذا التوزيع ، كما هو موضح في الشكل 4.2. وفي هذه المرحلة ، حققنا جميعًا شيئًا ما. لقد تعلمت ما هو توزيع الاحتمالات ، وتمكنت أخيرًا من إيجاد طريقة لإنشاء رسم بياني يركز بالكامل على سروالي. الجميع يفوز!

الشكل 4.2: تصوير مرئي لتوزيع احتمالية البنطال. هناك خمسة أحداث ابتدائية تقابل خمسة أزواج من البنطلونات التي أمتلكها. كل حدث له بعض احتمالية الحدوث: هذا الاحتمال هو رقم بين 0 إلى 1. مجموع هذه الاحتمالات هو 1

الشيء الآخر الوحيد الذي يجب أن أشير إليه هو أن نظرية الاحتمالات تسمح لك بالحديث عنه الأحداث غير الابتدائية وكذلك الابتدائية. أسهل طريقة لتوضيح المفهوم هي باستخدام مثال. في مثال البنطال ، من الشرعي تمامًا الإشارة إلى احتمال أن أرتدي الجينز. في هذا السيناريو ، يُقال أن حدث "Dan wears jeans" حدث طالما أن الحدث الأولي الذي حدث بالفعل هو أحد الأحداث المناسبة في هذه الحالة "الجينز الأزرق" أو "الجينز الأسود" أو "الجينز الرمادي". من الناحية الرياضية ، حددنا حدث "الجينز" (E ) ليتوافق مع مجموعة الأحداث الأولية ((X_1، X_2، X_3) ). في حالة حدوث أي من هذه الأحداث الأولية ، يُقال أيضًا إن (E ) قد حدث. بعد أن قررت كتابة تعريف (E ) بهذه الطريقة ، من السهل جدًا تحديد الاحتمال (P (E) ): نجمع كل شيء فقط. في هذه الحالة بالذات [P (E) = P (X_1) + P (X_2) + P (X_3) ] وبما أن احتمالات الجينز الأزرق والرمادي والأسود على التوالي .5 و .3 و .1 ، احتمال أن أرتدي الجينز يساوي 0.9.

في هذه المرحلة ، قد تفكر في أن كل هذا واضح وبسيط للغاية وأنك على حق. كل ما فعلناه حقًا هو التفاف بعض الرياضيات الأساسية حول عدد قليل من بديهيات الفطرة السليمة. ومع ذلك ، من هذه البدايات البسيطة ، من الممكن بناء بعض الأدوات الرياضية القوية للغاية. أنا بالتأكيد لن أخوض في التفاصيل في هذا الكتاب ، ولكن ما سأفعله هو سرد بعض القواعد الأخرى التي ترضيها الاحتمالات. يمكن اشتقاق هذه القواعد من الافتراضات البسيطة التي أشرت إليها أعلاه ، ولكن نظرًا لأننا لا نستخدم هذه القواعد فعليًا لأي شيء في هذا الكتاب ، فلن أفعل ذلك هنا.

بعض القواعد الأساسية التي يجب أن تفي بها الاحتمالات. لا تحتاج حقًا إلى معرفة هذه القواعد لفهم التحليلات التي سنتحدث عنها لاحقًا في الكتاب ، لكنها مهمة إذا كنت تريد فهم نظرية الاحتمالات بشكل أعمق قليلاً.
إنجليزي الرموز معادلة
لا (ا ) (ف (نيج أ) ) (=) (1-ف (أ) )
(ا او ب) (ف (أ كوب ب) ) (=) (ف (أ) + ف (ب) - ف (أ غطاء ب) )
(أ و ب) (ف (أ غطاء ب) ) (=) (ف (أ | ب) ف (ب) )

الآن بعد أن أصبح لدينا القدرة على "تعريف" الأحداث غير الأولية من حيث الأحداث الأولية ، يمكننا في الواقع استخدام هذا لبناء (أو ، إذا كنت تريد أن تكون متحمسًا للرياضيات ، "اشتقاق") بعض قواعد الاحتمال الأخرى. هذه القواعد مذكورة أعلاه ، وبينما أنا واثق تمامًا من أن عددًا قليلاً جدًا من قرائي يهتمون بالفعل بكيفية إنشاء هذه القواعد ، سأوضح لك على أي حال: على الرغم من أنها مملة وربما لن يكون لديك الكثير لاستخدام هذه الاشتقاقات ، إذا قرأتها مرة أو مرتين وحاولت معرفة كيفية عملها ، فستجد أن هذا الاحتمال يبدأ في الشعور بقليل من الغموض ، ومع أي حظ أقل صعوبة. هكذا يذهب هنا. أولاً ، من أجل بناء القواعد ، سأحتاج إلى مساحة عينة (X ) تتكون من مجموعة من الأحداث الأولية (x ) ، وحدثين غير أوليين ، سأسميهما ( أ و ب) . لنفترض: [ ابدأ X & amp = & amp (x_1، x_2، x_3، x_4، x_5) A & amp = & amp (x_1، x_2، x_3) B & amp = & amp (x_3، x_4) end] لجعل هذا الأمر أكثر واقعية ، دعنا نفترض أننا ما زلنا نتحدث عن توزيع السراويل. إذا كان الأمر كذلك ، فإن (A ) يتوافق مع حدث "الجينز" ، و (B ) يتوافق مع الحدث "أسود": [ start mbox <`` jeans & # 39 & # 39> & amp = & amp ( mbox <`` blue jeans & # 39 & # 39>، mbox <`` grey jeans & # 39 & # 39>، mbox <`` جينز أسود & # 39 & # 39>) mbox <`` black & # 39 & # 39> & amp = & amp ( mbox <`` black jeans & # 39 & # 39>، mbox <`` black suit & # 39 & # 39>) end] فلنبدأ الآن في التحقق من القواعد التي أدرجتها في الجدول.

في السطر الأول ، يوضح الجدول أن [P ( neg A) = 1- P (A) ] وماذا يعني هو أن احتمال "not (A )" يساوي 1 ناقص احتمال (A ). فكرة لحظة (ومثال ممل) يوضحان لماذا يجب أن يكون هذا صحيحًا. إذا كان (A ) يتوافق مع حتى أنني أرتدي الجينز (على سبيل المثال ، واحد من (x_1 ) أو (x_2 ) أو (x_3 ) يحدث) ، فإن التعريف الوحيد المعنى لـ "لا (أ ) ) "(والذي يُشار إليه رياضيًا كـ ( neg A )) يعني أن ( neg A ) يتكون من الكل الأحداث الأولية التي لا تنتمي إلى (أ ). في حالة توزيع البنطلونات ، فهذا يعني أن ( neg A = (x_4، x_5) ) ، أو قولها بالإنجليزية: "ليس الجينز" يتكون من جميع أزواج البنطلونات غير الجينز (على سبيل المثال ، البدلة السوداء والبدلة الزرقاء). وبالتالي ، فإن كل حدث ابتدائي فردي ينتمي إما إلى (A ) أو ( neg A ) ، ولكن ليس كلاهما. حسنًا ، دعونا الآن نعيد ترتيب بياننا أعلاه: [P ( neg A) + P (A) = 1 ] وهي طريقة مبتذلة للقول إما أنني أرتدي الجينز أو لا أرتدي الجينز: احتمال "ليس جينز" بالإضافة إلى احتمال "جينز" هو 1. رياضياً: [ ابدأ P ( neg A) & amp = & amp P (x_4) + P (x_5) P (A) & amp = & amp P (x_1) + P (x_2) + P (x_3) النهاية] لذلك [ ابدأ الفوسفور ( neg A) + P (A) & amp = & amp P (x_1) + P (x_2) + P (x_3) + P (x_4) + P (x_5) & amp = & amp sum_ P (x) & amp = & amp 1 end] ممتاز. يبدو أن كل شيء يعمل.

واو ، يمكنني سماعك تقول. هذا كثير من (س ) ليخبرني ما هو مرعب. وأنت على حق: هذا يكون ينقط واضح. الكل نقطة من نظرية الاحتمالية لإضفاء الطابع الرسمي والرياضيات على عدد قليل جدًا من بديهيات الحس السليم الأساسية. لذلك دعونا نواصل هذا الخط الفكري إلى الأمام قليلاً. في القسم الأخير ، حددت حدثًا مطابقًا لـ ليس أ ، الذي أشرت إليه ( نيف أ ). دعنا الآن نحدد حدثين جديدين يتوافقان مع مفاهيم يومية مهمة: (أ ) و (ب ) و (أ ) أو (ب) . لأكون دقيقا:

البيان الإنجليزي: تدوين رياضي:
يحدث كل من " (A ) و (B )" (أ غطاء ب )
يحدث واحد على الأقل من " (A ) أو (B )" (أ كوب ب )

نظرًا لأن (A ) و (B ) تم تعريفهما وفقًا لأحداثنا الأولية ( (س ) ث) ، سنحتاج إلى محاولة وصف (أ غطاء ب ) و (أ كوب ب ) من حيث أحداثنا الابتدائية أيضًا. يمكننا أن نفعل هذا؟ نعم يمكننا الطريقة الوحيدة التي يمكن أن يحدث بها كل من (A ) و (B ) هي إذا تبين أن الحدث الأولي الذي نلاحظه ينتمي إلى كل من (A ) و (B ). وبالتالي فإن " (A cap B )" يشمل فقط تلك الأحداث الأولية التي تنتمي إلى (A ) و (B ) ... [ start A & amp = & amp (x_1، x_2، x_3) B & amp = & amp (x_3، x_4) A cap B & amp = & amp (x_3) end] حسنًا ، الطريقة الوحيدة التي يمكنني من خلالها ارتداء "الجينز" ((x_1، x_2، x_3) ) و "السراويل السوداء" ((x_3، x_4) ) هي ارتداء "الجينز الأسود" ((x_3) ). انتصار آخر للدماء واضح.

في هذه المرحلة ، لن تصاب بالصدمة على الإطلاق من تعريف (أ كوب ب ) ، على الرغم من أنك ربما ستشعر بالملل الشديد منه. الطريقة الوحيدة التي يمكنني بها ارتداء "الجينز" أو "السراويل السوداء" هي إذا كان البنطال الأساسي الذي أرتديه بالفعل ينتمي إلى (أ ) أو (ب ) ، أو كليهما. لذا… [ ابدأ A & amp = & amp (x_1، x_2، x_3) B & amp = & amp (x_3، x_4) A cup B & amp = & amp (x_1، x_2، x_3، x_4) end] اوه نعم حبيبي. الرياضيات في أفضل حالاتها.

لذلك ، حددنا ما نعنيه ب (A cap B ) و (A cup B ). فلنقم الآن بتعيين الاحتمالات لهذه الأحداث. بشكل أكثر تحديدًا ، لنبدأ بالتحقق من القاعدة التي تدعي أن: [P (A cup B) = P (A) + P (B) - P (A cap B) ] باستخدام تعريفاتنا في وقت سابق ، نعلم ذلك (A cup B = (x_1، x_2، x_3، x_4) ) ، لذلك [P (A cup B) = P (x_1) + P (x_2) + P (x_3) + P (x_4) ] والاستفادة بشكل مماثل من حقيقة أننا نعرف الأحداث الأولية التي تنتمي إلى (A ) و (B ) و (A cap B )…. [يبدأ P (A) & amp = & amp P (x_1) + P (x_2) + P (x_3) P (B) & amp = & amp P (x_3) + P (x_4) P (A cap B) & amp = & أمبير ف (x_3) نهاية] وبالتالي [ تبدأ P (A) + P (B) - P (A cap B) & amp = & amp P (x_1) + P (x_2) + P (x_3) + P (x_3) + P (x_4) - P (x_3) & amp = & amp P (x_1) + P (x_2) + P (x_3) + P (x_4) & amp = & amp P (A cup B) end] منتهي.

المفهوم التالي الذي نحتاج إلى تعريفه هو مفهوم " (B ) معطى (A )" ، والذي يتم كتابته عادةً (B | A ). إليكم ما أعنيه: لنفترض أنني استيقظت ذات صباح ، وارتديت بنطالًا. حدث حدث أولي (x ). لنفترض كذلك أنني أصرخ على زوجتي (الموجودة في الغرفة الأخرى ، وبالتالي لا أستطيع رؤية سروالي) "أنا أرتدي الجينز اليوم!". بافتراض أنها تعتقد أنني أقول الحقيقة ، فهي تعلم أن (أ ) صحيح. منح أنها تعرف أن (أ ) قد حدث ، ما هو احتمال مشروط هذا (ب ) صحيح أيضًا؟ حسنًا ، دعونا نفكر فيما تعرفه. ها هي الحقائق:

الأحداث غير الجينز مستحيلة. إذا كان (A ) صحيحًا ، فإننا نعلم أن الأحداث الأولية الوحيدة الممكنة التي يمكن أن تحدث هي (x_1 ) ، (x_2 ) و (x_3 ) (على سبيل المثال ، الجينز). الأحداث غير الجينز (x_4 ) و (x_5 ) أصبحت الآن مستحيلة ، ويجب تعيين الاحتمال صفر. بعبارة أخرى ، لدينا فضاء العينة يقتصر على أحداث الجينز. ولكن لا تزال احتمالات هذه الأحداث هي الحال يجب خلاصة 1: نحن نعلم على وجه اليقين أنني أرتدي الجينز.

لم تتعلم شيئًا عن الجينز الذي أرتديه. قبل إعلاني أنني كنت أرتدي الجينز ، كانت تعلم بالفعل أنه من المحتمل أن أرتدي الجينز الأزرق بخمس مرات ( (P (x_1) = 0.5 )) من ارتداء الجينز الأسود ( (P (x_3)) ) = 0.1 )). إعلاني لا يغير هذا ... قلت ولا شيء حول لون الجينز الخاص بي ، لذلك يجب أن تظل الحالة التي (P (x_1) / P (x_3) ) كما هي ، بقيمة 5.

هناك طريقة واحدة فقط لتلبية هذه القيود: عيّن الأحداث المستحيلة بحيث يكون الاحتمال صفريًا (على سبيل المثال ، (P (x | A) = 0 ) إذا لم يكن (x ) في (A )) ، ثم اقسم احتمالات الآخرين على (P (A) ). في هذه الحالة ، نظرًا لأن (P (A) = 0.9 ) ، نقسم على 0.9. هذا يعطي:

أي بنطال؟ حدث ابتدائي احتمال قديم ، (P (x) ) احتمال جديد ، (P (x | A) )
جينز أزرق (x_1 ) 0.5 0.556
جينز رمادي (س_2 ) 0.3 0.333
جينز أسود (x_3 ) 0.1 0.111
بدلة سوداء (x_4 ) 0 0
بدلة رياضية زرقاء (س_5 ) 0.1 0

من الناحية الرياضية ، نقول أن [P (x | A) = frac] إذا كان (س في أ ) ، و (ف (س | أ) = 0 ) وإلا. وبالتالي ... [ ابدأ الفوسفور (B | A) & amp = & amp P (x_3 | A) + P (x_4 | A) & amp = & amp displaystyle frac + 0 & amp = & amp displaystyle frac نهاية] الآن ، مع التذكير بأن (A cap B = (x_3) ) ، يمكننا كتابة هذا كـ [P (B | A) = frac] وإذا ضربنا كلا الجانبين في (P (A) ) نحصل على: [P (A cap B) = P (B | A) P (A) ] وهي القاعدة الثالثة التي لدينا المدرجة في الجدول.


أساليب

تفاصيل المحاكاة

تم تنفيذ جميع عمليات المحاكاة كطريقة Gillespie التالية للتفاعل. بالنسبة لمحاكاة المرض الفردي ، يتم إدخال العدوى في فرد عشوائي واحد ، ويتم تشغيل المحاكاة حتى ينقرض المرض أو يصل إلى حالة شبه مستقرة (QSS) ، أو رالأعلى= 1،000 ، أيهما يحدث أولاً. يتم تعريف QSS عندما يكون هناك & lt2٪ فرق بين متوسط ​​الانتشار خلال الثلث الأخير من إجمالي وقت المحاكاة والثلث الأوسط ، بعد الاحتراق الأولي في فترة ريحرق=100/γ. بالنسبة لشبكة العالم الصغير التي لا تحتوي على أسلاك مجدولة ، كان من الضروري زيادتها رالأعلى إلى 10000 و ريحرق إلى 1،000 /γ. يتم حساب احتمالية الظهور عندما ينفد جزء من المكان الذي لا ينقرض فيه المرض. تمت محاكاة ما لا يقل عن 7000 عملية تشغيل لكل قيمة معلمة.

بالنسبة لمحاكاة الغزو ثنائي السلالة ، يتم إدخال السلالة المقيمة أولاً على مستوى عالٍ لتجنب الانقراض المبكر والسماح لها بالوصول إلى QSS (الانتظار على الأقل ريحرق). ثم يتم اختيار فرد مصاب بالعدوى بشكل عشوائي ليكون مصابًا بالسلالة الطافرة. يتم حساب احتمال التثبيت على أنه الجزء المتوسط ​​من محاولات الغزو حيث تنقرض السلالة المقيمة بينما لا تزال السلالة الغازية باقية. يدير حيث بقيت كلا سلالتي المرض بعد رالأعلى كانت نادرة ولم يتم تضمينها في النتائج المبلغ عنها. تم إنشاء شبكات جديدة بشكل عشوائي لكل تشغيل محاكاة ، مما أدى إلى ما لا يقل عن 6000 محاولة غزو لكل معلمة.

قيمة ال β1 الذي تم فيه إدخال السلالة الطافرة بحيث يكون مستوى QSS متساويًا تقريبًا لجميع الشبكات. بالنسبة للشكل 2 د ، و (الشبكات التجريبية والنظرية) والشكل 3 ز (شبكات العالم الصغير) ، استخدمنا β1(‹ك›−1)/γ1= 3 ، وللشكيلين 3d و 4 h (شبكات جاما الموزعة) ، استخدمناها β1(‹ك›−1)/γ1= 1.5. لم يغير تغيير هذه القيم من الاتجاهات التي لوحظت ما لم يكن مستوى QSS مختلفًا جدًا بين الشبكات.

معامل التجميع

معامل التجميع φ، يُعرف أيضًا باسم "معامل التجميع العالمي" أو "العبور" 2،23. يتم تعريفه على أنه نسبة عدد المثلثات في الشبكة (مجموعات من ثلاث عقد متصلة ببعضها البعض) إلى عدد ثلاثة توائم (مجموعة من ثلاث عقد مع وصلتين على الأقل بينهما). لو أ هي المصفوفة المجاورة للشبكة ، إذن

خوارزميات توليد الشبكة

بالنسبة للشبكة الموحدة ، جميع الأفراد لديهم نفس الدرجة. نستخدم نموذج التكوين ، معبراً عنه بخوارزمية اتصال أبتر ، لإنشاء رسوم بيانية عشوائية بتوزيع درجات محدد. من خلال ربط الأفراد بشكل عشوائي ، نقوم بتقليل بنية الترتيب الأعلى 32. لكل عقدة نمنحها درجة أولاً ك، ثم قم بإنشاء مجموعة من ك بذرة تمثل كل من هذه الحواف مع ذيل واحد فقط متصل بالعقدة. نكرر هذا مع جميع العقد ثم نجمع هذه النتوءات في مجموعة رئيسية. ثم يتم تقسيم هذه المجموعة بشكل عشوائي إلى نصفين ، ويتم مطابقة كعب من كل مجموعة فرعية بواحد من مجموعة فرعية أخرى ، مما يشكل حافة كاملة. إذا كان هناك عدد غير متساوٍ من البذرات ، يُعطى الفرد العشوائي كعبًا إضافيًا. لا نسمح بالاتصالات الذاتية أو تكرار الحواف بين العقد.

بالنسبة لشبكة الدرجات الموزعة بأشعة غاما ، يتم منح كل فرد درجة مستمدة من إصدار منفصل لتوزيع جاما بدرجة متوسطة.ك›و sd. σك. تم اختيار توزيع جاما لأنه يسمح بتغيير المتوسط ​​والتباين بشكل مستقل ، مع أي تباين ممكن بين الصفر واللانهاية. تم إجراء التقدير عن طريق رسم رقم عشوائي أولاً من توزيع غاما المستمر بمتوسط ​​‹ك›−1 و sd. σك، بالتقريب إلى أقرب عدد صحيح ، ثم إضافة 1. تم التأكيد عدديًا على أن هذا يؤدي إلى إنشاء توزيع بالخصائص المرغوبة على النطاق المطلوب لـ ‹ك> و σك القيم. يتم بعد ذلك إنشاء الشبكة باستخدام خوارزمية التوصيل الجذري (انظر أعلاه).

بالنسبة للشبكة العشوائية ، نستخدم نموذج Erdös-Rényí / Gilbert 33،34. يتم إنشاء حافة بين كل زوج من الأفراد مع احتمال ص، بغض النظر عن وجود الحواف الأخرى. يكون توزيع الدرجات الناتج ذو حدين ، بمتوسط ​​درجة ‹ك›=ص(ن−1).

بالنسبة لشبكة العالم الصغير ، نستخدم الطريقة التي وصفها سانتوس وآخرون. 22 يتم ترتيب كل فرد أولاً في حلقة ، ثم يتم توصيله به م=‹ك›/ 2 أقرب جيران على كلا الجانبين. ثم يتم إعادة توصيل كل حافة من كل عقدة باحتمالية ص. تتضمن إعادة التوصيل فصلًا من العقدة البعيدة والاتصال بعقدة عشوائية أخرى غير ذاتية وغير مجاورة ، بحيث يتم تجنب الحواف المزدوجة والحفاظ على الدرجة الموحدة للشبكة.

بالنسبة للشبكة الخالية من المقاييس ، نستخدم نموذج Barabási-Albert للمرفق التفضيلي 35. تبدأ الشبكة كمجموعة متصلة بالكامل من م=‹ك›/ 2 عقد. تتم إضافة كل عقدة جديدة إلى الشبكة والاتصال بها م أفراد آخرون ، لكل منهم احتمال يتناسب مع الدرجة الحالية للأفراد. يؤدي هذا إلى إنشاء شبكة بتوزيع درجات وفقًا لقانون السلطة ، ص(ك) ∝ كالخامس مع الأس الخامس= 3 ومتوسط ​​درجة ‹ك›.

الشبكات التجريبية

بالنسبة لشبكة الاتصال الاجتماعي FHS ، استخدمنا شبكة موصوفة مسبقًا من جهات الاتصال الاجتماعية التي تم جمعها كجزء من دراسة فرامنغهام للقلب 36،37. تم ربط الأفراد المشاركين في الدراسة بأفراد الأسرة وزملاء العمل والأصدقاء المبلغين عن أنفسهم والذين تم تسجيلهم أيضًا في الدراسة. كانت هذه الشبكة متاحة لسبعة اختبارات بين عامي 1971 و 2000 ، واخترنا أقرب نقطة زمنية ، عندما كانت الشبكة هي الأكبر. مثلت هذه الشبكة 5،253 فردًا كانوا متصلين بشخص واحد آخر على الأقل. كان متوسط ​​الدرجة ‹ك›= 6.5 ، sd. كان في درجة σك= 6.8 ، وكان معامل التجميع φ=0.68.

بالنسبة لشبكة الاتصال بالمدرسة ، عملنا مع شبكة اتصال متاحة للجمهور تمت ملاحظتها بين الطلاب والمعلمين في مدرسة ابتدائية خلال يوم دراسي واحد 38. كان المشاركون يرتدون أجهزة استشعار إلكترونية تكشف عن قرب جسدي قريب وتسجيل الأوقات التي حدثت فيها هذه الاتصالات. وبالتالي فإن هذه الشبكة إما ديناميكية (إذا اعتبرنا ميزة موجودة بين الأفراد في وقت واحد ر provided they are in close proximity at that point) or weighted (if we sum up the total time two individuals spent within close proximity over the whole day). To simplify analysis and facilitate comparison with other example networks, we sampled a static, unweighted subnetwork from the full network by connecting every individual with a probability proportional to the total contact time. From this sampled network, we chose the giant component to ensure the population was a single connected graph. With this method the average degree is a free parameter determined by scaling the probability of each edge, and we chose it to agree with the FHS social network. The result was a network with 740 individuals, with an average degree ‹ك›=6.5, s.d. in degree σك=3.3, and clustering coefficient φ=0.04.

For the hospital contact network, we used data collected in a hospital setting to create a contact network of health-care workers and patients, which is freely available online at http://www.sociopatterns.org 39 . Similarly to the school network, participants wore electronic sensors and incidences of close physical proximity were recorded over 5 days, resulting in a dynamic/weighted network. We again sampled this network to generate a static, unweighted network with a single giant component. The result was a network with 68 individuals, with an average degree ‹ك›=6.5, s.d. in degree σك=5.3, and clustering coefficient φ=0.29.

For the NATSAL—sexual contact network, we used the results from the United Kingdom National Survey of Sexual Attitudes and Lifestyles (NATSAL) that is freely available online at http://www.natsal.ac.uk/ and has been published previously 40 . This survey collected the number of sexual partners over the last 5 years for a population of around 30,000 individuals (combining the NATSAL-1 and NATSAL-2 studies in 1990 and 2000). This degree distribution fits very well to a power law function 41 , , with exponent ν=2.5, كدقيقة=1, and . We then generated a degree sequence for ن=10,000 nodes and maximum degree that follows a power law with exponent ν, created a network from this degree sequence using the stub-connect algorithm described above for random networks. We extracted the giant component, resulting in a random network with an average 7,578 individuals, mean degree ‹ك›=2.7, mean s.d. in degree σك=4.9 and clustering coefficient φ=0.002.

Branching process calculations for disease emergence in networks

In the early stages of infection, when the number of infected individuals is very low, the SIS model in a heterogeneous host population can be approximated by a multi-type branching process. The particular stochastic process we choose to describe the epidemic is related to the ‘continuous offspring production’ model discussed in the viral dynamics literature 42 and has been previously used to study disease emergence 43 . Each individual of type أنا has a constant rate, صاي جاي, of producing infected individuals of type ي and also a constant rate of recovery, γ, akin to death with immediate replacement in other models. Other stochastic processes used to describe the initial phase of epidemics include ‘burst models’ where offspring distributions are specified بداهة (such as Kronecker delta 42 or Poisson 44,45 ), percolation models 46 , or independent infection probabilities 47 . The continuous offspring production model considered here mimics what occurs in most simulation algorithms, including ours, and may more closely represent biological reality. The offspring distribution is calculated لاحقة to be multinomial.

An important quantity to calculate is the probability generating function (PGF), Fأنا(س), for the number of secondary infections of individuals of each type, س=(سأنا, س2, …, سن), caused by a single-infected individual of type أنا. For this process, we derive

أين ي و (ي1,ي2,…,ين) are indices, ن is the total number of different types of individuals, and is the sum of all rates.

Using the definition of the basic reproductive ratio, ر0, as the average number of secondary infections produced by a single-infected individual, we can define multi-type reproductive ratios 44,45 ,

This allows us to use to write the PGF as

We now consider a network-structured population, where individuals are classified according to their degree ك. Individuals of type أنا are those who are connected to exactly كأنا other individuals. The frequency of individuals of degree أنا is given by ص(أنا). Following Yates وآخرون. 45 , we can break down in terms of the disease factors and structural factors,

أين β is the per-contact transmissibility of the disease, πاي جاي is the average number of type ي contacts a type أنا individual has (the mixing matrix), and νي is the susceptibility of type ي individual (1=fully susceptible, 0=fully resistant to infection). If we assume the network is constructed by the configuration model, that is, edges are joined randomly and there is no correlation between the degree of individuals on either side of an edge, then,

As we are interested in a fixed network structure, we immediately encounter a problem that does not occur when considering heterogeneous yet mixing populations. For all individuals other than the very first infected, the actual number of susceptible contacts will be one less than that given by πاي جاي, because the contact from whom the infection originated cannot be reinfected. For these secondary infections, we must consider the modified mixing matrix,

based on the concept of ‘excess degree’ 48 , and hence a modified reproductive ratio .

We want to calculate the probability that a disease introduced into a population causes an epidemic, as opposed to going extinct. In a random mixing population, standard branching process theory gives the ultimate extinction probability, for an infection originating in a type أنا individual, as the solution to xأنا=Fأنا(x). Taking into account the difference between those infected in first and later generation, we must first find the extinction probability for all those infected in later generation and then calculate the ultimate extinction probability starting from a single infection 47,49 ,

The emergence probability is then given by

For a homogeneous, well-mixed population, this calculation reduces to

For a homogeneous population with a fixed network structure with degree ك we only have a single type ك، مثل ذلك πاي جايπ=ك and , and the calculation reduces to

We can see from the first expression for صemerge above that, for a homogeneous fixed network structure, صemerge ⩽ 1−1/ر0 and, that صemerge=0 when .

There are certain limitations to this technique for estimating the emergence probability of diseases in networks. First, we assume an infinitely large random network. Second, host heterogeneity is modelled by dividing individuals into groups based on their degree. Hence, higher order structure is ignored, and so networks that contain high levels of assortativity or clustering may not be well represented with this method. The presence of clustering will decrease صemerge, while assortativity could either increase or decrease it. This method also ignores the issue that, in the SIS model (as opposed to the often considered SIR model), a recovered individual could become reinfected during early emergence, increasing صemerge. Hence, the branching process might underestimate the true probability of emergence for the SIS model, even in a well-mixed population.

Pair-wise equations for equilibrium disease behaviour in networks

Branching process calculations can tell us about the probability of disease emergence by capturing stochastic effects that are important when disease levels are low, but do not accurately capture the dynamics as prevalence levels become significant. For this task, deterministic models that track both infected and susceptible individuals are appropriate.

We use the method of pair-wise equations 23 to describe disease dynamics in a network-structured population. We start with the full SIS pair-wise equations 50 ,

where [أك] describes the number of individuals with degree ك that are in state أ, [أكبم] describes the number of pairs of individuals where one member of the pair has degree ك and is in state أ and the other member is in state ب with degree م, and [أكبمجل] is analogous but for triples, with ب being the middle member. As the total size and structure of the population is constant, we can use [أناك]=[ك]−[سك], where [ك] is the total number of individuals with degree ك, [ك]=ص(ك)ن. These equations are exact, but, to completely describe the system, equations for higher order groups of individuals are needed, making them intractable. We make the following series of common approximations (detailed in House and Keeling 21 ) to close the equations:


مناقشة

We have built a model of optimal information sampling during simple choice in order to investigate the extent to which it can provide a quantitative account of fixation patterns, and their relationship with choices, during binary and trinary decisions. The model is based on previous work showing that simple choices are based on the sequential accumulation of noisy value samples [1, 44, 61–64] and that the process is modulated by visual attention [7, 9, 10, 17, 20, 21, 65]. However, instead of proposing a specific algorithmic model of the fixation and choice process, as is common in the literature, our focus has been on characterizing the optimal fixation policy and its implications. We build on previous work on optimal economic decision-making in which samples are acquired for all options at the same rate [40, 44–46], and extend it to the case of endogenous attention, where the decision maker can control the rate of information acquired about each option. We formalized the selection of fixations as a problem of dynamically allocating a costly cognitive resource in order to gain information about the values of the available options. Leveraging tools from metareasoning in artificial intelligence [50–53], we approximated the optimal solution to this problem, which takes the form of a policy that selects which item to fixate at each moment and when to terminate the decision-making process.

We found that, despite its simplicity, the optimal model accounts for many key fixation and choice patterns in two influential binary and trinary choice datasets [9, 10]. The model was also able to account for striking differences between the two- and three-item cases using a common set of parameters fitted out of sample. More importantly, the results provide evidence in favor of the hypothesis that the fixation process is influenced by the evolving value estimates, at least to some extent. Consider, for example, the increase in fixation duration over the course of the trial shown in Fig 4C, the tendency to equate fixation time across items (Fig 5B), and the relationship between the rating of the first fixated item and the probability of re-fixating it (Fig 6D and 6E). These effects are explained by our model, but are hard to explain with exogenous fixations, or with fixations that are correlated with the true value of the items, but not with the evolving value estimates (e.g., as in [17, 18, 66]).

Optimal information sampling models may appear inappropriate for value-based decision-making problems, in which perceptual uncertainty about the identity of the different choice items (often highly familiar junk foods) is likely resolved long before a choice is made. Two features of the model ameliorate this concern. First, the samples underlying value-based decisions are not taken from the external display (as in perceptual decisions), but are instead generated internally, perhaps by some combination of mental simulation and memory recall [47–49]. Second, the model makes the eye-mind assumption [15, 67]: what a person is looking at is a good indicator of what they are thinking about. Importantly, these assumptions implicitly underlie all sequential sampling models of value-based decision-making.

Our model is not the first to propose that the fixation and value-estimation processes might interact reciprocally. However, no previous models fully capture the key characteristics of optimal attention allocation, which appear to be at least approximated in human fixation behavior. For example, the Gaze Cascade Model [6] proposes that late in a trial subjects lock-in fixations on the favored option until a choice is made, [20] propose an aDDM in which the probability of fixating an item is given by a softmax over the estimated values, and [21] propose a Bayesian model of binary choice in which fixations are driven by relative uncertainty. In contrast to these models, the optimal model predicts that fixations are driven by a combination of the estimated uncertainty and relative values throughout the trial, and that attention is devoted specifically to the items with the top two value estimates. Although the data presented here strongly support the first prediction, further data are necessary to distinguish between the top-two rule and the softmax rule of [20].

Our results shed further light on the mechanisms underlying the classic attention-choice correlation that has motivated previous models of attention-modulated simple choice. First, our results highlight an important role of prior beliefs in sequential sampling models of simple choice (c.f. [68]). All previous models have assumed a prior mean of zero, either explicitly [21, 68] or implicitly [9, 10, 20]. Such a prior is negatively biased when all or most items have positive value, as is often the case in experimental settings. This bias is critical in explaining the classic attention-choice correlation effects because it creates a net-positive effect of attention on choice: if one begins with an underestimate, attending to an item will on average increase its estimated value. However, we found that the best characterization of the full behavior was achieved with a moderately biased prior, both in terms of our approximate likelihood and in the full set of behavioral patterns in the plots.

Our results also suggest another (not mutually exclusive) mechanism by which the attention-choice correlation can emerge: value-directed attention. We found that the optimal model with no prior bias (α = 1) predicts an attention-choice correlation in the trinary choice case. This is because, controlling for true values, an increase in estimated value (e.g., due to sample noise) makes the model more likely to both fixate and choose an item. This could potentially help to resolve the debate over additive vs. multiplicative effects of attention on choice [11, 13]. While the prior-bias mechanism predicts a multiplicative effect, the value-directed attention mechanism predicts that fixation time and choice will be directly related (as predicted by the additive model). Although we did not see strong evidence for value-directed attention in the binary dataset, such a bias has been shown in explicit information gathering settings [69] and could be at work in other binary choice settings.

Our work most closely relates to two recent lines of work on optimal information sampling for simple choice. First, Hébert and Woodford [70, 71] consider sequential sampling models based on rational inattention. They derive optimal sampling strategies under highly general information-theoretic constraints, and establish several interesting properties of optimal sampling, such as the conditions under which the evidence accumulation will resemble a jump or a diffusion process. In their framework, the decision maker chooses, at each time point, an arbitrary هيكل المعلومات, the probability of producing each possible signal under different true states of the world. In contrast, we specify a very small set of information structures, each of which corresponds to sampling a noisy estimate of one item’s value (Eq 1). This naturally associates each information structure with fixating on one of the items, allowing us to compare model predictions to human fixation patterns. Whether human attention more closely resembles flexible construction of dynamic information structures, or selection from a small set of fixed information structures is an interesting question for future research.

In a second line of work, concurrent to our own, Jang, Sharma, and Drugowitsch [68] develop a model of optimal information sampling for binary choice with the same Bayesian structure as our model and compare their predictions to human behavior in the same binary choice dataset that we use [9]. There are three important differences between the studies. First, they consider the possibility that samples can also be drawn in parallel for the unattended item, but with higher variance. However, they find that a model in which almost no information is acquired for the unattended item fits the data best, consistent with the assumptions of our model. Second, they use dynamic programming to identify the optimal attention policy almost exactly. This allows them to more accurately characterize truly optimal attention allocation. However, dynamic programming is intractable for more than two items, due to the curse of dimensionality. Thus, they could not consider trinary choice, which is of special interest because only this case makes value-directed attention optimal, and forces the decision-maker to decide which of the unattended items to fixate next, rather than simply when to switch to the other item. Third, they assumed (following previous work) that the prior mean is zero. In contrast, by varying the prior, we show that although a biased prior is needed to account for the attention-choice correlation in binary choice, the data is best explained by a model with only a moderately biased prior mean, about halfway between zero and the empirical mean.

We can also draw insights from the empirical patterns that the model fails to capture. These mismatches suggest that the model, which was designed to be as simple as possible, is missing critical components that should be explored in future work. For example, the underprediction of fixation durations early in the trial could be addressed by more realistic constraints on the fixation process such as inhibition of return, and the overprediction of the proportion of single-fixation trials in the two-item case could be explained with uncertainty aversion. Although not illustrated here, the model’s accuracy could be further improved by including bottom-up influences on fixations (e.g., spatial or saliency biases [18, 72]).

While we have focused on attention in simple choice, other studies have explored the role of attention in more complicated multi-attribute choices [5, 73–82]. None of these studies have carried out a full characterization of the optimal sampling process or how it compares to observed fixation patterns, although see [83, 84] for some related results. Extending the methods in this paper to that important case is a priority for future work. Finally, in contrast to many sequential sampling models, our model is not intended as a biologically plausible process model of how the brain actually makes decisions. Exploring how the brain might approximate the optimal sampling policy presented here, and also how optimal sampling might change under accumulation mechanisms such as decay and inhibition is another priority for future work.


Modeling Evolution Using the Probability of Fixation: History and Implications

Many models of evolution calculate the rate of evolution by multiplying the rate at which new mutations originate within a population by a probability of fixation. Here we review the historical origins, contemporary applications, and evolutionary implications of these “origin-fixation” models, which are widely used in evolutionary genetics, molecular evolution, and phylogenetics. Origin-fixation models were first introduced in 1969, in association with an emerging view of “molecular” evolution. Early origin-fixation models were used to calculate an instantaneous rate of evolution across a large number of independently evolving loci in the 1980s and 1990s, a second wave of origin-fixation models emerged to address a sequence of fixation events at a single locus. Although origin-fixation models have been applied to a broad array of problems in contemporary evolutionary research, their rise in popularity has not been accompanied by an increased appreciation of their restrictive assumptions or their distinctive implications. We argue that origin-fixation models constitute a coherent theory of mutation-limited evolution that contrasts sharply with theories of evolution that rely on the presence of standing genetic variation. A major unsolved question in evolutionary biology is the degree to which these models provide an accurate approximation of evolution in natural populations.

Article DOI

Copyright © 2014 by The University of Chicago Press. كل الحقوق محفوظة.


Examples of Use of the Binomial Model

1. Relief of Allergies

Suppose that 80% of adults with allergies report symptomatic relief with a specific medication. If the medication is given to 10 new patients with allergies, what is the probability that it is effective in exactly seven?

First, do we satisfy the three assumptions of the binomial distribution model?

  1. The outcome is relief from symptoms (yes or no), and here we will call a reported relief from symptoms a 'success.'
  2. The probability of success for each person is 0.8.
  3. The final assumption is that the replications are independent, and it is reasonable to assume that this is true.

The probability of 7 successes is:

But many of the terms in the numerator and denominator cancel each other out,

so this can be simplified to:

Interpretation: There is a 20.13% probability that exactly 7 of 10 patients will report relief from symptoms when the probability that any one reports relief is 80%.

Note: Binomial probabilities like this can also be computed in an Excel spreadsheet using the =BINOMDIST function. Place the cursor into an empty cell and enter the following formula:

where x= # of 'successes', n = # of replications or observations, and p = probability of success on a single observation.

What is the probability that none report relief? We can again use the binomial distribution model with n=10, x=0 and p=0.80.

Interpretation: There is practically no chance that none of the 10 will report relief from symptoms when the probability of reporting relief for any individual patient is 80%.

What is the most likely number of patients who will report relief out of 10? If 80% report relief and we consider 10 patients, we would expect that 8 report relief. What is the probability that exactly 8 of 10 report relief? We can use the same method that was used above to demonstrate that there is a 30.30% probability that exactly 8 of 10 patients will report relief from symptoms when the probability that any one reports relief is 80%. The probability that exactly 8 report relief will be the highest probability of all possible outcomes (0 through 10).

2. The Probability of Dying after a Heart Attack

The likelihood that a patient with a heart attack dies of the attack is 0.04 (i.e., 4 of 100 die of the attack). Suppose we have 5 patients who suffer a heart attack, what is the probability that all will survive? For this example, we will call a success a fatal attack (p = 0.04). We have n=5 patients and want to know the probability that all survive or, in other words, that none are fatal (0 successes).

We again need to assess the assumptions. Each attack is fatal or non-fatal, the probability of a fatal attack is 4% for all patients and the outcome of individual patients are independent. It should be noted that the assumption that the probability of success applies to all patients must be evaluated carefully. The probability that a patient dies from a heart attack depends on many factors including age, the severity of the attack, and other comorbid conditions. To apply the 4% probability we must be convinced that all patients are at the same risk of a fatal attack. The assumption of independence of events must also be evaluated carefully. As long as the patients are unrelated, the assumption is usually appropriate. Prognosis of disease could be related or correlated in members of the same family or in individuals who are co-habitating. In this example, suppose that the 5 patients being analyzed are unrelated, of similar age and free of comorbid conditions.

There is an 81.54% probability that all patients will survive the attack when the probability that any one dies is 4%. In this example, the possible outcomes are 0, 1, 2, 3, 4 or 5 successes (fatalities). Because the probability of fatality is so low, the most likely response is 0 (all patients survive). The binomial formula generates the probability of observing exactly x successes out of n.


Analytical Methods for Estimating Probability of Fixation - Biology

Analysis of Molecular Variance (AMOVA)

Population Differentiation

When a population is divided into isolated subpopulations, there is less heterozygosity than there would be if the population was undivided. Founder effects acting on different demes generally lead to subpopulations with allele frequencies that are different from the larger population. Also, these demes are smaller in size than the larger population since allele frequency in each generation represents a sample of the previous generation's allele frequency, there will be greater sampling error in these small groups than there would be in a larger undifferentiated population. Hence, genetic drift will push these smaller demes toward different allele frequencies and allele fixation more quickly than would take place in a larger undifferentiated population.

The decline in heterozygosity due to subdivision within a population has usually been quantified using an index known as Wright's F statistic, also known as the fixation index. ال F statistic is a measure of the difference between the mean heterozygosity among the subdivisions in a population, and the potential frequency of heterozygotes if all members of the population mixed freely and non-assortatively (Hartl and Clark 1997). The fixation index ranges from 0 (indicating no differentiation between the overall population and its subpopulations) to a theoretical maximum of 1, though in practice the observed fixation index is much less than 1 even in highly differentiated populations.

Fixation indexes can be determined for differentiated hierarchical levels of a population structure, to indicate, for example, the degree of differentiation within a population among groups of demes (FSG), within groups among demes (FGT), and within a population among demes (Fشارع) (Hartl and Clark 1997).

To determine the fixation index, the mean heterozygosity at each level must be determined. For a locus with two alternate alleles, allele frequency is symbolized as ص and the alternative form of the allele is equal to 1 – ص. For a population subdivided to three hierarchical levels, the mean heterozygosity for each level is then determined as follows:

(Table based on Hartl and Clark 1997.)

For each level of the population hierarchy, the mean allele frequency ص is determined, then the allele frequency is multiplied by 2(1 – ص) this product is the frequency of heterozygotes for that allele if panmixia occurs at that hierarchical level.

Once the heterozygosity at each hierarchical level is determined, F statistics can be calculated (Hartl and Clark 1997):

رايت F is based upon comparison of gene frequencies among demes, however, molecular data reveals not only the frequency of molecular markers, but can also tell us something about the amount of mutational differences between different genes. A technique that could be used to estimate population differentiation by analyzing differences between molecular sequences rather than assumed Mendelian gene frequencies would therefore be very useful.

Analysis of Molecular Variance (AMOVA) is a method of estimating population differentiation directly from molecular data and testing hypotheses about such differentiation. A variety of molecular data – molecular marker data (for example, RFLP or AFLP), direct sequence data, or phylogenetic trees based on such molecular data – may be analyzed using this method (Excoffier, et al. 1992).

AMOVA treats any kind of raw molecular data as a Boolean vector صأنا, that is, a 1 n matrix of 1s and 0s, 1 indicating the presence of a marker and 0 its absence. A marker could be a nucleotide base, a base sequence, a restriction fragment, or a mutational event (Excoffier, et al. 1992).

Euclidean distances between pairs of vectors are then calculated by subtracting the Boolean vector of one haplotype from another, according to the formula (صيصك). لو صيو صك are visualized as points in ن-dimensional space indicated by the intersections of the values in each vector, with ن being equal to the length of the vector, then the Euclidean distance is simply a scalar that is equal to the shortest distance between those two points. The squared Euclidean distances are then calculated using the equation . دبليو is a weighting matrix by default, it is an identity matrix and does not change the value of the final product however, دبليو can be a matrix with a number of values depending upon how one weights molecular change at different locations on a sequence or phylogenetic tree (Excoffier, et al. 1992).

Squared Euclidean distances are calculated for all pairwise arrangements of Boolean vectors, which are then arranged into a matrix, and partitioned into submatrices corresponding to subdivisions within the population (Excoffier, et al. 1992):

They are arranged in such a way that the submatrices on the diagonal of the larger matrix are pairs of individuals in the same population while those on the off-diagonal represent pairs of individuals from different populations. The sums of the diagonals in the matrix and submatrices yield sums of squares for the various hierarchical levels of the population.

These sums of squares can then be analyzed in a nested analysis of variance framework. A nested ANOVA differs from a simple ANOVA in that data is arranged hierarchically and mean squares are computed for groupings at all levels of the hierarchy. This allows for hypothesis tests of between-group and within-group differences at several hierarchical levels. The nested ANOVA framework for AMOVA is as follows (Excoffier, et al. 1992 Excoffier 2001):

The variance components can be used to calculate a series of statistics called phi-statistics ( F), which summarize the degree of differentiation between population divisions and are analogous to F-statistics. F - statistics are derived as follows (Excoffier, et al. 1992 Excoffier 2001):

أ F-statistic can be treated as a hypothesis about differentiation at that level of a population for example, Fشارع can be treated as a hypothesis about differentiation between the population and its component demes. These hypotheses can be tested using the null distribution of the variance components if the variance of the subpopulations does not significantly differ from the null distribution of the variance of the population, the hypothesis that those subpopulations are differentiated from the larger population would be rejected.

Because the molecular data consist of Euclidean distances derived from vectors of 1s and 0s, the data are unlikely to follow a normal distribution. A null distribution is therefore computed by resampling of the data (Excoffier, et al. 1992). In each permutation, each individual is assigned to a randomly chosen population while holding the sample sizes constant. These permutations are repeated many times, eventually building a null distribution. Hypothesis testing is carried out relative to these resampling distributions.

What assumptions are made about the data? The individuals from which haplotypes are sampled should be chosen independently and at random, or course. Since the null distributions are obtained by resampling, the Euclidean distances between haplotypes need not be assumed to be normally distributed or have homogeneity of variance.

Because of genetic drift, any one haplotype should not be assumed to be completely representative of variation among the whole genome. It is therefore important that the data are derived from an adequate number of markers or base pairs.

Certain assumptions are made about the nature of the population (Excoffier, et al. 1992), for example, that mating is entirely random and non-assortative and no inbreeding occurs. If non-random mating or inbreeding is occurring, it will result in lower heterozygosity, and if the rates of non-random mating or inbreeding differ between populations, fixation estimates will be confounded.

The effects of selection are not fully accounted for by this model. There is almost certain to be differing selective pressures among different subpopulations, and selection can have very different effects on different alleles and allele combinations. All variance among different allele frequencies due to genetic drift can be assumed to be the product of a degree of sampling error that is common to all alleles. However, selection acting on different alleles is non-random, hence any given between-population difference in the frequency of a given allele is potentially non-representative of allele frequency variation as a whole.

Again, use of a large number of markers makes it more likely that one is getting a representative cross-section of alleles. However, because of the non-random nature of the effects of selection on different allele frequencies, increasing the percentage of the genome that is sampled will not necessarily yield an unbiased estimate of allele differentiation across the whole genome, at least, not as readily as would be the case when compensating for the effects of differential genetic drift. Using neutral, non-selected genetic markers can be a useful means of avoiding the confounding effects of selection, if neutral markers can be identified.

AMOVA appears to be highly robust to the methods of estimating distance between haplotypes. Excoffier et al. (1992) examined the behavior of several different distance metrics. They constructed four different data sets using the same RFLP data, extracted from mtDNA sampled from 10 human populations in 5 geographical regions. The data sets were structured as follows:

د1: The distance matrix was constructed from individual restriction site differences, with all restriction sites weighted equally.

د2: The distance matrix was constructed from individual haplotypes that represented discrete restriction fragment patterns. Each haplotype consisted of one or more restriction fragments. All haplotype differences were weighted equally, regardless of whether a given haplotype difference represented one or several restriction fragment differences.

د3: The distance matrix was derived from an un-rooted phylogenetic network constructed from a parsimonious arrangement of restriction site differences. When connections of equal length were possible, haplotypes that were regionally closer or those that did not represent a change from one rare haplotype to another were favored. Each step on this network is scored as 1 for a single mutational event.

د4: The distance matrix was again derived from an un-rooted phylogenetic network constructed from a parsimonious arrangement of restriction site differences. In this case, a weighting matrix دبليو was applied to the data, the different weightings based on variation on nucleotide diversity at different restriction sites.

The results were as follows:

(Table from Excoffier, et al. 1992)

ال F-statistics and the partitioning of the variance components are nearly identical for data sets د1, د3، و د4 are close to identical, indicating that AMOVA is robust to most data arrangements. Data set د2 showed somewhat lower (but still significant) values for Fشارع و FCT, indicating that the grouping of restriction fragment data into discrete haplotypes represents some loss of information. It is possible that there is an analogous difference between direct sequence data and restriction fragment data, with restriction fragment data representing a loss of information when compared with direct sequence data.


شاهد الفيديو: Maximum Likelhood Estimationتقدير طريقة الامكان الاعظم (قد 2022).