تحقيق أقصى قدر للتوقع (EM)

في الإحصاءات، خوارزمية تحقيق أقصى قدر للتوقع (EM) هي طريقة تكرارية لإيجاد الاحتمال الأقصى الممكن (تقدير الاحتمال) أو أقصى الاحتمال البعدي (MAP) للمعاملات (وسيط (رياضيات)) في النماذج الإحصائية، حيث يعتمد هذا النموذج على المتغيرات الكامنة غير الملحوظة. EM يتمثل في تنفيذ خطوتين: خطوة التوقع (E)، التي ينتج منها توقع للوغاريتم الاحتمال(دالة الإمكان)الأقصى الممكن باستخدام التقدير الحالي للمعلمات، و خطوة تعظيم (M)، التي يحسب فيها المعاملات بحيث يتم تعظيم للوغاريتم المتوقع في الخطوة (E). ثم يتم استخدام هذه المعاملات في تقدير توزيع المتغيرات الكامنة في الخطوة (E) المقبلة.

تجميع EM من قديم المؤمنين ثوران البيانات. نموذج أولي عشوائي (الذي، نظرا لمستويات مختلفة من المحاور، يبدو أن اثنين من المجالات مسطحة للغاية واسعة) يصلح للبيانات المرصودة. في التكرار الأول، يتغير النموذج إلى حد كبير، ولكن بعد ذلك يتقارب إلى وسائط اثنين من سخان. صور باستخدام ELKI.
تحقيق أقصى قدر للتوقع
معلومات عامة
الطبيعة
المخترع
تاريخ الاختراع

المبدأ

نضع n ملاحظات، يعتبر كانه انجاز n متغير عشوائي مستقل، مطابق و موزع . في إطار نموذج إحصائي محدود ξ . كل يتبع نظرية متعلقة بالمعامل . مثلا تستطيع ان تكون دالة غاوسية :(N(µ, σ2 و بالتالي (µ, σ2) . نعني بـ: أو كثافة . نسمي احتمالية العينة، الكثافة المرتبطة لـ: :

في الحالة الخاصة، في حالة أعداد متقطعة، هذا يعطينا:

تعريف : التقدير بالمعنى الاقصى لـ هو:

هي إذا، من العينة الثابتة، قيمة المعامل التي تجعل كل ما أمكن الملاحظات المتحصل عليها متماثلة. و لأسباب تحليلية ملائمة، نفضل غالبا حساب اللوغاريتم بدلا عن حساب ، لأن الدالة اللوغاريتمية هي دائما متزايدة، وهذا يضمن الحصول على نفس قيمة التي تعظم الاحتمال:

وهذا يسهل كثيرا الحسابات، ببساطة للعمل بالجمع عوضا عن الضرب.

مثال

تقدير المعامل لقانون الاحتمال ذو خاصية برنولي (توزيع ثنائي الحدين)، نرمي قطعة نقدية التي يحتمل أن تكون مزورة لـ 30 رمية، نعتبر أنتا حصلنا على 22 مرة خلف و 8 مرات وجه. نعتبر 30 رمية انها إنجازات غير مرتبطة ببعضها و تتبع قانون الاحتمال ذو خاصية برنولي (β(p ذو المعامل المجهول p, الذي يإخذ القيمة 1 إذا حصلنا على خلف و 0 إذا حصلنا على وجه. أيضا عدد المرات التي حصلنا فيها على خلف بإتباع القانون (β(p,30 . وبديهيا ناخد قيمة p بحساب تردد عدد المرات خلف، بالتالي . وهذا يمثل أعلى تقدير لـ p . للتأكد من هذه الفرضية حسابيا، نتبع الخطوات التالية:

احتمال X هو:

و هذا يعني أن احتماله اللوغاريتمي هو:

نبحث لتحقيق أكبر قدر للاحتمال اللوغاريتمي: أقصاه يجب ان يلغي مشتقته و نحلها بـ:

و أخيرا كما هو متوقع

القارئ بإمكانه التحقق أنه يمثل أقصى نتيجة بفحصه أن المشتقة الثانية تكون سالبة.

ملاحظة هامة: في هذا المثال لحساب المعامل (p في هذا المثال) قمنا بإتباع طريقة تقدير الاحتمال Maximum likelihood و هذا لتوفر كل المعطيات، القطعة النقدية المستعملة في التجربة معلومة (في هذه التجربة استعملنا قطعة نقدية واحدة فلا داعي لتطبيق الخوارزمية EM). ولكن إذا استعملنا قطعتين نقديين لإجراء التجربة، يصبح تقدير المعاملات مستحيلا باعتبار أن القطعة النقدية المستعملة في كل رمية غير معلومة (قد تم اختيار قطعة نقدية في كل رمية عشوائيا). هنا تتدخل الخوارزمية EM لتقدير هذه المعاملات.

فلسفة الخوارزمية EM

الخوارزمية EM, هي خوارزمية تكرارية بالنسبة إلى (Dempster, Laird et Rubin (1977. أنها أسلوب لتقدير المعامل المسجل في إطار عام لأعلى احتمال.

لو أن المعطيات المتاحة وحدها لا تسمح لتقدير المعامل، أو/و أن مصطلح الاحتمال تحليليا مستحيلة التعظيم، الخوارزمية EM تستطيع أن تكون الحل. بشكل عام، إنها تهدف إلى توفير تقدير لو أن هذه الاستحالة تكون في حالة المعطيات غير معلومة أو مخفية. أو بالأحرى، عند معرفة المعطيات يصبح تقدير المعامل ممكن.

الخوارزمية تستنبط اسمها نتيجة أنها في كل تكرار تمر بمرحلتين متميزين:

  • مرحلة التوقع: غالبا مسماة بالمرحلة E, تعمل كاسمها افتراضا لتقدير المعطيات الغير معلومة أو المخفية، باعتبار أن المعطيات الملحوظة و المعاملات من المرحلة السابقة معلومة.
ملاحظة: في التكرار الأول نقوم باختيار المعاملات عشوائيا. مثلا في المثال أعلاه، المعامل p يختار عشوائيا. ثم نقدر الاحتمال أن تكون المعطيات الملحوظة (عدد مرات الحصول على خلف) هي نتيجة رمي القطعة النقدية رقم "1" أو "2" (هذا هو تقدير المعطيات المخفية).
  • مرحلة التعظيم: أوالمرحلة M ,تعمل على تعظيم وتكبير الاحتمال، تجعله متصاعدا. وهذا ممكن باستعمال التقدير للمعطيات الغير معلومة المحسوبة في المرحلة السابقة، و تحديث المعامل أو المعاملات لتستخدم في التكرار القادم (بالتحديد في المرحلة E القادمة).

باختصار، الخوارزمية EM تعمل وفق تقنية طبيعية جدا: إن وجدت عقبة لتطبيق طريقة تعظيم الاحتمال، نقوم ببساطة بتخطي هذه العقبة ثم نطبق هذه الطريقة EM. الجانب التكراري للخوارزمية يستطيع أن يكون غامض، لكن كما سنلاحظ أن الخوارزمية تضمن أن الاحتمال يزداد كل تكرار و هذا يسوق إلى تقديرات أصح.

التقارب

(الغير) الخصائص الدقيقة لتقارب الخوارزمية متعلقة بمستوى جد عالي و بالتالي لن نناقشها هنا. لكن ببساطة يجب أن نذكر أن في بعض الحالات، الخوارزمية يمكن أن تتقارب إلى نقطة واحدة أو إلى أقصى قيمة محلية للاحتمال (في حالة ما كانت هذه النقطة موجودة). و هذا راجع إلى الاعتماد القوي على الشرط الأولي المختار عشوائيا لانطلاق الخوارزمية.

لبعض القيم الأولية السيئة لـ , الخوارزمية يمكن أن تبقى ثابتة في نقطة واحدة. بينما تتقارب إلى أقصى قيمة عامة لبعض القيم الملائمة للشرط الأولي. الخوارزمية إذا تتطلب أحيانا تغيير قيم الشرط الأولي عدة مرات.

تطبيقات

كثيرا ما يستخدم EM لتقسيم البيانات في تعلم الآلة و رؤية الكمبيوتر .حيث نجد في معالجة اللغة الطبيعية، نوعين من الخوارزمية هما: خوارزمية باوم-ولش (Baum-Welch algorithm) و خوارزمية الداخل-الخارج (inside-outside algorithm) من اجل التحريض الغير خاضع للرقابة في قواعد النحو الاحتمالية الخالية من السياق.
في القياس النفسي، لا غنى عن EM لتقدير مميزات الشيء والخصائص الكامنة في نماذج استجابة الاشياء النظرية . مع القدرة على التعامل مع البيانات المفقودة ومراقبة المتغيرات المجهولة الهوية، EM أصبح أداة مفيدة لقياس وإدارة المخاطر.

خوارزميات التصفية والتنعيم باستعمال EM

عادة ما تستخدم مصفاة كالمان (Kalman) للتقدير المباشر للوضعية و يستخدم المنعم ذو التباين الاصغر من اجل التقدير الغير المباشر. ومع ذلك، فان هذه الحلول تتطلب مميزات الوضعية الفضائية للنموذج.لذلك يمكن استخدام خوارزميات EM من أجل حل مشاكل الوضعية المشتركة و تقدير المميزات.

خوارزميات التصفية والتنعيم EM تنشأ من خلال تكرار الخطوتين التاليتين:

خطوة تقدير E

تعمل مصفاة كالمان (Kalman) أو المنعم ذو التباين الاصغر المصممان باستعمال مميزات التقديرات الحالية للحصول على تقديرات الوضعية المعدلة.

خطوة تعظيم M

قم باستخدام تقديرات الوضعية المنعمة أو المصفاة داخل حسابات الاحتمال الأكبر للحصول على تقديرات المميزات المعدلة. لنفترض أن مصفاة كالمان ( Kalman) أو المنعم ذو التباين الاصغر يعملان على قياسات مشوشة من نظام وحيد الإدخال و الاخراج. فيمكن الحصول على قياس تقدير تباين التشويش من خلال حساب الاحتمال الأكبر كمايلي:

حيث تمثل تقديرات البيانات الناتجة التي تم حسابها باستخدام المصفاة أو المنعم
بالمثل يمكن قياس تقدير تباين التشويش كما يلي:

حيث و تمثل تقديرات الوضعية التي تم حسابها باستخدام المصفاة أو المنعم.
كمانستطيع قياس تقدير معامل النموذج المعدل كما يلي:

.

بالإضافة إلى هذا فان تقارب تقديرات المميزات تم دراسته و اثباته.

برهان على صحة EM

EM يعمل على تحسين بدلا من التحسين المباشر لـ: . هنا نقوم باظهار ان تحسين هاته الاخيرة يؤدي إلى تحسين الأولى.[1]

من اجل أي باحتمال مختلف عن الصفر , نستطيع ان نكتب

ناخذ التقدير على القيم بضرب جميع الاطراف بـ و الجمع حول . الطرف الايسر هو تقدير لثابت و بالتالي نحصل على:

اين معرفة بالمجموع السلبي الذي تعوضه. هذه المعادلة الاخيرة صحيحة لاي قيمة لـ إضافة إلى ,

وطرح هذه المعادلة الاخيرة من المعادلة السابقة يعطينا

بالرغم من ذلك, Gibbs' inequality تثبت انه , و بذلك نستطيع ان نستنتج انه

في الحقيقة اختيار لتحسين باستعمال سيحسن باستعمال .

بدائل لخوارزمية EM

خوارزمية α-EM

تستند وظيفة Q المستخدمة في الخوارزمية EM على لوغاريثم الاحتمال. وبالتالي، فإنها تعتبر خوارزمية لوغاريثم EM.من جهة أخرى فان استخدام لوغاريثم الاحتمال يمكن تعميمه على نسبة لوغاريثم الاحتمال α، و بذلك يمكن التعبير تماما على نسبة لوغاريثم الاحتمال α من البيانات باستخدام Q بالحصول على Q بخطوة تقدير E و تعظيمها بخطوة تعظيم M. وبالتالي، فإن خوارزمية α-EM التي كتبها ياسو ماتسوياما (Yasuo Matsuyama) هو التعميم الدقيق لخوارزمية لوغاريثم EM ،حيث ليس هناك حاجة إلى حساب مصفوفة متدرجة. بالإضافة إلى ذلك α-EM تتقارب بطريقة أسرع من خوارزمية لوغاريثم EM باختيار α المناسب.

العلاقة مع أساليب بايز التغييرية

EM هو جزئيا اسلوب غير بايزي، حيث يعطي في النتيجة النهائية التوزيع الاحتمالي على المتغيرات الكامنة جنبا إلى جنب مع تقدير θ (إما تقدير الاحتمال الأكبر أو الوضعية المستقبلية). ونحن قد نرغب في نسخة بايزية بشكل كامل حيث تقدم لنا التوزيع الاحتمالي على θ فضلا عن المتغيرات الكامنة. في الواقع الاستدلال في النهج النظرية الافتراضية هو ببساطة علاج θ كمتغير كامن آخر، في هذا النموذج التمييز بين الخطوة E والخطوة M يختفي.حيث انه إذا استخدمنا تقدير Q كما هو موضح أعلاه ( بايز التغييري )، نستطيع تعديل المتغيرات الكامنة (بما في ذلك θ ) في وقت واحدويتبقى سوى تكرار الخطوات.

المراجع

  1. Little, Roderick J.A.؛ Rubin, Donald B. (1987)، Statistical Analysis with Missing Data، Wiley Series in Probability and Mathematical Statistics، New York: John Wiley & Sons، ص. 134–136، ISBN 0-471-80254-9.

[1] [2] [3] [4] [5] [6] [7] [8] [9]

  • بوابة إحصاء
  • بوابة علم الحاسوب
  1. Expectation-Maximization (EM) algorithm Yuzhen Ye School of Informatics and Computing Indiana University, Bloomington Spring 2013
  2. Expectation-Maximization Algorithm for Bernoulli Mixture Models a Tutorial: http://blog.zabarauskas.com/expectation-maximization-tutorial/ نسخة محفوظة 2020-01-20 على موقع واي باك مشين.
  3. [Dempster et al, 1977] A. P. Dempster, N. M. Laird, D. B. Rubin. "Maximum Likelihood from Incomplete Data via the EM Algorithm". Journal of the Royal Statistical Society. Series B (Methodological) 39 (1): 1–38.
  4. [Bishop, 2006] C. M. Bishop. "Pattern Recognition and Machine Learning". Springer, 2006. ISBN 9780387310732.
  5. Sean Borman. The Exp ectation Maximization algorithm : A short tu torial. www.isi.edu/natural-language/teaching/cs562/.../B06.pdf, Juillet 2004.
  6. Mich ael Collin s. The EM algorithm. www.cse.unr.edu/ b ebis/CS679/Readings/EM_Algorithm_Review.p df, Septemb re 1997.
  7. Stephan Morgenthaler. Génétique statistique. Collection « Statistique et probabilités appliquées ». Springer, 2008.
  8. Matsuyama, Yasuo (2003). "The α-EM algorithm: Surrogate likelihood maximization using α-logarithmic information measures". IEEE Transactions on Information Theory 49 (3): 692–706. doi:10.1109/TIT.2002.808105
  9. Machine Learning A Probabilistic Perspective http://mitpress.mit.edu/books/machine-learning-2 نسخة محفوظة 2020-07-12 على موقع واي باك مشين.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.