كيف يمكنني معرفة الفرق بين خوارزمية EM و MLE؟


الاجابه 1:

تحاول خوارزمية تعظيم التوقعات (EM) العثور على تقدير الاحتمال الأقصى (MLE) لمعلمات النموذج ذي المتغيرات الكامنة. المعلمات ليست المتغيرات الكامنة ، تلك التي يجري تهميشها في العملية. على الرغم من أن EM ليس مضمونًا للالتقاء إلى الحد الأقصى العام ، إلا أنه يضمن الوصول إلى الحد الأقصى وتحسين إمكانية النموذج في كل خطوة. مثال نموذجي هو خوارزمية Baum-Welch ، المستخدمة لتناسب نماذج فضاء الحالة.


الاجابه 2:

أنا أدرس هذا المفهوم الآن وأتمنى أن يكون جوابي صحيحًا ولكنني أحب أن أحسن ردود الفعل.

كما أراها ، فإن MLE هي طريقة لتقدير وظيفة الاحتمال دون مراعاة الاحتمالات المسبقة. بعبارة أخرى ، إذا قمنا بتمرير نتيجة للحصول على 5 ، فسوف تنسب MLE أعلى الدرجات إلى توزيع (دعنا نسميها توزيع Batman) الذي لديه احتمال 1 على الناتج 3 و 0 للآخرين (وهو عكس ذلك -حدسي)

ومع ذلك ، سوف تأخذ خوارزمية EM في الاعتبار المعرفة المسبقة بأن احتمال 5 على الموت العادل هو 1/6. وبالتالي ، سيتم أخذ ذلك في الحسبان أثناء إنشاء الخطوة الإلكترونية لخوارزمية EM. في الواقع ، هناك طرق مختلفة لتحقيق ذلك أي من خلال الكهنة البايزيين ونماذج ماركوف ، إلخ.

إذا وجد شخص ما خللاً في فهمي ، فيرجى اقتراح تعديل.


الاجابه 3:

توفر MLE وظيفة الهدف التي تتطلب تحسينها للبيانات المقدمة.

يمكن إجراء التحسين نفسه بطرق مختلفة متعددة. تعد EM (Eximation Maximization) إحدى طرق التحسين ، كما يمكن استخدام جميع أنواع التحسينات الأخرى.

في Short MLE يحدد الهدف الأمثل بينما يحل EM بطريقة تكرارية.