يشهد الذكاء الاصطناعي تحسنًا في تفسير مشاعرنا، ولو نظريًا على الأقل، حيث أصبح اليوم التعرف على المشاعر عن طريق الكلام عنصرًا أساسيًا في الأدوات الناشئة المستخدمة في مجالات الصحة النفسية وخدمات العملاء والمساعدين الافتراضيين، بعد أن كان مجرد خيال علمي في السابق. تشير دراسة جديدة من جامعة خليفة إلى أن هذه الأنظمة قد تفتقر إلى مستويات الفهم العاطفي الذي نظنه.
تضمن الفريق البحثي الذي أجرى الدراسة غادة الحسين وإيوانيس زيوغاس وشيزا سليم والبروفيسور ليونتيوس هادجيلونتياديس، وجميعهم من قسم الهندسة الطبية الحيوية والتكنولوجيا الحيوية في جامعة خليفة. ونشر الفريق البحثي الدراسة كمراجعة منهجية وتحليل شامل في مجلة "أرتيفيشيال انتيليجينس ريفيو" المتخصصة في مجال الذكاء الاصطناعي، حيث قاموا بتحليل 51 دراسة سابقة أجريت خلال الفترة من عام 2010 إلى 2023، وتبين لهم وجود تناقضات كبيرة في طريقة تصنيف المشاعر وأنواع البيانات المستخدمة وطريقة اختبار الخوارزميات.
يعتمد هذا المجال، المعروف باسم "التعرف إلى المشاعر في الكلام خلال المحادثات"، على الذكاء الاصطناعي لتحديد المشاعر أثناء تكلم الأشخاص. وتمتلك هذه الأدوات تطبيقات ذات إمكانيات في مجالات كالصحة النفسية والتفاعل بين الإنسان وأجهزة الكمبيوتر وتحليلات مراكز الاتصال. وأوضحت نتائج الدراسة أنه على الرغم من تحسن مستوى الدقة بالاعتماد على نماذج التعلم العميق والرقابة الذاتية، لاتزال مشكلة التحيز والقضايا المنهجية قائمة وبلا حلول.
وتتمثل إحدى النتائج الهامة للدراسة في اعتماد مجموعات البيانات غالبًا على تصنيفات عاطفية غير متسقة وليست مُعَرَّفَة على نحو جيد، كما تعتمد بعض الدراسات على نماذج تصنيفية مثل (الشعور بالسعادة أو الغضب على سبيل المثال)، بينما تقوم دراسات أخرى على نماذج ذات أبعاد تستند إلى التكافؤ بين شعورين متناقضين (شعور إيجابي ضد شعور سلبي) وإلى تحريك المشاعر (الشعور بالهدوء ضد الشعور بالحماس). ويؤدي هذا التباين في المشاعر إلى ارتباك الخوارزميات التي تحاول تعلم الأنماط العاطفية، وحتى أفضل أنظمة الذكاء الاصطناعي لا يمكنها تجاوز البيانات المصنفة التي دُرِّبَت عليها.
وتظهر بعد ذلك مشكلة الواقعية، حيث أن العديد من مجموعات البيانات المستخدمة لتدريب الذكاء الاصطناعي على المشاعر تعتمد على حديث مُصطَنَع، كأن يتظاهر الأشخاص بالغضب أو الحزن أو السرور. وعلى الرغم من أن هذه الأمثلة تعتبر سهلة في تجميعها وتصنيفها، إلا أنها لا تعكس تأثير المشاعر فعليًا في المحادثات الحقيقية. وأظهرت المراجعة أن غالبية الدراسات اعتمدت على بيانات مكتوبة أو مُصطَنَعة، وهو ما قد يؤدي إلى نتائج أداء مبالغ فيها لا تعكس الواقع.
تساهم التحسينات التقنية في إحراز تقدم في هذا المجال على الرغم من وجود هذه التحديات، وتُظهِر النماذج الأحدث القائمة على التعلم الذاتي نتائج واعدة في استخلاص الخصائص ذات الصلة بالمشاعر من الحديث، حتى عند توفر كمية محدودة من البيانات المصنفة. وتُظهر الأساليب الهجينة التي تجمع بين المزايا المصممة يدويًا والمزايا الناتجة عن التعلم العميق أداءً أفضل، وتوضح هذه المراجعةأيضًا أن تطوير النموذج وحده لا يكفي، حيث يعتمد الأداء بشكل كبير على جودة مجموعة البيانات وواقعية عينات الكلام ووضوح الفئات العاطفية المستخدمة.
قال البروفيسور ليونتيوس: "نرى إمكانيات واعدة للذكاء الاصطناعي في التعرف إلى المشاعر، ولكن يحتاج هذا المجال إلى التصدي للقضايا الأساسية، لا سيما آلية تعريف المشاعر وتصنيفها ورصدها، في حال أردنا أن تكون هذه الأنظمة دقيقة وقابلة للتطبيق".
ترجمة: سيد صالح
أخصائي ترجمة وتعريب