fbpx

هل يستطيع الذكاء الصناعي الفوز بالحرب ضد الأخبار الزائفة؟

لتلقّي أبرز قصص درج على واتساب إضغط(ي) هنا!
"درج"

قد يكون أول الأخبار الزائفة في تاريخ الإنترنت ما جرى عام 1984، عندما نشر شخص على Usenet أن الاتحاد السوفييتي سينضم إلى شبكة الإنترنت. كانت كذبة أبريل بريئة، بعيدة كل البعد عن حملات التضليل الإعلامية التي تحدث اليوم، والافتراءات معدومة الضمير التي تهدف إلى تحقيق ربح سريع. أما في عام 2017 فالمحتوى المضلل الخاطئ والكاذب على الإنترنت غزير لدرجة أن البشر لديهم أمل ضئيل في الخروج من هذا المستنقع. بدلاً من ذلك، يبدو من المرجح على نحو متزايد أن الآلات سوف تضطر في النهاية إلى إنقاذنا.

الأكثر قراءة
[tptn_list show_date="1" heading="0" title_length="200" limit="5"]

قد يكون أول الأخبار الزائفة في تاريخ الإنترنت ما جرى عام 1984، عندما نشر شخص على Usenet أن الاتحاد السوفييتي سينضم إلى شبكة الإنترنت. كانت كذبة أبريل بريئة، بعيدة كل البعد عن حملات التضليل الإعلامية التي تحدث اليوم، والافتراءات معدومة الضمير التي تهدف إلى تحقيق ربح سريع. أما في عام 2017 فالمحتوى المضلل الخاطئ والكاذب على الإنترنت غزير لدرجة أن البشر لديهم أمل ضئيل في الخروج من هذا المستنقع. بدلاً من ذلك، يبدو من المرجح على نحو متزايد أن الآلات سوف تضطر في النهاية إلى إنقاذنا.
إحدى الخوارزميات التي تهدف إلى بث بعض الضوء في هذا الظلام هي AdVerif.ai، والتي تعمل شركة ناشئة بنفس الاسم على تشغيلها. بُني برنامج ذكاء صناعي للكشف عن القصص الزائفة والعري والبرمجيات الخبيثة ومجموعة متنوعة أخرى من المحتوى المُسبب للمشكلات. تعمل “أدفيريف”، التي أطلقت النسخة التجريبية في نوفمبر/ تشرين الثاني، حالياً مع منصات المحتوى وشبكات الإعلان في الولايات المتحدة وأوروبا التي لا تريد أن تكون مرتبطة بقصص كاذبة أو يحتمل أن تكون مسيئة.
رأت الشركة فرصة في التركيز على منتج للشركات بدلاً من منتج موجه المستخدم العادي، وفقاً مؤسس “أدفيرف”، أور ليفي. فبينما قد لا يقلق الأفراد المستهلكين بشأن صحة كل قصة يضغطون عليها، يمتلك المعلنون ومنصات المحتوى شيئاً من الممكن أن يفقدوه عن طريق استضافة أو الإعلان عن محتوى سيء. وإذا أجروا تغييرات في خدماتهم، يمكن أن يكون هذا أمراً فعالاً في قطع تدفق الإيرادات للأشخاص الذين يكسبون من وراء اختلاق أخبار وهمية. يقول ليفي، “ستكون خطوة كبيرة في محاربة هذا النوع من المحتوى”.
يقوم برنامج “أدفيرف”، بفحص المحتوى بحثاً عن علامات تدل على وجود شيء غير ملائم، مثل العناوين التي لا تتطابق مع المتن، أو وجود عدد ضخم من الأحرف الكبيرة في عنوان. كما يفحص كل قصة ويقارنها مع قاعدة بيانات بها الآلاف من القصص الحقيقية والقصص الوهمية، يتم تحديثها أسبوعياً. ويرى العملاء تقريراً لكل مقال يفحصه النظام، مع درجة تقييم لاحتمال كونه وهمياً أو يحمل برمجيات خبيثة أو يحتوي على أي شيء آخر قد يُطلب من النظام البحث عنه، مثل العري. في نهاية المطاف، يقول ليفي، إنه يعتزم إضافة القدرة على تحديد الصور المتلاعب بها وإضافة خاصية البرنامج المساعد للمتصفحات.
في اختبار للنسخة التجريبية من برنامج “أدفيرف”، عرّف برنامج الذكاء الصناعي قصص موقع “أونيون” بمثابة مواد تهكم أو سخرية (والتي خدعت الكثير من الناس في الماضي). كما صُنفت قصص “بريتبارت”، تحت كلمات “غير موثوقة، يمينية، سياسي، تحيز”، في حين صنفت “كوزموبوليتان”، تحت قائمة “اليسار”. كما تمكن من معرفة الشعارات التجارية المستخدمة على “تويتر”، دون أن يكون الرابط المرافق لها مرتبطاً بهذه الشركات. لم يكتشف برنامج “أدفيرف” فقط أن قصة على موقع “ناتشرال نيوز” تحت عنوان “تشير الأدلة إلى أن البيتكوين صنعته وكالة الأمن القومي الأميركي لطرح عملة رقمية موحدة في العالم”، كانت على موقع مدرج في القائمة السوداء، لكنه حدد كذلك أنها قصة إخبارية وهمية ظهرت على مواقع أخرى مدرجة على القائمة السوداء دون أي مصدر مستند إلى مؤسسات الأخبار الموثوقة. ولكن لا تزال بعض القصص والأخبار المشكوك فيها تمر من خلال البرنامج. على سبيل المثال، لم يتمكن البرنامج من اكتشاف كذب مقال بعنوان “تصوير لاعب كرة قدم يحرق العلم الأمريكي في غرفة خلع الملابس!”، على موقع يسمى أ”كشن نيوز 3″، على الرغم من ثبوت تلفيقه. لمساعدة النظام على التعلم مع الوقت، يمكن تحديث القائمة السوداء للقصص المزيفة بشكل يدوي، كل قصة على حدة.
“أيدفيرف”، ليست الشركة الناشئة الوحيدة التي ترى فرصة في توفير برنامج ذكاء صناعي للتأكد من حقيقة الأخبار للشركات على الانترنت. فقد سارعت شركات الأمن السيبراني، على وجه الخصوص إلى إضافة برامج رصد الأخبار الوهمية إلى مخزونها، مشيرة إلى مدى تشابه الكثير من الطرق مع القرصنة. يقوم “فيسبوك”، بتعديل خوارزميته للتأكد من الأخبار المزيفة في الأخبار الحقيقية، كما شاركت “غوغل”، مع موقع للتحقق من القصص. ولكن بلا نتائج واعدة حتى الآن. كما تم إطلاق مسابقة تحدي الأخبار المزيفة، وهي مسابقة أدارها متطوعون في مجتمع الذكاء الصناعي في نهاية العام الماضي، بهدف تشجيع تطوير الأدوات التي يمكن أن تساعد في مكافحة التقارير المُسيئة. قال أحد منظميها ومؤسس شركة جوستوار، ديليب راو، وهي شركة تصنع أنظمة للتعلم الآلي، إن “اكتشاف الأخبار المزيفة ينطوي على جوانب كثيرة لدرجة أن التحدي سيجري فعلياً في خطوات متعددة. الخطوة الأولى هي الكشف عن الموقف، أو أخذ القصة ومقارنتها بما قالته باقي المواقع الإخبارية عن نفس الموضوع. وهو ما قد يسمح للقائمين على التحقق من صحة الأخبار بالاعتماد على قصص للتحقق من صحة قصص أخرى، وقضاء وقت أقل في فحص كل قصة بشكل منفرد”.
أصدرت مسابقة تحدي الأخبار الزائفة مجموعة بيانات للفرق لاستخدامها، وقدم 50 فريقاً برامجهم. وفاز “تالوس إنتليجانس”، قسم الأمن السيبراني، في شركة “سيسكو”، بالمسابقة مع خوارزمية نجحت في 80 في المائة من الأخبار، ليست جاهزة تماماً للإصدار، ولكن لا تزال نتيجة مشجعة. التحدي التالي قد يتعامل مع الصور المركب عليها نص (الشبيهة بالصور الكوميدية، ولكن متعلقة الأخبار الوهمية)، وهو الشكل الذي غالباً ما يُستخدم للترويج على وسائل التواصل الاجتماعية، لأن تكوينها من الصعب على الخوارزميات كسره وفهمه.
“نريد أن نبني أفضل أدوات التحقق من البيانات حتى يتمكنوا من العمل بسرعة كبيرة. مثل أدوات تحقق من المعلومات تتعاطى المنشطات”، حسبما قال راو.
يبدو أن ما يمثله برنامج “أدفيريف”، وغيره لن يكون الكلمة الأخيرة في الحرب على المحتوى الوهمي بل سيكون بمثابة الجولة الافتتاحية لسباق تسلح، والذي سيحاول فيه منشئي المحتوى الوهمي الحصول على برامج ذكاء صناعي خاصة بهم تُمكنهم من تخطي برامج الذكاء الصناعي “الجيدة” التي تتأكد من الحقائق.
هذا الموضوع تم اعداده وترجمته عن موقع Technology Review لمراجعة المقال الاصلي زوروا الرابط التالي.[video_player link=””][/video_player]