تويتر تدرس أضرار خوارزميات التعلم الآلي

أوضح موقع Twitter ما إذا كانت خوارزميات التعلم الآلي الخاصة به تسبب ضررًا غير مقصود ، وهو ما يحدث في وقت تواجه فيه شركات وسائل التواصل الاجتماعي تدقيقًا متزايدًا لدورها في نشر نظريات المؤامرة والمضايقات.

في الأشهر المقبلة ، ستصدر مبادرة التعلم الآلي المسؤولة تقارير تحلل التحيز العرقي والجنساني المحتمل في خوارزمية اقتصاص الصور الخاصة بها.

كما تنشر تقارير تقييمية حول صحة توصيات الوقائع المحلية من قبل مجموعة فرعية عرقية وتحلل توصيات المحتوى لمختلف الأيديولوجيات السياسية في سبعة بلدان.

بعد انتقاد خوارزمية صور تويتر العام الماضي لتركيزها على الوجوه البيضاء بدلاً من الوجوه المظلمة ، قالت الشركة إن اختباراتها لم تكشف عن أي تحيز عنصري أو جنساني.

بغض النظر ، بعد الاختبار ، أعلن أنه سيمنح المستخدمين مزيدًا من التحكم في الصور ، حيث أدرك أن طريقته التلقائية في اقتصاص الصور تعني أن هناك احتمالًا للتلف.

قال Twitter إن نتائج التقارير قد تكون مفيدة لإجراء تغييرات على النظام الأساسي ، واكتساب إرشادات جديدة حول تطوير منتج معين ، وزيادة الوعي بالتعلم الآلي الأخلاقي.

وأضافت أن استخدام التعلم الآلي يؤثر على مئات الملايين من التغريدات كل يوم ، ولا يمكن للنظام في بعض الأحيان التصرف على النحو المنشود ، وهذه التغييرات الصغيرة تؤثر على المستخدمين ، ونريد التأكد من أننا ندرس هذه التغييرات ونستخدمها. لإنشاء أفضل منتج.

جاءت مبادرة Twitter في الوقت الذي تواجه فيه شركات وسائل التواصل الاجتماعي مزاعم بأن خوارزمياتها مسؤولة عن زيادة الاستقطاب والمعلومات المضللة والتطرف عبر الإنترنت.

تعرض موقع تويتر ، على وجه الخصوص ، لانتقادات بسبب عدم كفاية تدابير مكافحة التحرش.

قال الرئيس التنفيذي جاك دورسي في وقت سابق ، “إنه يريد أن يرى مستقبلًا حيث يمكن للمستخدمين اختيار الخوارزمية التي يريدون استخدامها من خلال واجهة تشبه متجر التطبيقات ، بدلاً من الاعتماد على خوارزمية واحدة تم إنشاؤها بواسطة Twitter.

إن اعتراف تويتر الضمني بأن خوارزمياته يمكن أن تكون ضارة للمستخدمين بشكل عام يتناقض مع حماية خوارزميات Facebook.

قال فيسبوك الشهر الماضي ، “ليس لدينا مصلحة تجارية في نشر محتوى متطرف ، والمنصة ليست مسؤولة وحدها عن زيادة الاستقطاب السياسي لأن الخيارات الفردية تؤثر أيضًا على ما يراه المستخدمون في موجز الأخبار”.