استعد موقع تويتر بقيادة إيلون ماسك لحدوث انهيار جليدي للمعلومات المضللة

يُظهر موقع تويتر بقيادة إيلون ماسك علامات على التعرض للمعلومات المضللة.

قد لا تكون الرؤية بمثابة تصديق للمضي قدمًا لأن التقنيات الرقمية تجعل مكافحة المعلومات المضللة أكثر صعوبة بالنسبة لعمالقة وسائل التواصل الاجتماعي المحاصرين.

في مقطع فيديو محبب ، يبدو أن الرئيس الأوكراني فولوديمير زيلينسكي يطلب من شعبه إلقاء أسلحتهم والاستسلام لروسيا. كان الفيديو – الذي كشف زيلينسكي زيفه بسرعة – مزيفًا عميقًا ، وهو تقليد رقمي تم إنشاؤه بواسطة (AI) لتقليد صوته وتعبيرات وجهه.

إن عمليات التزوير البارزة مثل هذه ليست سوى قمة جبل جليدي أكبر بكثير على الأرجح. هناك سباق تسلح للخداع الرقمي يجري ، حيث يتم إنشاء نماذج الذكاء الاصطناعي التي يمكن أن تخدع بشكل فعال جمهور الإنترنت ، بينما يجري تطوير البعض الآخر لاكتشاف المحتوى المضلل أو الخادع المحتمل الناتج عن هذه النماذج نفسها. مع القلق المتزايد بشأن انتحال نصوص الذكاء الاصطناعي ، تم تصميم نموذج واحد ، Grover ، لتمييز نصوص الأخبار التي كتبها إنسان من المقالات التي تم إنشاؤها بواسطة الذكاء الاصطناعي.

مع تصاعد الخداع والمعلومات المضللة عبر الإنترنت ، يتم تجريد الدروع التي بنيت عليها المنصات ضدها. منذ استيلاء Elon Musk على المنصة ، قام بتدمير قسم الأمان على الإنترنت في المنصة ، ونتيجة لذلك عادت المعلومات المضللة إلى الارتفاع.

ماسك ، مثل الآخرين ، يتطلع إلى الحلول التكنولوجية لحل مشاكله. لقد أشار بالفعل إلى خطة لزيادة استخدام الذكاء الاصطناعي في الإشراف على محتوى تويتر. لكن هذا ليس مستدامًا ولا قابلًا للتطوير ، ومن غير المرجح أن يكون الحل الفضي. يقترح الباحث تارلتون جيليسبي: “أفضل استخدام للأدوات الآلية هو تحديد الجزء الأكبر من الحالات ، وترك التعريفات الأقل وضوحًا أو الأكثر إثارة للجدل للمراجعين البشريين”.

لا يزال بعض التدخل البشري في أنظمة صنع القرار الآلية التي تتبناها المنصات الإخبارية ، لكن ما يظهر في ملفات الأخبار مدفوع إلى حد كبير بالخوارزميات. تعمل الأدوات المماثلة كأدوات تعديل مهمة لمنع المحتوى غير المناسب أو غير القانوني.

تظل المشكلة الرئيسية هي أن “الإصلاحات” التقنية ليست مثالية وأن الأخطاء لها عواقبها. لا تستطيع الخوارزميات أحيانًا التقاط المحتوى الضار بالسرعة الكافية ويمكن التلاعب بها لتضخيم المعلومات المضللة. في بعض الأحيان ، يمكن لخوارزمية مفرطة الحماس أن تزيل الكلام الشرعي.

بالإضافة إلى قابليتها للخطأ ، هناك أسئلة جوهرية حول ما إذا كانت هذه الخوارزميات تساعد أو تضر المجتمع. يمكن للتكنولوجيا إشراك الناس بشكل أفضل من خلال تكييف الأخبار لتتماشى مع اهتمامات القراء. ولكن للقيام بذلك ، تقوم الخوارزميات بتغذية مجموعة نفيسة من البيانات الشخصية ، التي يتم تجميعها غالبًا دون فهم المستخدم الكامل.

هناك حاجة لمعرفة التفاصيل الدقيقة لكيفية عمل الخوارزمية – وهذا يفتح “الصندوق الأسود”.

ولكن في كثير من الحالات ، فإن معرفة ما يوجد داخل نظام خوارزمي من شأنه أن يترك حاجزًا ، لا سيما دون معرفة البيانات وسلوكيات المستخدم وثقافاته التي تدعم هذه الأنظمة الضخمة.

إحدى الطرق التي يمكن للباحثين من خلالها فهم الأنظمة الآلية بشكل أفضل هي مراقبتها من منظور المستخدمين ، وهي فكرة طرحها الباحثان برنارد ريدر ، من جامعة أمستردام ، وجانيت هوفمان ، من مركز العلوم الاجتماعية في برلين.

كما أجرى باحثون أستراليون المكالمة ، وقاموا بتسجيل العلماء المواطنين للتبرع بمحتوى ويب مخصص خوارزميًا ودراسة كيفية تشكيل الخوارزميات لعمليات البحث وكيفية استهدافها للإعلانات. تشير النتائج الأولية إلى أن تخصيص بحث الويب أقل عمقًا مما قد نتوقعه ، مما يضيف المزيد من الأدلة لفضح أسطورة “فقاعة التصفية” ، التي نراها في مجتمعات المحتوى عالية الشخصية. بدلاً من ذلك ، قد يكون تخصيص البحث يرجع إلى كيفية إنشاء الأشخاص لاستعلامات البحث عبر الإنترنت.

في العام الماضي ، دخلت العديد من نماذج الجيل اللغوي والوسائط المدعومة بالذكاء الاصطناعي إلى التيار الرئيسي. مدربة على مئات الملايين من نقاط البيانات (مثل الصور والجمل) ، يمكن تكييف نماذج الذكاء الاصطناعي “التأسيسية” هذه مع مهام محددة. على سبيل المثال ، DALL-E 2 هي أداة تم تدريبها على ملايين الصور المصنفة ، وتربط الصور بالتعليقات النصية الخاصة بها.

هذا النموذج أكبر بكثير وأكثر تعقيدًا من النماذج السابقة لغرض وضع العلامات التلقائي للصور ، ولكنه يسمح أيضًا بالتكيف مع مهام مثل إنشاء التعليقات التلقائية للصور وحتى تجميع الصور الجديدة من المطالبات النصية. شهدت هذه النماذج موجة من الإبداع والاستخدامات ، لكن المخاوف بشأن حقوق الطبع والنشر للفنانين وبصمتهم البيئية لا تزال قائمة.

أثارت القدرة على إنشاء صور أو نصوص تبدو واقعية على نطاق واسع قلق علماء المعلومات المضللة – يمكن أن تكون هذه التكرارات مقنعة ، خاصة مع التقدم التكنولوجي وإدخال المزيد من البيانات في الجهاز. يجب أن تكون المنصات ذكية ودقيقة في نهجها تجاه هذه الأدوات القوية المتزايدة إذا أرادت تجنب تعزيز سباق التسلح للخداع الرقمي الذي يغذي الذكاء الاصطناعي.