كيف علقت السيارات ذاتية القيادة في المسار البطيء |  سيارات ذاتية القيادة

قال الرئيس التنفيذي لشركة Tesla ، Elon Musk ، “سأصاب بالصدمة إذا لم نحقق القيادة الذاتية الكاملة أكثر أمانًا من الإنسان هذا العام” ، بالنسبة لأي شخص يتابع تعليق Musk ، قد يبدو هذا مألوفًا. في عام 2020 ، وعد بسيارات ذاتية القيادة في نفس العام ، قائلاً: “لا توجد تحديات أساسية”. في عام 2019 ، وعد شركة Teslas بأنها ستكون قادرة على قيادة نفسها بحلول عام 2020 – وتحويلها إلى أسطول من مليون “روبوتاكسيس”. لقد قدم تنبؤات مماثلة تعود إلى عام 2014.

اعتبارًا من أواخر عام 2020 ، وصل عدد مالكي سيارات تسلا إلى 60 ألفًا ، والذين يتعين عليهم اجتياز اختبار السلامة ودفع 12 ألف دولار مقابل هذا الامتياز. سيقوم العملاء بتجربة تقنية مساعدة السائق الآلية ، مما يساعد على صقلها قبل الإصدار العام.

مع طرح الإصدار التجريبي ، يتم اتباع قواعد اللعبة الخاصة بشركات البرمجيات ، “حيث تكمن الفكرة في جعل الناس يتخلصون من مكامن الخلل” ، كما يقول أندرو ماينارد ، مدير مختبر ابتكار المخاطر بجامعة ولاية أريزونا. “تتمثل الصعوبة في أنه عند تعطل البرنامج ، تقوم فقط بإعادة تشغيل الكمبيوتر. عندما تتحطم سيارة ، يكون الأمر أكثر خطورة قليلاً “.

يعد وضع التكنولوجيا الوليدة في أيدي المختبرين غير المدربين نهجًا غير تقليدي في صناعة المركبات المستقلة (AV). تستخدم شركات أخرى ، مثل Waymo المملوكة لشركة Alphabet ، و Cruise المدعومة من جنرال موتورز ، و AV startup Aurora ، مشغلي السلامة لاختبار التكنولوجيا على طرق محددة مسبقًا. في حين أن هذه الخطوة عززت أوراق اعتماد Tesla الشعبوية لدى المعجبين ، فقد ثبت أنها تنطوي على مخاطر تتعلق بسمعتها. منذ وضع التكنولوجيا في أيدي الناس ، أدى تدفق مقاطع الفيديو التي توثق سلوك FSD المتهور المظهر إلى ظهور العديد من المشاهدات عبر الإنترنت.

هناك مقطع فيديو لسيارة في وضع FSD ، يدفع السائق إلى الانحراف عن الطريق إلى ميدان. الذي يظهر سيارة بشكل متكرر وفي المشاة. آخر يلتقط السائق بعد أن يطالبه النظام بتولي المسؤولية. ما يبدو أنه أول حادث اصطدام يتعلق بـ FSD كان للإدارة الوطنية الأمريكية لسلامة المرور على الطرق السريعة (NHTSA) في نوفمبر من العام الماضي ؛ لم يصب أحد ، لكن السيارة أصيبت “بأضرار بالغة”.

وعد رئيس شركة Tesla Elon Musk بوصول سيارات ذاتية القيادة عدة مرات على مر السنين. تصوير: ستيفن لام / رويترز

يقول تيلور أوغان ، مالك Tesla FSD والرئيس التنفيذي لشركة Snow Bull Capital ، إن شركة FSD بارعة في القيادة على الطرق السريعة ، حيث تكون “مباشرة ، بالمعنى الحرفي للكلمة”. في شوارع المدينة الداخلية الأكثر تعقيدًا ، يقول إن النظام لا يمكن التنبؤ به. من المفترض أن تعمل تحديثات البرامج المستمرة على تسوية مواطن الخلل. على سبيل المثال ، أجبرت NHTSA Tesla على منع النظام من تنفيذ “” غير قانوني (التحرك ببطء عبر علامة توقف دون التوقف تمامًا ، في حين أن مشكلة “الكبح غير المتوقعة” هي موضوع التحقيق الحالي. في تجربة Ogan لـ على الرغم من تجربة FSD ، “لم أر حتى أنه يتحسن. إنه يفعل أشياء أكثر جنونًا بثقة أكبر.”

يقول ماينارد إن استعارة “السائق المتعلم” تحمل بعض مشكلات FSD ، لكنها تنهار عندما تنخرط التكنولوجيا في سلوك غير بشري بلا منازع. على سبيل المثال ، عدم الاهتمام بالاقتراب بشكل خطير من المشاة والوقت الذي اندفعت فيه سيارة تسلا في حاجز عجزت FSD عن تسجيله. ظهرت مشاكل مماثلة مع برنامج الطيار الآلي من Tesla ، والذي تورط في (مع وفاة واحدة و 17 إصابة) بسبب عدم قدرة السيارات على “رؤية” سيارات الطوارئ المتوقفة.

هناك سبب للاعتقاد بأن مقاطع الفيديو التي تشق طريقها عبر الإنترنت هي بعض من أكثر مقاطع الفيديو إرضاءً. لا يقتصر الأمر على عملاء Tesla المختبرين ، ولكن يعمل جيش من المعجبين الفائقين كرادع إضافي لمشاركة أي شيء سلبي. أي تقارير عن تصرفات FSD سيئة يمكن أن تثير موجة من الغضب. أي منشورات مهمة في نادي Tesla Motors ، وهو منتدى لسائقي Tesla ، يتم الترحيب بها حتمًا من قبل الأشخاص الذين يلومون المستخدمين على الحوادث أو يتهمونهم بالرغبة في فشل Tesla. يقول أوغان: “يشعر الناس بالرعب من أن يسلبوا FSD التي دفعوا ثمنها وأن الناس سوف يهاجمونهم”.

هذا يساعد على حماية تسلا من النقد ، كما يقول إد نيدرماير ، مؤلف كتاب Ludicrous: The Unvarnished Story of Tesla Motors ، الذي “قصفته ميليشيا على الإنترنت” عندما بدأ بإعداد تقارير عن الشركة. “طوال تاريخ Tesla ، كان هذا الإيمان والشعور بالمجتمع … حاسمين للغاية لبقاء Tesla ،” كما يقول. ويضيف أن الدليل هو أن ماسك يمكنه أن يدعي مرارًا وتكرارًا أنه قد مر عام من الوصول إلى القيادة الذاتية الكاملة دون أن يفقد ثقة الجماهير.

لكن ليس تيسلا فقط هي التي فاتتها المواعيد النهائية للقيادة الذاتية التي فرضتها على نفسها. ، و ، تويوتا وجميعهم قالوا إنهم سيطلقون سيارات ذاتية القيادة بالكامل بحلول عام 2020. تم إحراز تقدم ، ولكن ليس على النطاق المتوقع. ماذا حدث؟

يقول ماثيو أفيري ، مدير الأبحاث في ثاتشام ريسيرش: “رقم واحد هو أن هذه الأشياء أصعب مما أدركه المصنعون”. في حين أن حوالي 80٪ من القيادة الذاتية بسيطة نسبيًا – مما يجعل السيارة تتبع خط الطريق ، والالتزام بجانب معين ، وتجنب الاصطدام – فإن الـ 10٪ التالية تنطوي على مواقف أكثر صعوبة مثل التقاطعات الدائرية والتقاطعات المعقدة. يقول أفيري: “نسبة الـ 10٪ الأخيرة صعبة حقًا”. “هذا عندما يكون لديك ، كما تعلم ، بقرة تقف في منتصف الطريق ولا تريد أن تتحرك.”

إنها آخر 20٪ عالقة فيها صناعة السمعيات والمركبات ، ولا سيما نسبة الـ 10٪ الأخيرة ، والتي تغطي المشكلة الشيطانية المتمثلة في “حالات الحافة”. هذه أحداث نادرة وغير معتادة تحدث على الطريق مثل كرة ترتد عبر الشارع ويتبعها طفل يركض ؛ أعمال الطرق المعقدة التي تتطلب من السيارة أن تصعد على الرصيف لتتجاوز ؛ مجموعة من المتظاهرين يرفعون لافتات. أو تلك البقرة العنيدة.

تعتمد السيارات ذاتية القيادة على مجموعة من القواعد الأساسية المشفرة مثل “توقف دائمًا عند الضوء الأحمر” وبرامج التعلم الآلي. تشرب خوارزميات التعلم الآلي كميات كبيرة من البيانات من أجل “تعلم” القيادة بكفاءة. نظرًا لأن حالات الحافة نادرًا ما تظهر في مثل هذه البيانات ، فإن السيارة لا تتعلم كيفية الاستجابة بشكل مناسب.

سيارة أوبر ذاتية القيادة في مركزها التكنولوجي في بيتسبرغ في عام 2016. الصورة: Angelo Merendino / Getty

الشيء في حالات الحافة هو أنها ليست كلها نادرة. “قد تكون نادرة بالنسبة للسائق الفردي ، [but] تقول ميلاني ميتشل ، عالمة الكمبيوتر وأستاذة التعقيد في معهد سانتا في: “إذا كان متوسط ​​كل السائقين في العالم ، فإن هذه الأنواع من الحالات المتطورة تحدث بشكل متكرر جدًا لشخص ما”.

في حين أن البشر قادرون على التعميم من سيناريو إلى آخر ، إذا بدا أن نظام القيادة الذاتية “يتقن” موقفًا معينًا ، فهذا لا يعني بالضرورة أنه سيكون قادرًا على تكرار ذلك في ظل ظروف مختلفة قليلاً. إنها مشكلة ليس لها إجابة حتى الآن. يقول ميتشل: “إنه تحدٍ محاولة إعطاء أنظمة الذكاء الاصطناعي الفطرة السليمة ، لأننا لا نعرف حتى كيف يعمل في أنفسنا”.

لقد ألمح ماسك بنفسه إلى هذا: “يجب حل جزء كبير من الذكاء الاصطناعي في العالم الواقعي للقيام بعمل كامل غير خاضع للإشراف ومُعمَّم للقيادة الذاتية” ، هكذا غرد في عام 2019. فشلًا في تحقيق اختراق في الذكاء الاصطناعي ، المركبات ذاتية القيادة التي تعمل على قدم المساواة مع البشر ربما لن يطرحوا السوق بعد. يستخدم صانعو AV الآخرون خرائط عالية الدقة – ترسم خطوط الطرق والأرصفة ، ووضع إشارات المرور وحدود السرعة – للتغلب جزئيًا على هذه المشكلة. لكن هذه الخرائط بحاجة إلى التحديث باستمرار لمواكبة الظروف المتغيرة باستمرار على الطرق ، وحتى في ذلك الحين ، لا تزال هناك عدم القدرة على التنبؤ.

تتفاقم مشكلة الحالة المتطرفة من خلال تقنية AV التي تعمل “بثقة عالية” عندما تكون خاطئة ، كما يقول فيليب كوبمان ، الأستاذ المشارك في الهندسة الكهربائية وهندسة الكمبيوتر في جامعة كارنيجي ميلون. “إنه أمر سيء حقًا في معرفة متى لا تعرف.” تتضح مخاطر هذا في تحليل حادث Uber الذي قتل فيه نموذج أولي AV أثناء سيرها على دراجتها عبر طريق في ولاية أريزونا ، في عام 2018. تصف مقابلة مع عامل الأمان خلف عجلة القيادة في ذلك الوقت تقليب البرنامج بين التصنيفات المختلفة شكل هرتسبرغ – “مركبة” ، “دراجة” ، “أخرى” – حتى 0.2 ثانية قبل الاصطدام.

الهدف النهائي لصانعي AV هو صنع سيارات أكثر أمانًا من المركبات التي يقودها الإنسان. في الولايات المتحدة ، هناك حالة وفاة واحدة لكل 100 مليون ميل يقودها إنسان (بما في ذلك القيادة تحت تأثير الكحول). يقول كوبمان إن صانعي AV سيتعين عليهم التغلب على هذا لإثبات أن تقنيتهم ​​كانت أكثر أمانًا من الإنسان. لكنه يعتقد أيضًا أن المقاييس القابلة للمقارنة إلى حد ما التي تستخدمها الصناعة ، مثل بيانات فك الارتباط (عدد المرات التي يحتاج فيها الإنسان إلى السيطرة لمنع وقوع حادث) ، تتجاهل أهم القضايا في مجال سلامة المركبات والمركبات.

“لا تتعلق السلامة بالعمل بشكل صحيح في معظم الأوقات. يقول كوبمان: “تتعلق السلامة بالحالة النادرة حيث لا تعمل بشكل صحيح”. “يجب أن تعمل بنسبة 99.999999999٪ من الوقت. لا تزال شركات الصوت والصورة تعمل على النقاط القليلة الأولى ، مع وجود مجموعة أخرى لتبدأ. مقابل كل تسعة ، يكون تحقيقه أصعب 10 مرات “.

يعتقد بعض الخبراء أن صانعي AV لن يضطروا إلى اختراق الذكاء على المستوى البشري تمامًا لطرح مركبات ذاتية القيادة. يقول ميتشل: “أعتقد أنه إذا كانت كل سيارة سيارة ذاتية القيادة ، وتم رسم جميع الطرق بشكل مثالي ، ولم يكن هناك مشاة حولها ، فإن السيارات ذاتية القيادة ستكون موثوقة للغاية وجديرة بالثقة”. “كل ما في الأمر أن هناك نظامًا بيئيًا كاملًا من البشر والسيارات الأخرى يقودها البشر ولا يمتلك الذكاء الاصطناعي الذكاء حتى الآن للتعامل معه.”

مؤسس Cruise Origin Kyle Vogt عند إطلاق الشركة. تصوير: ستيفن لام / رويترز

في ظل الظروف المناسبة ، مثل الطرق الهادئة والطقس الملائم ، يمكن للسيارات ذاتية القيادة أن تعمل بشكل جيد في الغالب. هذه هي الطريقة التي تستطيع بها Waymo تشغيل خدمة محدودة لروبوتات الأجرة في أجزاء من فينيكس ، أريزونا. ومع ذلك ، لا يزال هذا الأسطول متورطًا في حوادث طفيفة وتعرضت مركبة واحدة مرارًا وتكرارًا لمجموعة من الأقماع المرورية على الرغم من قيام عامل عن بُعد بتقديم المساعدة. (ادعى أحد المديرين التنفيذيين في Waymo أنهم لم يكونوا على علم بهذه الحوادث التي تحدث أكثر من وقوعها مع سائق بشري).

على الرغم من التحديات ، تتسارع صناعة الصوت والصورة إلى الأمام. كان لتحطم أوبر تأثير مؤقت مؤقت ؛ أوقفت الشركات المصنعة التجارب بعد ذلك بسبب الصحافة السلبية وعلق حاكم ولاية أريزونا تصريح اختبار أوبر. قام كل من أوبر وشركة أخرى ، Lyft ، ببيع أقسام القيادة الذاتية الخاصة بهم.

لكن هذا العام شهد عودة إلى الغطرسة – مع الاستثمار في السنوات العشر الماضية ، فإن الصناعة بالكاد تستطيع التنصل. قالت شركات صناعة السيارات جنرال موتورز وجيلي وشركة Mobileye للسيارات إن الناس قد يكونون قادرين على شراء سيارات ذاتية القيادة في وقت مبكر من عام 2024. ويهدف كل من Cruise و Waymo إلى إطلاق عمليات تجارية لروبوتات الأجرة في سان فرانسيسكو هذا العام. تخطط Aurora أيضًا لنشر مركبات مستقلة بالكامل في الولايات المتحدة خلال العامين أو الثلاثة أعوام القادمة.

يشعر بعض خبراء السلامة بالقلق إزاء نقص التنظيم الذي يحكم هذه الخطوة الجريئة التالية. يقول كوبمان ، في الوقت الحالي ، “تحصل كل شركة أساسًا على عطل واحد مجاني” ، مضيفًا أن النظام التنظيمي في الولايات المتحدة يعتمد على الثقة في صانع AV حتى وقوع حادث خطير. ويشير إلى شركة Pony.ai الخاصة بشركة Uber و AV ، التي تم تعليق تصريح اختبارها بدون سائق مؤخرًا في كاليفورنيا بعد اصطدام خطير بإحدى مركباتها.

يتمثل أحد الآثار الجانبية لمشاركة تسلا لتقنيتها مع العملاء في أن المنظمين ينتبهون لذلك. تجنبت Tesla حتى الآن المتطلبات الأكثر صرامة لصانعي AV الآخرين ، مثل الإبلاغ عن الأعطال وفشل الأنظمة واستخدام متخصصين مدربين في مجال السلامة كمختبرين ، بسبب الادعاء بأن أنظمتها أكثر أساسية. لكن إدارة المركبات الآلية في ولاية كاليفورنيا ، وهي الجهة المنظمة للقيادة المستقلة في الولاية ، تدرس تغيير النظام ، ويرجع ذلك جزئيًا إلى مقاطع الفيديو ذات المظهر الخطير للتكنولوجيا قيد التشغيل ، فضلاً عن التحقيقات في Tesla بواسطة NHTSA.

إن ندرة التنظيم حتى الآن تسلط الضوء على عدم وجود إجماع عالمي في هذا المجال. السؤال ، كما يقول ماينارد ، هو “هل البرنامج سينضج بسرعة كافية لدرجة أنه يصل إلى النقطة التي يكون فيها موثوقًا به ويمنحه المنظمون الضوء الأخضر ، قبل أن يحدث شيء سيء حقًا ويسحب البساط من المؤسسة بأكملها؟”