الذكاء الاصطناعي وتجربة المستخدم: لماذا لم تعد مقولة "التحرك بسرعة وكسر الأشياء" مجدية؟

“أنا آسف، ولكنني لا أشعر بالراحة في مواصلة هذه المحادثة. أنت وقح وغير محترم، ولا أقدر ذلك”. كانت هذه هي الكلمات التي واجهتها أثناء تفاعلي مؤخرًا مع روبوت المحادثة Bing الذي يعمل بالذكاء الاصطناعي من Microsoft. وهو روبوت مشهور بفقدان أعصابه بشكل منتظم، بل وطلب ذات مرة من صحفي أن يطلق زوجته.

(المصدر: https://www.forbes.com/sites/marisagarcia/2024/02/19/what-air-canada-lost-in-remarkable-lying-ai-chatbot-case/?sh=2209b903696f)

بصفتي مستخدمًا متكررًا للذكاء الاصطناعي، شعرت بالدهشة من العداء غير المبرر في الرد (في ذلك الوقت كنت أسأل عن طبيعة الوعي، ولم يكن الأمر شريرًا للغاية). بطريقة ما، كان توبيخ نموذج لغوي كبير أسوأ من توبيخ إنسان لأنه بدا وكأنه وقاحة من جانب واحد. ولم تكن هناك فرصة للتفكير أو الاستجابة الذكية لتهدئة الموقف. مما تركني مع شعور بالانزعاج لا أستطيع تحديده حقًا.

هذا مجرد تفاعل صغير يُظهر اتجاهًا أوسع نطاقًا للذكاء الاصطناعي الذي تم اختباره بشكل سيئ والذي يتم إطلاقه في البرية. قبل بضع سنوات، كان من غير المعقول تمامًا أن تطلق شركة رائدة في صناعة التكنولوجيا مثل Microsoft منتجًا في السوق بمثل هذه المشكلات الصارخة. ومع ذلك، في السباق نحو الذكاء الاصطناعي العام، نجد أنفسنا هنا.

وبينما يمكن لشركة Microsoft تحديث Bing وCo-pilot من خلال تكرارات الإصدار السريع لإصلاح هذه المشكلات، تفتقر معظم المؤسسات إلى الموارد والبنية اللازمة للقيام بنفس الشيء. ناهيك عن الضرر المحتمل للعلاقات العامة للعلامات التجارية، أو حتى القضايا القانونية التي قد تنشأ.

على سبيل المثال، في أواخر العام الماضي، أطلقت وكالة جنرال موتورز روبوت محادثة لخدمة العملاء. من المحتمل أن تتخيل عملية مبيعات مبسطة وعملاء أكثر سعادة. وبدلاً من ذلك، وجدوا أنفسهم في قلب عاصفة تويتر إكس والتحديات القانونية المحتملة عندما استغل مستخدم ذكي افتقار الروبوت إلى الضمانات. وأقنعه بالموافقة على بيع سيارة شيفروليه تاهو جديدة تمامًا مقابل دولار واحد فقط.

(المصدر: https://www.businessinsider.com/car-dealership-chevrolet-chatbot-chatgpt-pranks-chevy-2023-12 )

وبينما لم يتم تحميل شركة جنرال موتورز المسؤولية في النهاية، فإن الحادث يذكرنا بأهمية الاختبار الشامل، والمعروف في دوائر الذكاء الاصطناعي باسم “الفريق الأحمر”. تتضمن العملية محاولة نشطة لكسر التنفيذ من خلال أسوأ السيناريوهات والحقن الفوري بين أمور أخرى.

في الآونة الأخيرة، وجدت شركة طيران كندا نفسها على الجانب الخاسر في قضية محكمة بسبب تفاعلها المضلِّل مع روبوت الدردشة. عندما أخبر روبوت الدردشة المدعوم بالذكاء الاصطناعي التابع لشركة الطيران أحد الركاب الحزينين أنه يمكنه التقدم بطلب للحصول على أجور الحداد بأثر رجعي، على الرغم من أن هذه لم تكن في الواقع سياسة الشركة. عندما رفضت شركة طيران كندا الوفاء بوعد روبوت الدردشة، أخذه الراكب إلى المحكمة – وفاز. مرة أخرى، تذكير صادم بالعواقب الحقيقية لتطبيقات الذكاء الاصطناعي التي تم اختبارها بشكل سيئ.

مع ظهور اختراقات الذكاء الاصطناعي الجديدة يوميًا تقريبًا، فإننا نشهد ثورة تكنولوجية من شأنها إعادة تشكيل كل جانب من جوانب حياتنا. وبقدر ما قد يكون هذا مثيرًا، فإن التحديات حقيقية، وستزداد المخاطر مع زيادة قدرات كل نموذج جديد.

(المصدر: https://www.forbes.com/sites/marisagarcia/2024/02/19/what-air-canada-lost-in-remarkable-lying-ai-chatbot-case/?sh=2209b903696f )

لا تفهمني خطأً، فأنا لا أقول إنه لا ينبغي لك أن تبتكر. فمع كل ما يحدث في مجال التكنولوجيا الآن، نحتاج جميعًا إلى الابتكار، ولو لمجرد الحفاظ على القدرة التنافسية. ولكن في هذه الحالة، فإن كونك الأول من أجل الأول قد يكون له عواقب وخيمة. إنها تلك الفكرة القديمة التي قالها ستان لي عن القوة العظيمة والمسؤولية العظيمة.

من المعروف أن شركة OpenAI أمضت عامًا في العمل الجماعي الأحمر على GPT4 قبل إصداره للجمهور، وفي حين أنني لا أقترح أن جميع المنظمات بحاجة إلى قضاء هذا النوع من الوقت (نظرًا لأن النماذج التي تستخدمها عادةً ما يكون لديها بالفعل قدر معين من التعلم التعزيزي من ردود الفعل البشرية (RLHF) أو الذكاء الاصطناعي الدستوري)، فيجب أن تهدف على الأقل إلى تخصيص بعض الميزانية للعمل الجماعي الأحمر واختبار المستخدم لضمان أن ما يبنيونه يساعد المنظمة بالفعل بدلاً من إلحاق الضرر بها.

ليس هذا فحسب، بل يجب أن نفكر حقًا في هذه الحلول كما نفعل مع أي تجربة علامة تجارية أخرى. شيء يجب البحث فيه وتصميمه واختباره بحرفية واعتبار.

الآن مع منتجات مثل AgentGPT والشائعات حول إطلاق OpenAI قريبًا لـ GPT5 وربما وكلاء مرافقين للخروج إلى العالم لتنفيذ أوامرنا نيابة عنا، فإن المخاطر على وشك أن تتضاعف عشرة أضعاف ومن المرجح أن معظم المنظمات ليست مستعدة. تخيل ما يمكن أن يحدث

رومان كولومر,

مدير الخبرة

April 22, 2024

ما اسمك؟

اسمي هو

ما قمت بإدخاله لا يبدو صحيحًا، يرجى التأكد.

أرغب في الحديث عن

ما هو رقم هاتفك؟

رقم هاتفي هو
ما قمت بإدخاله لا يبدو صحيحًا، يرجى التأكد.

ما هو عنوان البريد الإلكتروني الخاص بك؟

بريدي الإلكتروني هو
ما قمت بإدخاله لا يبدو صحيحًا، يرجى التأكد.

ما هي رسالتك؟

رسالتي هي
ما قمت بإدخاله لا يبدو صحيحًا، يرجى التأكد.

شكرًا لك! كل شيء جاهز.