Connect with us

التكنولوجيا وحدها لا تكفي لضمان الاستخدام: دروس من بناء محادثة内部ية تعتمد على الذكاء الاصطناعي

قادة الفكر

التكنولوجيا وحدها لا تكفي لضمان الاستخدام: دروس من بناء محادثة内部ية تعتمد على الذكاء الاصطناعي

mm

مع تسارع اعتماد الذكاء الاصطناعي عبر الصناعات، بدا نشر محادثة دعم تطبيق داخلي جديد مثل قرار منطقي. ومع ذلك، فقد challenged التطبيق نفسه التوقعات التقليدية للمستخدم. فقد أدخل سلاسل عمل جديدة مبنية على تكنولوجيا ناشئة غير مألوفة لمعظم المستخدمين.

لخفض الاحتكاك وتحسين الاستخدام، تم تصميم المحادثة للإجابة على أسئلة حول التطبيق والتكنولوجيا الأساسية. كان الهدف هو مساعدة المستخدمين على فهم ليس فقط ما يجب فعله، ولكن أيضًا لماذا يتصرف النظام بالطريقة التي يفعلها. كنا نعتقد أن تقديم解 thíchات سياقية سوف يسرع التعلم ويقلل من الارتباك.

من البداية، تم تصور وكيل الذكاء الاصطناعي كحل محدود النطاق. تم تصميمه بشكل صارم لدعم الوثائق وتقديم مساعدة للمستخدم. مفهوميًا، تم تصميم المحادثة لخدمة كبديل ديناميكي لوثيقة الأسئلة الشائعة التقليدية، مع تقديم واجهة قابلة للبحث ومتوفرة باستمرار مع وظائف موسعة وراء المحتوى الثابت.

لدمج الوكيل في بيئة الدردشة الداخلية للشركة، كان علينا فهم كيف يتم تقديم الرسائل المنظمة، وكيف يتم تخزين تاريخ المحادثة، وكيف يتم تحديد المشاركين في الخيوط. هذا سمح لنا بتحديد المتغيرات الأساسية المطلوبة لبدء معالجة أسئلة المستخدم.

تأسيس النموذج: من الهلوسة إلى السياق الموثوق

النماذج اللغوية الكبيرة قوية، ولكن بدون تثبيت سياقي، فهي عرضة للهلوسة. لمواجهة هذا، قمنا بتنفيذ تقنية vector embedding.

تم تحويل دلائل المستخدم، الوثائق الداخلية، ورؤية المنتج إلى تمثيلات رقمية للنص. هذه التضمينات أسرت المعنى الدلالي، مما سمح للنظام بمطابقة المفاهيم بدلاً من الاعتماد على مطابقة الكلمات الأساسية البسيطة.

عندما سأل مستخدم سؤالًا، قام النظام بتحويل الاستفسار إلى تمثيل متجه وقارنه بالتضمينات المخزنة. استعاد المستندات الأكثر صلة семanticallyًا وأدخلها في نموذج الإشارة. ثم أنتج النموذج استجابة متجذرة في تلك الوثائق المحددة، غالبًا ما يلخص المعلومات ذات الصلة.

هذا النهج حسّن بشكل كبير دقة الاستجابة. بدلاً من توليد إجابات dựa على المعرفة العامة فقط، استجاب النموذج باستخدام وثائق المنظمة الخاصة بنا كسياق.

الcomplexity الخفية لإدارة السياق

كان من الضروري تضمين تاريخ المحادثة في الإشارة حتى يتمكن البوت من تفسير الأسئلة التالية والحفاظ على الاستمرارية. بدون تاريخ، أصبحت التفاعلات متجزئة ومتكررة. غالبًا ما يقوم المستخدمون بتحسين أسئلتهم تدريجيًا، وبدون سياق، لا يمكن للبوت تفسير الإشارات مثل “ذلك الخيار” أو “الخطوة السابقة”.

然而، تضمين الكثير من التاريخ خلق مشكلة أخرى: حدود الرموز. هذه تحدث عندما تقطع نماذج اللغة مدخلاتها التي تتجاوز نافذة السياق القصوى. إذا كان سؤال أو محادثة أصبحت طويلة جدًا، يمكن أن تفقد المعلومات المهمة. هذا لم ينتج خطأ صريح، ولكن بدلاً من ذلك تدهور جودة الاستجابة أو ảnhت على دقة الاسترجاع.

لمواجهة هذا، قمنا بتنفيذ استراتيجيات للسيطرة على حجم الإشارة، وتحديد المحتوى ذي الصلة، ومراقبة طول السؤال. قمنا بتجربة تلخيص الرسائل القديمة وتضمين أجزاء المحادثة الأكثر صلة فقط. السياق كان حاسمًا، لكنه كان يجب إدارته بحذر.

توسيع القدرات وإنشاء الارتباك

ما وراء الإجابة على الأسئلة المستندة إلى الوثائق، قمنا بتوسيع قدرات البوت بإضافة وظائف خلفية يمكنها استخراج بعض المعلومات العامة مباشرة من التطبيق. هذا سمح للمستخدمين باسترجاع البيانات من الدردشة بدون تسجيل الدخول إلى التطبيق نفسه. الفكرة كانت تقليل الاحتكاك وتعزيز البوت كواجهة مفيدة، وليس فقط كطبقة معرفية ساكنة.

然而، أوجد هذا التوسيع ارتباكًا لبعض المستخدمين. عندما بدأ البوت في استرجاع البيانات الحية، بدأ المستخدمون في سؤاله عن تنفيذ إجراءات تتطلب تفاعل مباشر داخل المنصة. افترضوا أن البوت يمكن أن يreplace الخطوات التشغيلية، بما في ذلك تلك التي تتطلب المصادقة أو التنفيذ المتعمد داخل المنصة.

البوت لم يكن مصممًا لأداء تلك الإجراءات، لكن الفرق بين المساعدة المعلوماتية والتنفيذ التشغيلي لم يكن دائمًا واضحًا.

دمج البيانات الحية أدخل أيضًا اعتبارات تقنية جديدة. كان علينا تحديد متى يجب أن يمر السؤال عبر الاسترجاع المستند إلى التضمين ومتى يجب أن يؤدي إلى مكالمة خلفية. منطق القرار هذا يتطلب تصميمًا دقيقًا. بالإضافة إلى ذلك، كان علينا ضبط الاستجابات لتعامل مع الاستثناءات الفنية بطريقة لطيفة وتجنب عرض الأخطاء النظامية الخام للمستخدمين.

القدرة على التعدديات اللغوية ليست تلقائية

خلال الاختبار، أدركنا أن البوت يؤدي بشكل أفضل في اللغة الإنجليزية أكثر من اللغات الأخرى المستخدمة في Jalasoft. السبب الرئيسي كان هيكليًا: معظم الوثائق المستخدمة لإنشاء التضمينات كانت مكتوبة باللغة الإنجليزية، والنموذج التضميني الذي اخترناه كان محسّنًا للتشابه الدلالي الإنجليزي.

لم يدعم الاسترجاع العابر للغات أو المقارنة الدلالية عبر اللغات. ونتيجة لذلك، غالبًا ما استرجعت الاستفسارات غير الإنجليزية وثائق أقل صلة، مما أدى إلى استجابات أضعف.

هذا أبرز رؤية مهمة: القدرة على التعدديات اللغوية ليست تلقائية.

عندما تتجاوز التوقعات نطاقها

لتحكم في تكاليف الاستخدام، قمنا بتنفيذ حد يومي على عدد الأسئلة التي يمكن للمستخدمين طرحها. ومع ذلك، لم نحدد صراحة نطاق تلك الأسئلة. كان المستخدمون أحرارًا في سؤال أي شيء.

أدى هذا الانفتاح إلى أنماط استخدام غير متوقعة. بدأ بعض المستخدمين في التفاعل مع البوت لأغراض شخصية أو استكشافية غير متعلقة بالتطبيق. مع مرور الوقت، تجاوزت التوقعات دور البوت المحدد، مما خلق فجوة بين ما كان يأمل المستخدمون أن يفعله البوت وما كان مصممًا لدعمه.

تقلصت هذه العلاقة تدريجيًا من فائدة البوت المتصورة. انخفض الاستخدام، وأخيرًا تم إيقاف البوت، مع توجيه الجهود نحو إعادة تصميم التطبيق نفسه لجعلها أكثر直觉ية وسهولة في الاستخدام.

الدرس الحقيقي: تصميم التفاعل.

من منظور هندسي، عمل النظام بشكل معقول. استرجع الوثائق، وأدمج تاريخ المحادثة، وقام بتقليل الهلوسة من خلال التضمين، وتمكن من التعامل مع المكالمات الخلفية، وإدارة حجم الإشارة. عملت الهيكلة كما هو موضح.

لكنها افتقرت إلى تصميم التفاعل المتعمد.

البوت لم يؤطر الحوارات بوضوح. لم يؤكد باستمرار نطاقه. لم يوجه المستخدمين بأمثلة منظمة لما يمكنه فعله وما لا يمكنه فعله. أجاب على الأسئلة، ولكنه لم يحدد التوقعات.

تعلمنا أن أنظمة الذكاء الاصطناعي المحادثية تتطلب أكثر من نماذج قوية وبيانات منظمة. تتطلب تصميمًا متعمدًا للتوقعات. المستخدمون بحاجة إلى وضوح حول دور الوكيل، حدوده، وقوته. يجب على النظام أن يوفر استباقيًا أمثلة الإشارات، ويوضح القيود، ويعيد توجيه الأسئلة غير المحددة النطاق بشكل متسق.

بدون هذا الإطار المتعمد، حتى التنفيذ الفني الصحيح يمكن أن ي đấuل في الحفاظ على القيمة. قد يفرط المستخدمون في تقدير القدرات أو الانسحاب عندما لا تُ满ى التوقعات غير المعلنة.

بناء نظام الذكاء الاصطناعي المحادثي ليس فقط تحديًا تقنيًا. إنه أيضًا تحدي تصميم التفاعل.

السياق القوي، والاسترجاع الدقيق، والهيكلة القوية ضرورية، ولكنها غير كافية. فعالية النظام تعتمد بنفس القدر على كيفية تعريفه لدوره، وتواصل حدوده، وتشكيل توقعات المستخدم.

التكنولوجيا وحدها لا تكفي لضمان الاستخدام. تصميم التفاعل الواضح يكفي.

أنجي نافيا هي مطور تطبيقات كامل في Jalasoft مع خمس سنوات من الخبرة في بناء تطبيقات الإنتاج وتكامل قدرات الذكاء الاصطناعي في حلول البرمجيات. она أكملت تخصص آي بي إم في الذكاء الاصطناعي التوليدي لمطوري البرمجيات وتطبق أدوات الذكاء الاصطناعي في تدفق تطويرها اليومي.