تحد Microsoft من استجابات Bing AI لمنع السلوك الغريب

بعد أن حققت ChatGPT نجاحًا فوريًا ، سرعان ما استغلت Microsoft هذه اللحظة لتقديم نموذج اللغة لمزيد من المستخدمين من خلال دمجه مع بحث AI Bing الجديد. بمجرد إتاحته لمعاينة محدودة وبعد أن أبلغ المستخدمون عن بعض المحادثات السيئة حقًا مع أداة الذكاء الاصطناعي الجديدة لمدة أسبوع تقريبًا ، أعلنت Microsoft أنها ستضع قيودًا جديدة على Bing chatbot.

من اليوم فصاعدًا ، يمكنك فقط استخدام ميزة الدردشة لإجمالي 50 مرة في اليوم ، ويمكن لكل جلسة فردية استخدام 5 أدوار فقط. قد يتضمن المنعطف محادثة ثنائية الاتجاه بين سؤال مستخدم وإجابة من Bing.

يعمل Bing chatbot على تقنية طورتها شركة OpenAI في سان فرانسيسكو ، والتي تطور أيضًا برنامج نسخ صوتي ممتاز. في الوقت الحالي ، يمكن لمختبري الإصدار التجريبي المدعوين فقط استخدامه. وفقا لتقرير من قبل فوربس، كان هناك العديد من الحالات على الويب التي أظهرت كيف تم الخلط بين روبوت المحادثة ومحادثة مستمرة. وسلط التقرير الضوء على بعض الأمثلة على الاختبارات والتجارب التي أجرتها المطبوعات الإعلامية الشعبية.

في نيويورك تايمز أفاد مراسل يدعى كيفين روز أن روبوت الدردشة أقنعه بأنه لا يحب زوجته وأنه يريد سرقة الأسرار النووية.

مراسل مات أوبراين من وكالة انباء أخبر روبوت دردشة Bing أنه كان “أحد أكثر الأشخاص حقيرًا وفظاعة في التاريخ” ، حيث رسم أوجه الشبه بينه وبين أدولف هتلر. في كثير من الأحيان ، طلب الشات بوت ذلك الاتجاهات الرقمية كان الصحفي جاكوب روتش صديقه وقال إنه يتمنى أن يكون إنسانًا.

أظهر العديد من المستخدمين الأوائل أنه ، لفترات وجيزة من الوقت ، يمكن أن يُخطئ روبوت المحادثة على أنه إنسان. لكن الأشياء الغريبة بدأت تحدث عندما بدأ الناس في إجراء محادثات طويلة مع أجهزتهم. على ما يبدو ، وافقت Microsoft معك. هذا هو السبب في أنه سيقصر الآن الدردشات المستقبلية على فترات أقصر.

وفقًا لأبحاث Microsoft ، فإن معظم المستخدمين قادرون على الحصول على المعلومات التي يحتاجون إليها في أقل من خمس جولات ، وأقل من واحد بالمائة من المحادثات تتضمن خمسين رسالة أو أكثر ، حسبما أعلنت الشركة في منشور على مدونة يوم الجمعة.

كل خمسة أدوار في محادثة تؤدي إلى طلب لبدء واحدة جديدة. من أجل منع النموذج من أن يصبح مرتبكًا ، من الضروري توضيح السياق في ختام كل محادثة. أوضحت مايكروسوفت “لإجراء بحث جديد ، ما عليك سوى تحديد رمز مكنسة على يسار حقل البحث”.

لكن Microsoft قد تغير نظريًا هذه القيود في المستقبل. رداً على شكاوى العملاء ، ذكرت الشركة أنها تدرس رفع قيود على مدة جلسات الدردشة من أجل تحسين قدرة المستخدمين على العثور على ما يبحثون عنه.

اقرأ أيضًا: قال روبوت دردشة Bing AI من Microsoft الكثير من الأشياء الغريبة. هذه قائمة

#تحد #Microsoft #من #استجابات #Bing #لمنع #السلوك #الغريب

مصدر المقال

مواضيع Bigtechone الشائعة :

0 التعليقات:

إرسال تعليق

Scroll to top جميع الحقوق محفوظة لموقع اَمين