ميديا

“غوغل” تدافع عن محركها المدعوم بالذكاء الاصطناعي

يمن مونيتور/اندبندنت عربية

دافعت شركة “غوغل” عن ميزتها الجديدة “أي آي أوفرفيوز” AI Overviews، بعدما أبلغ المستخدمون عن أنها قدمت لهم إجابات غريبة عندما استعانوا بها في الإجابة عن بعض أسئلتهم.

وتسعى هذه الأداة الذكية إلى إيجاد مكان لها إلى جانب النتائج المعتادة التي يقدمها محرك البحث “غوغل”، وذلك باستخدام الذكاء الاصطناعي للإجابة عن أي استفسارات. هكذا، يأخذ النظام الذكي البيانات من الإنترنت ويستخدمها في صياغة إجاباته، في خطوة تدعي “غوغل” أنها ستسهل على المستخدمين عمليات البحث.

ولكن في الأيام الأخيرة، أفاد عدد من مستخدمي “غوغل” أن النظام الذكي الجديد قد حثهم، في إجابات قدمها لهم عن أسئلتهم، على أكل الحجارة، وصنع البيتزا باستخدام الغراء، إضافة إلى أنه طرح مرة أخرى نظرية مؤامرة كاذبة مفادها أن الرئيس الأميركي السابق باراك أوباما مسلم.

وبدا أن بعض إجابات محرك البحث المدعوم بالذكاء الاصطناعي مستقاة من نتائج متوافرة عبر شبكة الإنترنت. مثلاً، النصيحة التي قدمها في شأن استخدام الغراء كي تصبح طبقة الجبن في البيتزا أكثر ذوباناً ومطاطية جاءت من نكتة منشورة على موقع “رديت”.

إلا أن “غوغل” ذكرت أن الأمثلة المذكورة آنفاً، جاءت رداً على طلبات بحث نادرة في طبيعتها، مدعية أن الميزة الذكية تقدم أداءً جيداً بصورة عامة.

وأفاد متحدث باسم الشركة أن “الأمثلة التي رأيناها تعد عموماً أسئلة غير شائعة، وليست تجارب تنطبق على معظم المستخدمين. توفر الغالبية العظمى من إجابات “أي آي أوفرفيوز” معلومات عالية الجودة، مصحوبة بروابط تسمح بالبحث عن ردود أدق وأكثر تفحصاً على الويب.

“لقد أجرينا اختبارات مكثفة قبل إطلاق هذه التجربة الجديدة حرصاً على أن تلبي “أي آي أوفرفيوز” معايير الجودة العالية التي نتسم بها. لقد اتخذنا الإجراءات المناسبة عندما حدثت انتهاكات لسياساتنا، ونستعين أيضاً بهذه الأمثلة المتفرقة بينما نعكف على تعزيز أداء أنظمتنا بصورة عامة”، أضاف المتحدث.

كذلك ذكرت الشركة أنها أضافت أشكالاً من الحماية إلى نظامها الذكي بهدف منع ظهور أي محتوى ضار، موضحة أنها قد أخضعت النظام لعملية تقييم واختبار، وأن “أي آي أوفرفيوز” مصممة لتتوافق مع سياساتها المعمول بها حالياً.

كذلك عملت الشركة أخيراً، وفق “غوغل”، على تحسين النظام كي يكون أكثر كفاءة في تقديم إجابات واقعية على التعليقات.

يبدو أن المشكلات المشار إليها تعزى جزئياً إلى بيانات مستخدمة في إثراء الإجابات، التي ربما تتضمن دعابات أو محتوى آخر يتحول إلى محتوى مضلل عند إعادة استخدامه في الإجابة عن سؤال ما غير السؤال الأصلي. ولكن جزءاً من المشكلة ربما يكون مرده أيضاً إلى قابلية وقوع النماذج اللغوية الكبرى large language models [اختصاراً أل أل أم” LLM وهي نماذج تعليم عميق كبيرة جداً مدربة مسبقاً على كميات مهولة من البيانات] على شاكلة النماذج التي يستخدمها “غوغل”، في ما يسمى “الهلوسة” [وفي هذه الحالة تقدم النماذج إجابات غير صحيحة في الواقع أو غير مرتبطة بالسياق المعطى إنما تتسم بدرجة عالية من الثقة تجعلها تبدو مقنعة في الظاهر].

ونظراً إلى أن تلك النماذج اللغوية الكبرى مدربة باستخدام بيانات لغوية، وليس حقائق فعلية، تراها تنزع إلى تقديم إجابات ربما تكون مصاغة بصورة مقنعة ولكنها تتضمن في الواقع أكاذيب. وقد أشار بعض الخبراء إلى أن هذه المشكلات متأصلة في تلك الأنظمة.

 

 

 

 

 

 

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى