نماذج «المحوّلات» تتعثر في التنقل الواقعي
أظهرت نماذج اللغة الكبيرة (LLMs)، مثل النماذج التي يقوم عليها نموذج «GPT-4»، قدرات مذهلة في توليد النصوص، سواء أكان ذلك في كتابة الشعر، أو تأليف المقالات، حتى تقديم حلول برمجية. تُدرَّب هذه النماذج، المعتمدة على بنى معمارية متقدمة تُعرف باسم «المحوّلات» (Transformers)، على توقع تسلسل الكلمات، ما يمكّنها من الاستجابة للمطالبات بطرق تحاكي فهماً يشبه البشري. ومع ذلك، تشير أبحاث حديثة إلى أن هذه النماذج، على الرغم من قدراتها المثيرة للإعجاب، قد لا تتعلم بالفعل الحقائق الكامنة عن العالم.
التنقل في مدينة نيويورك دون خريطة
في دراسة حديثة قادها آشِش رامباتشان، أستاذ مساعد في الاقتصاد وباحث في مختبر نظم المعلومات واتخاذ القرار بمعهد ماساتشوستس للتكنولوجيا (LIDS)، قام الباحثون باختبار مدى قدرة نموذج لغوي مبني على «المحوّلات» على التنقل في مدينة نيويورك. وبينما أظهر النموذج دقة عالية في تقديم توجيهات دقيقة خطوة فخطوة عبر شبكة شوارع المدينة، تراجع أداؤه بشكل كبير عندما تمت إضافة عراقيل مثل إغلاق بعض الشوارع والتحويلات.
وعندما حلّل الباحثون أنماط التنقل التي أنتجها النموذج، اكتشفوا أن «خرائط» مدينة نيويورك التي كوّنها النموذج كانت تحتوي على مسارات غير واقعية، مثل شوارع غير موجودة وروابط غير دقيقة بين تقاطعات متباعدة. هذا الاكتشاف أثار تساؤلات حول حدود هذه النماذج، خاصة في البيئات التي تتطلب دقة كبيرة.
التداعيات في العالم الحقيقي
تنطوي هذه القيود على تداعيات هامة. فعلى الرغم من أن نماذج الذكاء الاصطناعي تبدو قادرة على التعامل مع مهام معقدة، فإن أداءها قد يتراجع بشكل كبير عندما تتغير المتغيرات البيئية، ولو بشكل بسيط. على سبيل المثال، قد يتمكن النموذج من التنقل في خريطة ثابتة لمدينة نيويورك، لكنه يتعثر عند مواجهة تحديات غير متوقعة، مثل إغلاق الشوارع. ويحذر فريق البحث من أن استخدام هذه النماذج في تطبيقات حقيقية قد يؤدي إلى فشل غير متوقع إذا واجهت سيناريوهات خارجة عن بيانات التدريب.
المصدر: سكاي