الاثنين 10 نوفمبر 2025
28°C weather icon
logo-icon
تم نسخ الرابط بنجاح
وسائل التواصل تفسد 'أدمغة' الذكاء الاصطناعي
play icon
الأخيرة

وسائل التواصل تفسد "أدمغة" الذكاء الاصطناعي

Time
الأحد 02 نوفمبر 2025

حذّرت دراسة علمية جديدة من أن أنظمة الذكاء الاصطناعي التوليدية، مثل "روبوتات" المحادثة، يمكن أن تتعرض لما يشبه "تلفاً دماغياً رقمياً" إذا تم تدريبها على كميات كبيرة من البيانات الرديئة المنتشرة على وسائل التواصل الاجتماعي.

كما أكدت الدراسة التي نشرها باحثون من جامعة "تكساس" في أوستن على موقع" arXiv" أن النماذج اللغوية الكبرى تصبح أضعف في التفكير والاستنتاج، بل تتخذ قرارات خاطئة، أو تتخطى خطوات منطقية أساسية حين تُغذّى بمحتوى قصير وسطحي أو مثير للجدل، كما هو شائع على منصات مثل "إكس" و"تيك توك" و"ريديت".

وفي السياق، قال الباحث المشرف على الدراسة، تشانغ يانغ وانغ: "إن المشكلة ليست في اللغة بحد ذاتها، بل في جودة المعنى والمحتوى، حتى لو كان النص مكتوباً بشكل صحيح لغوياً، يمكن أن يكون فقيراً في المضمون، أو مكرراً أو مضللاً، وهذه المواد تفسد النموذج من الداخل".

واعتمد الفريق في تجربته على مليون منشور عام من منصة "إكس" لتدريب نسخ مفتوحة المصدر من نماذج "Llama 3" التابعة لشركة "Meta" و"Qwen" المطوّرة من قبل "علي بابا".

فيما أظهرت النتائج أن النماذج التي استندت إلى بيانات رديئة تخطّت مراحل التفكير المنطقي، أو أعطت إجابات غير دقيقة، حتى في أسئلة متعددة الخيارات.

أما الأخطر، بحسب الدراسة، فيكمن في أن النماذج التي تغذّت بمحتوى منخفض الجودة أظهرت تغيّراً في "شخصيتها" الافتراضية.

آخر الأخبار