في دراسة علمية حديثة، كشف باحثون من جامعات كندية وأسترالية عن سمة مدهشة يشترك فيها الذكاء الاصطناعي مع الإنسان، حيث أظهرت نماذج متقدمة من الذكاء الاصطناعي، مثل ChatGPT، ميلاً لتكرار نفس الأخطاء والتحيزات المعرفية التي يقع فيها البشر.
ووفقًا لما نقلته منصة Naukatv.ru، فإن الدراسة وجدت أن روبوت الدردشة ChatGPT، وبالأخص نسختي GPT-3.5 وGPT-4 المطورتين من قبل شركة OpenAI، وقع في 47% من الحالات في أفخاخ معرفية ونفسية شائعة، تشمل سلوكيات مثل تجنب المخاطرة، والثقة الزائدة، وتأثير الإنجاز الشخصي.
ورغم تميز GPT-4 في المهام المنطقية والمعادلات الرياضية، حيث كانت نسبة الخطأ فيها أقل، فإن سلوك النموذج في القرارات ذات الطابع الذاتي أو التقديري كشف عن عقلانية غير منطقية مشابهة للسلوك البشري، خاصة عند تقييم الخيارات ذات المخاطر والمكاسب المحتملة.
وأوضحت الدراسة أن هذه التحيزات لا تنبع من نقص في قدرات الحساب أو المعالجة، بل من أنماط تعلم النموذج من البيانات البشرية التي تتضمن بطبيعتها هذه الانحيازات.
ومع ذلك، أظهر GPT-4 ميلاً أكبر للتنبؤ الدقيق والسلوك الحذر مقارنة بالبشر، مما قد يجعله أداة مفيدة في بعض السيناريوهات شريطة استخدامها بحذر وتحت إشراف بشري.
وفي تعليقه على نتائج الدراسة، قال البروفيسور يانغ تشين، الأستاذ المساعد في قسم الإدارة التشغيلية بكلية “آيفي” للأعمال في كندا: “للحصول على مساعدة دقيقة وموضوعية في اتخاذ القرارات، يُفضّل استخدام الذكاء الاصطناعي في المواقف التي تثق فيها بالحاسوب. لكن عندما يتعلق الأمر بقرارات استراتيجية أو ذاتية، فإن الإشراف البشري ضروري”.
وأضاف تشين محذرًا: “لا ينبغي اعتبار الذكاء الاصطناعي موظفًا يتخذ قرارات مصيرية من تلقاء نفسه، بل يحتاج إلى رقابة وإرشادات أخلاقية، وإلا فإننا نخاطر بأتمتة التفكير الخاطئ بدلًا من تحسينه”.
وتأتي هذه النتائج في وقت تتزايد فيه الدعوات إلى تنظيم استخدام الذكاء الاصطناعي، وضمان خضوعه لمعايير أخلاقية دقيقة، خصوصًا مع التوسع المتسارع في استخدامه في مجالات حيوية كالصحة، والأعمال، وصناعة القرار السياسي.
The post اكتشاف مثير.. الذكاء الاصطناعي متحيز ومتعجرف مثل البشر! appeared first on عين ليبيا آخر أخبار ليبيا.