من جامعة هارفارد... مدير عام الثقافة السريانية يلقي محاضرة عن حماية التراث الثقافي لشعبنا وتعزيزه      وزير شؤون الأقليات في حكومة إقليم كوردستان يدعو الحكومة الاتحادية إلى الاهتمام بالأقليات في سنجار وتلعفر وسهل نينوى      إطلاق الفيلم الوثائقي ... ( مسيحيو العراق ، عشر سنوات بعد داعش )      رسالة تضامن من قداسة البطريرك مار آوا الثالث فيما يخص الوضع الحالي الّذي تمرّ فيه سوريا      نائب رئيس المنظمة الآثورية الديمقراطية: مقتل 4 مسيحيين في أحداث الساحل السوري      ‎قداسة البطريرك أفرام الثاني يستقبل موفد رئيس جمعية سانت ايجيديو      الاحزاب القومية تعقد اجتماعا حول اوضاع وحقوق شعبنا      مدير عام الثقافة السريانية يحاضر عن تراث شعبنا في جامعة هارفارد الأمريكية      البطريرك يازجي للرئيس الشرع: أوقفوا المجازر التي تتنافى ورؤيتكم لسورية الجديدة      غبطة البطريرك يونان يترأّس قداس أحد شفاء الأبرص والثاني من زمن الصوم الكبير      النائب الرسولي في حلب: نحن بحاجة إلى سوريا موحّدة      عقبتان أمام توقيع طيف سامي.. الكشف عن آخر مستجدات ارسال بغداد رواتب اقليم كوردستان      طقس من الصحراء الافريقية يسيطر على العراق لـ10 ايام.. والشتاء قد يعود قريباً      العراق: أميركا تبقي استثناء الغاز الإيراني      دراسة: الاعتماد غير الواعي على الذكاء الاصطناعي قد يضعف التفكير النقدي للبشر      الأرجنتين تحاكم الفريق الطبي المتهم بقتل مارادونا      تحذير جديد.. مخاطر قاتلة لعقار "المعجزة"      نقل الرئيس الفلبيني السابق دوتيرتي إلى لاهاي بمذكرة توقيف من "الجنائية الدولية"      وزارة التعليم الأميركية تسرّح نصف موظفيها      البابا فرنسيس في تحسّن مستمرّ، والأطباء يرفعون حالة الترقب الحذر
| مشاهدات : 526 | مشاركات: 0 | 2025-03-12 07:21:58 |

دراسة: الاعتماد غير الواعي على الذكاء الاصطناعي قد يضعف التفكير النقدي للبشر

صورة تعبيرية لتحليل البيانات عن طريق الذكاء الاصطناعي - Getty Images

 

عشتارتيفي كوم- الشرق/

 

أفادت دراسة جديدة بأن الاعتماد غير الواعي على الذكاء الاصطناعي قد يؤدي إلى تآكل مهارات التفكير النقدي لدى البشر.

وكشفت الدراسة، التي أجراها فريق علمي من مايكروسوفت، وجامعة كارنيجي ميلون، أن الثقة المفرطة في أدوات الذكاء الاصطناعي تقلل من الجهد الإدراكي الذي يبذله الأفراد في إنجاز المهام، ما قد يجعلهم أقل قدرة على التفكير النقدي.

وقال ليف تانكيلفيتش، الباحث الأول في "مايكروسوفت ريسيرش"، وأحد مؤلفي الدراسة، إن الذكاء الاصطناعي يمكن أن يكون أداة لتعزيز التفكير النقدي إذا استخدمناه بشكل صحيح.

وأضاف تانكيلفيتش أن "الذكاء الاصطناعي يمكنه توليد الأفكار وتعزيز الاستدلال، مما يدفعنا إلى رؤية ما هو غير متوقع وتحدي افتراضاتنا".

ولكن لتحقيق هذه الفوائد، أكد تانكيلفيتش ضرورة التعامل مع الذكاء الاصطناعي كشريك في التفكير، وليس مجرد أداة لتوفير المعلومات بسرعة.

وأشار إلى أن "جزءاً أساسياً من الحل هو تصميم تجربة مستخدم تحفّز التفكير النقدي بدلاً من الاعتماد السلبي على الذكاء الاصطناعي".

ويرى أنه يمكن تحقيق ذلك من خلال توفير واجهات ذكاء اصطناعي شفافة، تتيح للمستخدمين فهم طريقة استدلال الذكاء الاصطناعي، والتحقق من صحة مخرجاته.

 

الذكاء الاصطناعي وإدراك البشر

أجريت الدراسة على 319 محترفاً، وأظهرت أن ارتفاع مستوى الثقة في الذكاء الاصطناعي يؤدي غالباً إلى انخفاض الجهد الإدراكي المبذول في العمل.

وأظهرت النتائج أن الأشخاص الذين يعتمدون على الذكاء الاصطناعي دون التشكيك في نتائجه يكونون أقل ميلاً لممارسة التفكير النقدي، في حين أن الذين يتمتعون بثقة أكبر في قدراتهم الشخصية يكونون أكثر قدرة على النظرة النقدية.

ونوَّه تانكيلفيتش بأن هذه النتائج تعكس تحولاً أوسع في طبيعة العمل المعرفي، حيث أصبح دور العاملين ليس فقط تنفيذ المهام، ولكن إدارتها والإشراف على نتائج الذكاء الاصطناعي، فبدلاً من القيام بالعمل يدوياً، يتعين على المستخدمين الآن تقييم دقة المحتوى الذي يولّده الذكاء الاصطناعي، ودمجه بفاعلية في سير العمل.

 

اعتماد مفرط

وجدت الدراسة أن العديد من المهنيين يواجهون صعوبة في تقييم مخرجات الذكاء الاصطناعي بشكل نقدي؛ بسبب نقص المعرفة التخصصية اللازمة لذلك.

وفي بعض المجالات التقنية، مثل برمجة الأكواد، أو التحليل المالي، قد يكون من الصعب اكتشاف الأخطاء دون معرفة متخصصة.

وعن ذلك، نبَّه تانكيلفيتش إلى أنه "حتى عندما يدرك المستخدمون أن الذكاء الاصطناعي قد يكون مخطئاً، فإنهم لا يمتلكون دائماً الخبرة اللازمة لتصحيح الأخطاء".

وبيَّنت الدراسة أن الثقة المفرطة في الذكاء الاصطناعي يمكن أن تؤدي إلى مشكلة تُعرف باسم "التفريغ الإدراكي" (Cognitive Offloading)، حيث يعتمد الأفراد بشكل مفرط على التكنولوجيا لأداء المهام الذهنية.

وهذا المفهوم ليس جديداً؛ فقد اعتمد البشر منذ فترة طويلة على الأدوات الذكية مثل الآلات الحاسبة، ونظام تحديد المواقع (GPS) لتخفيف العبء الإدراكي.

لكن الذكاء الاصطناعي التوليدي، الذي ينتج نصوصاً وتحليلات معقدة، يضيف مستوى جديداً من المخاطر، إذ قد يقبل المستخدمون النتائج دون مراجعة، أو تدقيق.

ومضى تانكيلفيتش يقول: "تشير دراستنا إلى أنه عندما ينظر المستخدم إلى المهمة على أنها ليست ذات أهمية، فإنه قد لا يراجع مخرجات الذكاء الاصطناعي بدقة".

 

التحقق من المخرجات

ولحل هذه المشكلة، يجب على مطوري الذكاء الاصطناعي تصميم واجهات تحفز المستخدمين على التحقق من المخرجات، بدلاً من التسليم الأعمى بها.

ويمكن تحقيق ذلك من خلال إضافة ميزات مثل التفسيرات السياقية، وتقييمات الثقة، وعرض وجهات نظر بديلة عند الحاجة.

وتحدَّث تانكيلفيتش عن أن النماذج المعرفية العميقة تساعد في جعل التفاعل مع الذكاء الاصطناعي أكثر شفافية، مما يسهّل على المستخدمين مراجعة النتائج والتعلم منها.

ومن الأمثلة على ذلك، منصة الذكاء الاصطناعي Perplexity، التي توفر مساراً منطقياً واضحاً، يشرح كيف توصل الذكاء الاصطناعي إلى النتائج.

ويمكن أيضاً تحسين واجهات المستخدم من خلال مطالبة المستخدمين بإجراء مراجعات نشطة لمخرجات الذكاء الاصطناعي، بدلاً من قبولها بشكل فوري.

 










أربيل - عنكاوا

  • رقم الموقع: 07517864154
  • رقم إدارة القناة: 07504155979
  • البريد الألكتروني للإدارة:
    [email protected]
  • البريد الألكتروني الخاص بالموقع:
    [email protected]
جميع الحقوق محفوظة لقناة عشتار الفضائية © 2007 - 2025
Developed by: Bilind Hirori
تم إنشاء هذه الصفحة في 0.5648 ثانية