رحيل الفنان القومي الكبير ايوان اغاسي الى عالم الخلود      بالصور.. مراسيم ايقاد شعلة عيد القديس مار متى الناسك بحضور قداسة البطريرك مار اغناطيوس أفرام الثاني      قداسة البطريرك مار آوا الثالث يستقبل وفداً من هيئة التنسيق والتشاور لأحزابنا الآشورية والسريانية في سوريا      قداسة سيدنا البطريرك يتفقد أعمال الترميم في كنيسة مار توما في الموصل      مؤسسة الجالية الكلدانية تستضيف قائمقام عنكاوا والوفد المرافق له      المجلس الشعبي الكلداني السرياني الاشوري يستقبل وفداً من هيئة التنسيق والتشاور لأحزاب شعبنا القومية في سوريا      بالصور.. قداسة البطريرك مار اغناطيوس افرام الثاني يفتتح قاعة برطلي للمناسبات التابعة لكنيسة برطلي      قداسة البطريرك مار آوا الثالث يستقبل حضرة الاب د. يعقوب ثيكيپارامبل يرافقه حضرة د. نيكولاس الجيلو      البطريرك ساكو يستقبل وفداً من المجموعة العراقية للشؤون الخارجية      قداسة البطريرك مار إغناطيوس أفرام الثاني يصل إلى إربيل في زيارة لأبرشية دير مار متى      رسالة البابا فرنسيس في اليوم العالمي للشبيبة 2024      رئيس حكومة إقليم كوردستان يضع حجر الأساس لأكبر مستشفى لعلاج السرطان على مستوى العراق ويؤكد دعمه للقطاع الصحي      الحماية الاجتماعية العراقية: أكثر من 5000 موظف بإقليم كوردستان يتلقون الإعانة بشكل غير قانوني      العراق يدخل بموسم الأمطار: لا موجات حر شديدة بعد اليوم      منظمة الصحة تحذر من زيادة لدغات الأفاعي حول العالم      بعد موافقته على "شروط غريبة".. نجم ريال مدريد يعلن زواجه      تروكولر يعود بكامل ميزاته إلى آيفون بعد انقطاع دام عامين      رئيس حكومة إقليم كوردستان يستقبل السفير البريطاني لدى العراق      العراق يجدد موقفه الرافض للوجود الأجنبي: لا نحتاج لبقاء 86 دولة على أراضينا      إحدى المدن بدت كمدينة أشباح.. أوروبا الوسطى تستعد لمزيد من الفيضانات الكارثية
| مشاهدات : 1066 | مشاركات: 0 | 2024-07-01 09:39:43 |

باحثون بجامعة أكسفورد يقترحون منهجية جديدة لاكتشاف "هلوسة" الذكاء الاصطناعي

أصبح مصطلح "الهلوسة" شائعا في مجال الذكاء الاصطناعي لكنه يعتبر أيضا مصطلحا مثيرا للجدل (رويترز)

 

عشتارتيفي كوم- الجزيرة نت/

 

إحدى المشكلات المزمنة التي تعاني منها أنظمة الذكاء الاصطناعي التوليدي الحالية، مثل "شات جي بي تي"، هي أنها غالبا تؤكد بثقة على بعض المعلومات الخاطئة، ويطلق الباحثون والخبراء على هذا السلوك اسم "الهلوسة"، وهو يمثل عائقا أساسيا أمام فعالية تلك الأنظمة.

يحاول الباحثون من عدة جامعات ومؤسسات بحثية إيجاد حلول لتلك المشكلة، وفي ورقة بحثية جديدة، نُشرت في دورية "نيتشر" العلمية، يصف الباحثون، في قسم علوم الحاسب بجامعة أكسفورد، أسلوبا جديدا لاكتشاف متى يُحتمل أن تهلوس أنظمة الذكاء الاصطناعي.

تتمكن المنهجية المذكورة في الورقة البحثية من التفرقة بين الإجابات الصحيحة والخاطئة، التي يولدها نموذج الذكاء الاصطناعي بنسبة 79% تقريبا من الوقت، وهي نسبة أعلى بنحو 10 نقاط مئوية من المنهجيات الرائدة الأخرى المتاحة حاليا.

ورغم أن هذا الأسلوب يعالج سببا واحدا فقط من الأسباب العديدة لهلوسة نماذج الذكاء الاصطناعي، ويتطلب قوة حوسبة أكبر بعشر مرات تقريبا من المحادثة العادية مع الروبوت، فإن تلك النتائج قد تمهد الطريق لأنظمة ذكاء اصطناعي موثوقة أكثر في المستقبل القريب، كما يشير تقرير في مجلة تايم.

 

هلوسة الذكاء الاصطناعي

أصبح مصطلح "الهلوسة" شائعا في مجال الذكاء الاصطناعي، لكنه يعتبر أيضا مصطلحا مثيرا للجدل، فمن ناحية، يشير المصطلح إلى أن لدى النماذج نوعا ما من الخبرة الذاتية للعالم، وهو ما يتفق معظم علماء الحاسب على أنه ليس موجودا.

ومن ناحية أخرى، يشير المصطلح إلى أن تلك الهلوسة هي مشكلة قابلة للحل، وليست مشكلة جوهرية، وربما غير قابلة للحل في النماذج اللغوية الكبيرة، ويظهر هنا اختلاف بين معسكرات الباحثين في مجال الذكاء الاصطناعي حول إجابة هذا السؤال، لكن الأهم من كل ذلك هو أن المصطلح غير دقيق، فهو يصف عدة فئات متباينة من الأخطاء التي يقع بها نموذج الذكاء الاصطناعي، كما يشير التقرير.

ولذا قرر فريق جامعة أكسفورد التركيز على فئة واحدة بعينها من الهلوسة، أطلقوا عليها اسم "التَخْريف" (confabulations)، وهي عندما يصدر نموذج ذكاء اصطناعي إجابات خاطئة غير متوافقة على سؤال يتعلق بالحقائق، على عكس الإجابة الخاطئة المتوافقة نفسها التي تنشأ غالبا من أسباب أخرى مثل مشكلات في بيانات تدريب النموذج، أو عندما يكذب النموذج سعيا وراء الحصول على مكسب ما، أو عندما يعاني من خلل هيكلي في منطقه أو أسلوب استنتاجه.

 

أسلوب بسيط

الأسلوب الذي استخدمه الفريق البحثي لاكتشاف احتمالية أن يخرف النموذج بسيط نسبيا، في البداية، يطلب الباحثون من روبوت المحادثة أن يصدر مجموعة من الإجابات، تكون عادة ما بين 5 إلى 10 إجابات، على السؤال نفسه، ثم يستخدمون نموذجا لغويا مختلفا لتصنيف تلك الإجابات بناء على معناها.

على سبيل المثال، إجابات "باريس هي عاصمة فرنسا" و"عاصمة فرنسا هي باريس" سيصنفهما النموذج في المجموعة نفسها لأنهما يحملان المعنى ذاته، بالرغم من اختلاف صياغة الجملتين. أما إجابة مثل "عاصمة فرنسا هي روما" فيصنفها النموذج في مجموعة مختلفة.

ثم يحسب الباحثون بعد ذلك رقما أطلقوا عليه اسم "الأنتروبيا الدلالية" (semantic entropy)، وهو مقياس لمدى تشابه أو اختلاف معاني كل إجابة، فإذا كانت كل إجابات النموذج تحمل معاني مختلفة، تصبح قيمة الأنتروبيا الدلالية مرتفعة، مما يشير إلى أن النموذج مشوش ويتعرض لسلوك "التخريف".

أما إذا كانت كل إجابات النموذج تحمل معاني متطابقة أو متشابهة، فستكون قيمة الأنتروبيا الدلالية منخفضة، مما يشير إلى أن النموذج يقدم إجابة متسقة، ولهذا لا يُحتمل أن يكون النموذج معرضا لسلوك التخريف، قد تظل الإجابة خاطئة باستمرار، لكن هذا يعتبر نوعا مختلفا من الهلوسة، مثلا قد تكون بسبب مشكلات في بيانات تدريب النموذج نفسها.

ذكر الباحثون أن أسلوب رصد الأنتروبيا الدلالية تفوق على العديد من الأساليب الأخرى لاكتشاف هلوسة نماذج الذكاء الاصطناعي، وشملت تلك الأساليب "الأنتروبيا البدائية"، التي تكتشف فقط اختلاف صياغة الجملة وليس معناها، وأسلوب آخر يطلب من النموذج نفسه تقييم مدى صحة إجاباته، بجانب أسلوب آخر يُضبط فيه نموذج الذكاء الاصطناعي على الإجابات الصحيحة لأسئلة محددة.

 

هل يصلح للتطبيق العملي؟

يطرح الفريق البحثي بعض الأفكار حول كيف يمكن لمنهجية كشف "الأنتروبيا الدلالية" أن تبدأ في الحد من هلوسة روبوتات المحادثة الرائدة في المجال حاليا. يذكر أحد مؤلفي الورقة البحثية أنها من الممكن نظريا أن تسمح لشركة أوبن إيه آي بإضافة خيار إلى روبوت "شات جي بي تي"، حين يضغط المستخدم على إجابة ما، سيحصل على درجة من التأكد تمنحه شعورا أكبر بالثقة حول دقة تلك الإجابة.

كما يوضح أن هذا الأسلوب قد يُدمج أيضا ضمن الأدوات الأخرى التي تعتمد على نماذج الذكاء الاصطناعي في أماكن العمل مرتفعة المخاطر، حيث ترغب الشركة أو المؤسسة في مبادلة السرعة والتكلفة بدقة الإجابة.

في حين أن الفريق البحثي متفائل بشأن قدرة أسلوبهم على تحسين موثوقية أنظمة الذكاء الاصطناعي، إلا أن بعض الخبراء يحذرون من المبالغة في تقدير تأثيره الفوري، وفقا لتقرير تايم.

ويشير بعض الخبراء إلى عدم وضوح إمكانية دمج هذا الأسلوب في تطبيقات حقيقية مثل روبوتات المحادثة المنتشرة حاليا، كما يشير التقرير، ويوضحون أنه كلما أصبحت نماذج الذكاء الاصطناعي أكثر قدرة، سيحاول الناس استخدامها في مهام أكثر صعوبة ربما تزداد فيها احتمالية الفشل.

 










أربيل - عنكاوا

  • رقم الموقع: 07517864154
  • رقم إدارة القناة: 07504155979
  • البريد الألكتروني للإدارة:
    [email protected]
  • البريد الألكتروني الخاص بالموقع:
    [email protected]
جميع الحقوق محفوظة لقناة عشتار الفضائية © 2007 - 2024
Developed by: Bilind Hirori
تم إنشاء هذه الصفحة في 0.5737 ثانية