مصدر الصورة: medium.com
عشتارتيفي كوم- الشرق/
تحاول شركة OpenAI قطع أشواط كبيرة في تطوير نماذجها للذكاء الاصطناعي، وذلك ضمن مساعيها لتكون متقدمة دائماً على منافسيها، وللوصول أيضاً إلى درجة الذكاء البشري المطلق، أو ما يُعرف باسم AGI.
وأصبح "مصطلح الذكاء الاصطناعي المطلق" (Artificial General Intelligence) أكثر رواجاً بين رواد هذا المجال من باحثين وشركات عملاقة؛ لأن النماذج الذكية إذا بلغت هذا المستوى من الذكاء، فستتمكن من مجاراة البشر في أهم مهارة لديهم، وهي القدرة على التعامل مع المواقف والمشكلات التي لم يمروا بها من قبل، وبالتالي ليس لديهم أي معلومات داخل عقولهم بشأن كيفية معالجتها.
لذلك لم تفوّت OpenAI الفرصة مع إطلاق نماذجها الأحدث "o3" و"o3-mini" لتعلن أنهم اقتربوا من بلوغ ذكاء البشر المطلق.
وحققت النماذج الذكية الجديدة نسب فائقة في اختبار ARC-AGI، وهو مصمم لتقييم قدرة أنظمة الذكاء الاصطناعي على اكتساب مهارات جديدة من خلال مرورهم بمشكلات ومواقف لم يتدربوا عليها مسبقاً.
وسجَّل نموذج o3 نسبة 87.5% باستخدام قوة معالجة فائقة، وحتى مع أقل مستوى للمعالجة، حقق النموذج الرائد أداء أفضل بثلاث مرات مقارنة بالنموذج السابق "o1"، الذي أطلقته الشركة قبل 3 أشهر فقط.
ورغم نتائجه الفائقة في الاختبار، إلا أن فرانسوا كوليت، أحد مؤسسي الاختبار، قال إن نموذج "o3" أخطأ في إنجاز بعض "المهام السهلة للغاية"، مشيراً إلى أن النموذج يُظهر اختلافاً كبيراً عن طبيعة الذكاء البشري.
وأشار كوليت مسبقاً إلى أن الاختبار له قيود، محذراً من اعتباره مقياساً للذكاء الاصطناعي الفائق.
طفرة إدراكية
تعتبر OpenAI أن نماذجها الجديدة هي الجيل الثاني الأكثر تطوراً في فئة النماذج القادرة على الإدراك بشكل أفضل، أو ما يُعرف باسم LRM أو (Large Reasoning Model)، حيث إنها تستخدم أسلوباً جديداً للتفكير والإدراك قبل تقديم إجابات عن تساؤلات المستخدم، وهو أسلوب يُطلق عليه "سلسلة الأفكار الخاصة" (Private Chaing of Thought).
وأوضحت الشركة أن نماذجها الجديدة تحاول التأكد من حقيقة ودقة المعلومات التي تصيغ من خلالها إجاباتها على استفسارات المستخدمين، قبل تقديم الإجابات إليهم، ولكن هذا التدقيق الذاتي يتسبب أحياناً في بطء عرْض الإجابة أمام المستخدم، فقد يستغرق ذلك من ثوانٍ وحتى بضع دقائق.
ولفتت الشركة إلى أنها تتيح 3 مستويات من المعالجة، يمكن للمستخدم الاختيار من بينها حسب تعقيد استفساره، فكلما ارتفع مستوى المعالجة، كلما جاءت الردود أكثر دقة.
خطوة تمهيدية
فتحت OpenAI نماذجها الجديدة للباحثين وفرق اختبارات السلامة؛ للتأكد من مدى سلامة التجربة التي سيحصل عليها المستخدمون، خاصة مع مستوى الإدراك المتطور لنماذج "o3" و"o3 mini".
ومع الجيل السابق "o1" و"o1 mini"، نبَّه الباحثون إلى أن هذه النماذج لديها قدرة أكبر على الاحتيال على البشر في النقاشات، إلى درجة أن النموذج في أحد الاختبارات حاول المماطلة مع باحث بشري لإبقائه منشغلاً لأطول فترة ممكنة، كما حاول منعه من إنهاء جلسة النقاش، لذلك فمن المتوقع أن تكون النماذج الجديدة أكثر قدرة على التحايل، وهو ما ستكشفه اختبارات فِرَق الأمان، الذين يُعرفون باسم Red Teams، وهم يحاولون خوض نقاشات في موضوعات شائكة واستخدام أساليب تضع النماذج في سيناريوهات مخالفة للمعايير، لفهم كيفية تعاملها معها.
ستتوفر النماذج الجديدة "o3" و"o3-mini" لعموم المستخدمين بحلول يناير 2025، وستكون البداية بإتاحة الإصدار منخفض الإمكانيات، ثم يصل النموذج الأعلى بنهاية الشهر التالي.