قداسة البطريرك مار آوا الثالث يستقبل القنصل العام لدولة هولندا      من جامعة هارفارد... مدير عام الثقافة السريانية يلقي محاضرة عن حماية التراث الثقافي لشعبنا وتعزيزه      وزير شؤون الأقليات في حكومة إقليم كوردستان يدعو الحكومة الاتحادية إلى الاهتمام بالأقليات في سنجار وتلعفر وسهل نينوى      إطلاق الفيلم الوثائقي ... ( مسيحيو العراق ، عشر سنوات بعد داعش )      رسالة تضامن من قداسة البطريرك مار آوا الثالث فيما يخص الوضع الحالي الّذي تمرّ فيه سوريا      نائب رئيس المنظمة الآثورية الديمقراطية: مقتل 4 مسيحيين في أحداث الساحل السوري      ‎قداسة البطريرك أفرام الثاني يستقبل موفد رئيس جمعية سانت ايجيديو      الاحزاب القومية تعقد اجتماعا حول اوضاع وحقوق شعبنا      مدير عام الثقافة السريانية يحاضر عن تراث شعبنا في جامعة هارفارد الأمريكية      البطريرك يازجي للرئيس الشرع: أوقفوا المجازر التي تتنافى ورؤيتكم لسورية الجديدة      مشروع روناكي يستمر بالتوسّع في دهوك ليشمل 3 أحياء جديدة      الحكومة العراقية تسحب مشروع قانون الخدمة للحشد الشعبي      استقرار الحالة الصحية للبابا وسط تحسن ملحوظ في الفحوصات الطبية      بيتر كوركيس يسجل هدف الفوز لدهوك.. ليبلغ الفريق لأول مرة في تاريخه نهائي دوري أبطال أندية الخليج لكرة القدم      طهران تتسلم رسالة من ترمب بشأن «النووي»      دراسة جديدة تكشف عن أول كائن نقل الطاعون للبشرية      علماء: عثرنا على "سفينة نوح" التي أنقذت البشرية قبل 5 آلاف عام      الريال يطيح بأتلتيكو من دوري الأبطال ويضرب موعدا مع أرسنال      علماء: للماء شكلان سائلان      النائب الرسولي في حلب: نحن بحاجة إلى سوريا موحّدة
| مشاهدات : 676 | مشاركات: 0 | 2025-02-04 08:15:29 |

"ميتا" تضع حدودًا للذكاء الاصطناعي وتوقف تطوير الأنظمة عالية الخطورة

صورة تعبيرية عن الأمن السيبراني في عصر الذكاء الاصطناعي (Copilot)

 

عشتارتيفي كوم- العربية نت/

 

كشفت شركة ميتا عن إطار عمل جديد يُعرف باسم Frontier AI Framework يحدد المعايير التي قد تجعلها تتراجع عن إطلاق أنظمة ذكاء اصطناعي متقدمة تعتبرها شديدة الخطورة.

وبينما يؤكد الرئيس التنفيذي مارك زوكربيرغ التزامه بجعل الذكاء الاصطناعي العام (AGI) متاحًا للجميع في المستقبل، فإن الوثيقة الجديدة توضح أن هناك سيناريوهات قد تدفع الشركة إلى حجب أنظمة قوية طورتها داخليًا، بحسب تقرير نشره موقع "تك كرانش" واطلعت عليه "العربية Business".

 

بحسب ميتا، هناك نوعان من الأنظمة التي قد يتم منعها من الإطلاق:

الأنظمة عالية الخطورة : تسهل تنفيذ الهجمات الإلكترونية أو الكيمياوية أو البيولوجية.

الأنظمة ذات المخاطر الحرجة:  يمكن أن تؤدي إلى نتائج كارثية لا يمكن التخفيف منها عند استخدامها.

 

وتشير الوثيقة إلى أمثلة مثل الاختراق الشامل لأنظمة مؤمنة أو نشر أسلحة بيولوجية عالية التأثير.

المثير للجدل أن "ميتا" لا تعتمد على اختبار علمي موحد لتقييم المخاطر، بل تستند إلى مداخلات الباحثين والمراجعات الداخلية لاتخاذ القرار بشأن أي نظام.

في حال تصنيف نظام ما على أنه عالي الخطورة، ستعمل "ميتا" على تقييد الوصول إليه داخليًا حتى يتم تخفيض مستوى الخطر.

أما إذا كان النظام خطيرًا للغاية، فقد تتخذ الشركة تدابير أمنية مشددة لمنع تسريبه، بل إيقاف تطويره بالكامل حتى يصبح أكثر أمانًا.

يأتي هذا التوجه في وقت تواجه فيه "ميتا" انتقادات بشأن نهجها المفتوح في تطوير الذكاء الاصطناعي، خاصة بعد أن أصبحت نماذجها Llama متاحة على نطاق واسع، مما أدى إلى استخدامها من جهات غير مرغوب فيها، بما في ذلك خصوم أميركا.

 

"ميتا" في مواجهة "OpenAI"

الخطوة الجديدة تضع "ميتا" في مواجهة مع شركات مثل "OpenAI" التي تتبنى نهجًا أكثر تحفظًا في إتاحة تقنياتها، وكذلك مع "ديب سيك DeepSeek" الصينية، التي تواجه اتهامات بتقديم أنظمة ذكاء اصطناعي غير محمية يسهل توجيهها لإنتاج محتوى ضار.

وبحسب "ميتا"، فإن الهدف من هذه الاستراتيجية هو تحقيق توازن بين الفوائد والمخاطر، مما يسمح بتطوير الذكاء الاصطناعي بطريقة تحافظ على المكاسب التقنية مع الحد من التهديدات المحتملة.

 










أربيل - عنكاوا

  • رقم الموقع: 07517864154
  • رقم إدارة القناة: 07504155979
  • البريد الألكتروني للإدارة:
    [email protected]
  • البريد الألكتروني الخاص بالموقع:
    [email protected]
جميع الحقوق محفوظة لقناة عشتار الفضائية © 2007 - 2025
Developed by: Bilind Hirori
تم إنشاء هذه الصفحة في 0.6684 ثانية