قصّة صعود الصليب في تاريخ الفنّ المسيحيّ      نداء من اجل جنوب لبنان صادر عن مجلس كنائس الشرق الأوسط      رئيس الديوان الدكتور رامي جوزيف آغاجان يشارك في قداس خميس الأسرار (الفصح) الذي أُقيم في كنيسة حافظة الزروع للكلدان      رتبة غسل الارجل وصلاة لتلاميذ السيد المسيح في كنيسة الصليب المقدس للارمن الارثوذكس في اربيل       المدير العام للدراسة السريانية يشارك ببحث علمي في ندوة جامعة الموصل      كلمة رئيس الوزراء الاسترالي في مهرجان راس السنة الاشورية في سدني      خميس الفصح في كاتدرائية مار يوخنا المعمدان البطريركيّة/ عنكاوا      كاتدرائية مار يوسف الكلدانية في عنكاوا تحتفل بخميس الأسرار برئاسة سيادة المطران بشار وردة      غبطة البطريرك يونان يحتفل بقداس خميس الفصح ورتبة غسل أقدام التلاميذ في كاتدرائية سيّدة البشارة، المتحف - بيروت، لبنان      أستراليا تتعهد بدعم مدرسة آشورية في ملبورن بـ 10 ملايين دولار رغم تعثر المشروع      المحافظ أوميد خوشناو: أربيل تعرضت لاكثر من 500 إعتداء ظالم ولا إجراءات رادعة من قبل بغداد حتى الآن      علماء روس يتمكنون من إطالة عمر الفولاذ حتى 3500 ضعف      خطر صحي قادم يهدد حياة عشرات الملايين.. فهل العالم مستعد؟      أرقام خرافية.. كم يبلغ سعر تذكرة مشاهدة ميسي وكريستيانو رونالدو في كأس العالم؟      البابا: لنجدد الـ "نعم" لهذه الرسالة التي تطلب منا الوحدة وتحمل السلام      "جيرالد فورد" تنهي رحلة العلاج وتتجه شرقاً للانضمام إلى لينكولن وبوش      شط العرب.. إنشاء سيطرة بحرية لتفتيش الزوارق والقطع البحرية      مجلس الأمن يرجئ التصويت على نص يجيز استخدام القوة لحماية مضيق هرمز      وفد الديمقراطي الكوردستاني يبحث في بغداد استكمال الاستحقاقات الدستورية والوصول إلى تفاهمات مشتركة       علماء روس يطورون نظاما فريدا لإعادة "ضبط" الجهاز العصبي
| مشاهدات : 938 | مشاركات: 0 | 2024-11-26 09:28:56 |

بريطانيا.. ارتفاع ملحوظ في الجرائم باستخدام الذكاء الاصطناعي

صورة تعبيرية لتحليل البيانات عن طريق الذكاء الاصطناعي - Getty Images

 

عشتارتيفي كوم- الشرق/

 

حذرت الشرطة البريطانية من تزايد استغلال التكنولوجيا المتقدمة للذكاء الاصطناعي (AI) من قِبل مجرمين لاستهداف الضحايا بطرق مبتكرة وخطيرة.

وجاءت هذه التحذيرات على لسان أليكس موراي، رئيس قسم الذكاء الاصطناعي في الشرطة البريطانية، خلال مؤتمر مجلس رؤساء الشرطة الوطنية في لندن، وفق صحيفة "جارديان".

وأوضح موراي أن سهولة الوصول إلى أدوات الذكاء الاصطناعي وتطورها السريع جعلت منها خياراً مغرياً للمجرمين.

وأشار إلى أن هذه التكنولوجيا تُستخدم على نطاق واسع في الجرائم المالية، مثل استخدام تقنية "التزييف العميق" (Deepfake) لتنفيذ عمليات احتيال ضخمة.

وكان أحد أبرز الأمثلة استهداف موظف في شركة متعددة الجنسيات، إذ تم إقناعه بتحويل مبلغ مالي ضخم يبلغ 20.5 مليون جنيه إسترليني باستخدام فيديو مزيف يظهر المدير المالي للشركة، كما تم الإبلاغ عن حالات مشابهة في دول عدة، بما في ذلك أول عملية احتيال باستخدام التزييف العميق استهدفت شركة طاقة بريطانية عام 2019.

استغلال الأطفال والابتزاز الجنسي

كشف موراي أن الذكاء الاصطناعي يُستخدم أيضاً في إنتاج صور وفيديوهات تصور اعتداءات على الأطفال، وهي جرائم تُعد من أكثر الأنشطة الإجرامية انتشاراً.

وأكد أن جميع هذه المواد، سواء أكانت رقمية أو واقعية، تُعد غير قانونية وتلقى إدانة شديدة، وفي الشهر الماضي، حُكم على رجل بريطاني بالسجن 18 عاماً بعد تقديمه خدمة مدفوعة لشبكات الاستغلال الجنسي للأطفال عبر الذكاء الاصطناعي.

وتُستخدم تقنية "التزييف العميق" أيضاً في "الابتزاز الجنسي" (Sextortion) إذ يتم التلاعب بالصور المنشورة على منصات التواصل الاجتماعي لابتزاز الضحايا، كما يستغل القراصنة الذكاء الاصطناعي لاكتشاف ثغرات في البرمجيات وتنفيذ هجمات إلكترونية أكثر تعقيداً.

من جهة أخرى، حذَّر جوناثان هول، المراجع المستقل لتشريعات الإرهاب في المملكة المتحدة من خطورة استخدام "روبوتات الدردشة" في التحريض على الجرائم الإرهابية. وبيّن أن هذه التقنية يمكن أن تُستخدم في إنتاج الدعاية الإرهابية أو التخطيط للهجمات، مما يُعزز الحاجة إلى تعاون دولي لمواجهة هذه التحديات.

وعبّر موراي عن قلقه من أن الاستخدامات الإجرامية للذكاء الاصطناعي ستشهد زيادة ملحوظة خلال السنوات القادمة، داعياً الجهات المعنية إلى التحرك بسرعة لمواكبة هذا التطور التكنولوجي.

 وتابع: "علينا أن نتحرك سريعاً لنكون قادرين على التصدي لهذه التهديدات، وإلا فإننا سنشهد زيادات كبيرة في جميع أنواع الجرائم بحلول عام 2029".

وشدد الخبراء على أهمية وضع قوانين صارمة لمواجهة استغلال الذكاء الاصطناعي في الجرائم، بجانب تعزيز التعاون بين الحكومات والقطاع التكنولوجي لتطوير أدوات دفاعية فعالة.

 










h
أربيل - عنكاوا

  • رقم الموقع: 07517864154
  • رقم إدارة القناة: 07504155979
  • البريد الألكتروني للإدارة:
    [email protected]
  • البريد الألكتروني الخاص بالموقع:
    [email protected]
جميع الحقوق محفوظة لقناة عشتار الفضائية © 2007 - 2026
Developed by: Bilind Hirori
تم إنشاء هذه الصفحة في 0.7094 ثانية