بينها ما يؤثر على الملف السوري.. هذه مخاطر الذكاء الصناعي

  • 2023/05/21
  • 12:44 م

فتحت استقالة العالم جيوفري هينتون، أحد أبرز علماء الذكاء الصناعي، باب الجدل مجددًا حول مخاطر الذكاء الصناعي على حياة البشر، خاصة أن استقالته جاءت لهذا السبب تحديدًا.

تشمل هذه المخاطر خسائر الناس لوظائفهم، مرورًا بالفبركة الإعلامية والتأثير السياسي.

التحذير من مخاطر الذكاء الصناعي ليس جديدًا، إذ سبق أن تنبأت عشرات الأفلام الأمريكية والأوروبية بمثل هذه المخاطر عبر أفلام “الخيال العلمي”، وعاد العلماء في 2017 للحديث عن الأمر مع تطوير شركة “جوجل”، حينها، نظامًا برمجيًا قادرًا على إنشاء برامج بنفسه وتقييم أدائه.

وخلال الأسابيع الماضية، ومع انتشار “Chat Gpt”، والحديث المتكرر عن قدراته، والسباق المحموم بين شركات التكنولوجيا الكبرى وخاصة شركتي “جوجل” و”مايكروسوفت”، بدأ الحديث عن مخاطر الذكاء الصناعي يخرج عن إطار التقارير الصحفية والتحذيرات من علماء ومتخصصين، إلى تحرك حكومي أمريكي علني.

والتقى الرئيس الأمريكي، جو بايدن، ونائبته، كاميلا هاريس، وعدد من الوزراء في الحكومة الأمريكية، بالمديرين التنفيذيين لشركتي “جوجل” و”مايكروسوفت”، في 5 من أيار الحالي، بحسب ما ذكرته وكالة “رويترز”، لحثهم على التأكد من مدى أمان المشاريع المتعلقة بالذكاء الصناعي.

هل يشكّل خطرًا؟

يبدو أن تحركات الحكومة الأمريكية الأخيرة لم تأتِ لمجرد استقالة هينتون أو لتحذيرات أطلقها علماء آخرون فقط، أو بسبب مقال هنا وتقرير هناك، بل لأن البيت الأبيض يأخذ هذه المخاطر على محمل الجد، خاصة مع نشر عديد من الجامعات والمراكز المختصة ما يشرح هذا الأمر.

جيوفري هينتون، الذي أطلقت عليه الصحافة الغربية لقب “عرّاب الذكاء الصناعي”، لخّص المخاطر بثلاث نقاط، الأولى تعلم الأنظمة سلوكيات غير متوقعة نتيجة تحليل البيانات، والثانية إنشاء رموز حاسوبية وتشغيلها ذاتيًا.

وتتعلق النقطة الثالثة بعملية تزييف المقاطع والصور ونشرها عبر الإنترنت، وسيكون كشف حقيقتها بغاية الصعوبة، بحسب هينتون.

إلى جانب هذه المخاطر، هناك ما يتعلق بالملف السوري ومستقبل العدالة في سوريا، وهو ما أشار إليه الحقوقي والكاتب السوري منصور العمري بمقال نشره في عنب بلدي في 5 من أيار 2019، والمقصود بالذكاء الصناعي هنا لا يتعلق فقط بـ”Chat Gpt”، بل كذلك بخوارزميات منصات التواصل الاجتماعي عمومًا، بما فيها منصة “يوتيوب”.

وأشار العمري حينها إلى أن تشديد منصة “يوتيوب” ومواقع أخرى سياساتها تجاه منع نشر محتوى تحريضي أو يحتوي على مشاهد عنف، أثّر بشكل مباشر على إغلاق كثير من قنوات التوثيق السورية.

العمري ذكر في مقاله حينها، أن “يوتيوب” الذي بدأ استخدامه للذكاء الصناعي في عام 2017، أغلق وبأثر رجعي آلاف القنوات التي نشرت مقاطع مصوّرة تتعلق بانتهاكات حقوق الإنسان في سوريا، علمًا أن خطر هذه النقطة تحديدًا بأن تسجيلًا واحدًا قد يكون الدليل الوحيد المتبقي في قضية انتهاك محددة.

ويسهم هذا الأمر فعليًا في إعادة تشكيل الصورة حول الملف السوري، والذهاب إلى اعتماد رواية أطراف محددة.

وإلى جانب الشق الحقوقي والإنساني، هناك نقاط لا تقل خطورة، وتتعلق تحديدًا بطريقة تفكير البشر أنفسهم.

نشرت جامعة “Oxford“، في 21 من أيلول 2022، دراسة أجرتها البروفيسورة أورسولا مارتين، قالت فيها، إن الذكاء الصناعي لا يتعلق فقط بـ”الروبوتات” القاتلة فقط، والتفكير في أن الأمر ينحصر بهذه الجزئية هو أمر خطير بالفعل.

وبقدر ما يمكن الاستفادة من الذكاء الصناعي الموجود بالفعل في حياة البشر حاليًا عبر الهواتف الذكية والأنظمة البنكية، والسهولة التي تقدمها في الحياة اليومية، فإن ذلك سيدفع الإنسان للابتعاد عن تحمل المسؤولية ويصرف الانتباه عن مخاطر الذكاء الصناعي، خاصة أن الأنظمة الحديثة تمتلك القدرة على التفكير والعثور على الأنماط التي تحتاج إليها، وفق الدراسة.

الذكاء الصناعي والإعلام

وبالإضافة إلى التهديد الذي يشكّله الذكاء الصناعي على الواقع الوظيفي للمجتمعات باعتباره بديلًا لـ300 مليون وظيفة، وفق تقرير نشرته هيئة الإذاعة البريطانية (BBC) في 31 من آذار الماضي، تمتد مخاطره إلى الصحافة والإعلام أيضًا.

مجلة “Forbes” الأمريكية قالت في تقرير نشرته في 16 من أيار الحالي، إن الذكاء الصناعي قادر على إنشاء محتوى كامل عبر الإنترنت ونشره على مدار الساعة طوال أيام الأسبوع.

ونقل التقرير عن تحقيق أجرته مؤسسة “New Guard”، أن ما يقارب من 50 موقعًا إلكترونيًا تنشر محتوى أُنشئ بشكل كامل عبر الذكاء الصناعي، رغم أنه محتوى منخفض الجودة، ويفتح الباب أمام نشر معلومات مضللة أو نظريات المؤامرة.

وجاء في التقرير أن الخطر الحقيقي من هذه المقالات يأتي من استخدام معلومات غير دقيقة، وصنع تسجيلات مصوّرة عبر تقنية “التزييف العميق” وغيرهما، مشيرة إلى أن معظم هذه المواقع الإلكترونية لا يُعرف أصحابها أو المتحكمون بها، وهو ما يجعل تحديد أجندتها أو مساءلتها أمرًا بالغ الصعوبة.

كما يمكن في هذه الظروف انتهاك حقوق الملكية للأفراد والمؤسسات والصحفيين والكتّاب والفنانين والموسيقيين، وهو ما يعني مزيدًا من الصعوبة بالنسبة لمن يعتمدون الكتابة وصناعة المحتوى مهنة لهم.

مقالات متعلقة

  1. جيوفري هينتون يغادر "جوجل".. مخاطر يحملها الذكاء الصناعي
  2. خلال أسبوع.. ثلاث جهات تهاجم الذكاء الصناعي
  3. أربع شركات عملاقة تشكل هيئة خاصة للإشراف على الذكاء الصناعي
  4. "مايكروسوفت" تبرز مخاطر الذكاء الصناعي.. أبرزها "التزييف العميق"

تكنولوجيا

المزيد من تكنولوجيا