قام البيت الأبيض بالاعلان عن قواعد جديدة لاستخدام الذكاء الاصطناعي من خلال وكالات الأمن القومي والتجسس الأميركية، وذلك بهدف تحقيق التوازن بين التقدم التكنولوجي الهائل والحاجة إلى الحماية من مخاطرها .

صرح مسؤولين في إدارة الرئيس الأميركي "جو بايدن"، إن القواعد التي تم الاعلان عنها، اليوم (الخميس) 24 أكتوبر 2024، صُممت مخصوص لضمان قدرة وكالات الأمن القومي على الوصول إلى أقوى واحدث برامج الذكاء الاصطناعي مع المقدرة علي التخفيف من إساءة استخدامها، وذلك حسب ما قامت بنقله وكالة «أسوشييتدبرس».

القواعد الجديدة تحظر استخدامات معينة للذكاء الاصطناعي، مثل استخدام أي تطبيقات من شأنها أن تقوم بإنتهاك  الحقوق المدنية المحمية دستورياً أو أي نظام من شأنه العمل علي  نشر الأسلحة النووية. 

واكد عدد من المسؤولين إن هذه القواعد الجديدة تم تصممها أيضاً من اجل تعزيز الاستخدام المسؤول للذكاء الاصطناعي عن طريق توجيه وكالات الأمن القومي والتجسس لاستخدام أكثر الأنظمة تقدم التي تعمل علي حماية القيم الأميركية .

وتدعو مجموعة من الأحكام الأخرى إلى العمل علي تحسين أمن سلسلة توريد شرائح الكومبيوتر داخل الولايات المتحدة الاميركية، وتوجيه وكالات الاستخبارات للقيام بإعطاء الأولوية للعمل على حماية الصناعات الأميركية من حملات التجسس الأجنبية.

في محور اخر، ترحب هذه القواعد الجديدة بالتقدمات الأخيرة في الذكاء الاصطناعي، من خلال وصفه فرصة للتحول في قائمة طويلة من القطاعات والصناعات، بما في ذلك الجيش، والاستخبارات، والأمن القومي، وتم لفت الانتباه إلى أن هناك مخاطر كثيرة لاستخدام التكنولوجيا من قِبَل الحكومة، بما في ذلك احتمالات عديدة لتسخيرها في مجالات متنوعة مثل مجال المراقبة الجماعية أو مجال الهجمات الإلكترونية .

وتم صياغة المبادئ التوجيهية في أعقاب أمر تنفيذي طموح قام بتوقيعه الرئيس الاميركي "جو بايدن" في العام الماضي، ووجهت الوكالات الفيدرالية لوضع سياسات لكيفية استخدام الذكاء الاصطناعي. 

وقال بعض المسؤولين إن القواعد ضرورية جدا ليس فقط لضمان استخدام الذكاء الاصطناعي بشكل سليم و مسؤول، ولكن أيضاً لتشجيع تطوير الأنظمة الخاصة بالذكاء الاصطناعي الجديدة، والتأكد من أن الولايات المتحدة تواكب دولة الصين والمنافسين الآخرين الذين يعملون على تسخير قوة التكنولوجيا .

وتعتبر المسيّرات القاتلة المستقلة، التي لها المقدرة على القضاء على عدو حسب تقديراتها الخاصة، وهي أحد أهم مصادر القلق بخصوص الاستخدامات العسكرية للذكاء الاصطناعي.

أصدرت الولايات المتحدة الاميركية، في العام الماضي، إعلان خاص يدعو إلى التعاون الدولي في وضع معايير خاصة للمسيّرات المستقلة.

أهم القواعد والإرشادات الجديدة:

  • يجب  أن تكون هناك مسؤولية عن القرارات التي تتخذها أنظمة الذكاء الاصطناعي.  لضمان الشفافية وكيفية اتخاذ القرار.
  • إجراء عمليات تحقق من النتائج التي تقدمها الأنظمة لضمان دقتها وموثوقيتها.
  •  الالتزام بمعايير صارمة لحماية خصوصية الأفراد، وذلك من خلال تقليل تتبع البيانات الشخصية واستخدام تقنيات الحماية المناسبة.
  •  تقييم دقيق للمخاطر المحتملة، مثل تقييم المخاطر الأخلاقية والقانونية والاجتماعية.
  • تعزيز التعاون بين الوكالات الحكومية لضمان تبادل المعلومات .
  •  توفير التدريب المستمر للموظفين في كيفية استخدام الذكاء الاصطناعي  بصورة فعالة  .