

محمد السويعي
تنظيم استخدام تقنيات الذكاء الاصطناعي: ضَرُورةٌ أمِّ خِيارٍ؟
بقلم:م.محمد السويعي
مختص في إدارة تقنية المعلومات والأمن السيبراني ومهتم في أبحاث أنظمة الذكاء الاصطناعي
في العصر الحالي، تُمَثِّل تقنيات الذكاء الاصطناعي قمة التقدم التكنولوجي، وتلقى رواجًا واسعًا بين الأوساط العلمية والتجارية والحكومية. يُعتبر الذكاء الاصطناعي أداةً فعَّالة قادرة على إعادة تشكيل ملامح حياتنا اليومية، حيثُ يُمكن الاعتماد عليهافي تحسين عدد من القطاعات مثل الصحة، والتعليم، والنقل، والصناعة، والخدمات المالية، وغيرها. ومع ذلك، يُظهِر الذكاء الاصطناعي تحديات جوهرية وأخلاقية، وذلك بسبب السباق المتسارع بين شركات التكنولوجيا العملاقة في ظِل غياب القوانين والتشريعات المُنظَّمة لتطويره واستخدامه. وهذا يُهدد بإحداث تغييرات اجتماعية،وسياسية، واقتصادية، وعسكرية. لِذَا، تبرز الحاجة الماسة إلى تنظيم تطور هذه التقنيات لضمان استخدامها بمسؤولية وأمان.
جيفري هينتون، الذي يُعتبر من أبرز مبتكري الذكاء الاصطناعي في شركة قوقل، أصدر تحذيرًا بعد ترك منصبه في الشركة حول المخاطر المترتبة على استخدام هذه التقنية بشكل غير مسؤول، مشددًا على أن تداعياتها قد تكون وخيمة على البشر. ودعا إلى تنظيم هذا المجال ووضع إطار تشريعي وأخلاقي. بالمثل، ألقى إيلونماسك، المشارك في تأسيس "أوبن إيه آي" الضوء على الجوانب الإيجابية والسلبية للذكاء الاصطناعي، مؤكدًا على ضرورة وجود دور حكومي في تنظيم استخدامتقنيات الذكاء الاصطناعي.
المبادرات الدولية لتنظيم استخدام تقنيات الذكاء الاصطناعي:
تُجرى حالياً مجموعة من المبادرات الدولية لتنظيم استخدام تقنيات الذكاء الاصطناعي. من بينها اجتماع اِستضافةِ البيت الأبيض وشهد حضور كبريات شركات التكنولوجيا الأمريكية المهتمة بتطوير تقنيات الذكاء الاصطناعي، مثل "مايكروسوفت" و"قوقل" و"ميتا" و"أمازون" و"أوبن إيه آي" وغيرها. ويعتبر هذا الاجتماع خطوة أولى نحو تنظيم استخدام تقنيات الذكاء الاصطناعي. ولكن يظل هناك حاجةٌ إلى مزيد من العمل لضمان استخدام تقنيات الذكاء الاصطناعي بطريقة آمنة وعادلة ومسؤولة على الرغم من تعهد شركات التكنولوجيا المشاركة في الاجتماع باِتخاذ عددٍ من الإجراءات لمعالجة هذا الأمر إِلاَّ إنَّهُ مِن الواضح بِأنَّ الأمر متروك بيد شركات التكنولوجيا مما يثير القلق بشأن ما إذا كانت شركات التكنولوجيا ستكون الجهة الوحيدة المسؤولة عن تنظيم استخدام تقنيات الذكاء الاصطناعي أم لاَ، خاصةً أنهُ مِن الممكن أن تكون لديها مصالح خاصة قد تتعارض مع الاِستخدام الأمثل والآمن لهذه التقنيات.
وَمِن جانب آخر، يسعى الاتحاد الأوروبي لوضع بصمتهِ في مجال تنظيم استخدام تقنيات الذكاء الاصطناعي، فبعد اللائحة العامة الأوروبية لحماية البيانات (GDPR)، تم تقديم مشروع قانون الذكاء الاصطناعي للاتحاد الأوروبي في أبريل 2021، وحظيَ بموافقة البرلمان الأوروبي في يونيو 2023. هذا القانون يلزم الشركات المتخصصة في هذا المجال، والتي تعمل داخل حدود الاتحاد، بالاِمتِثَال للقانون على غرار اللائحة العامة الأوروبية لحماية البيانات (GDPR) وإِلاَّ سوفَ تتعرض الشركات المُخالِفة لغرامات مالية باهِظَة.
وَفي إطار الاِهتمام الدولي بهذا الموضوع، ناقش مجلس الأمن التابع للأمم المتحدة في يوليو 2023 مخاطر الذكاء الاصطناعي. وقد أسفر الاجتماع عن الدعوة لزيادة التعاون الدولي وتطوير مبادئ أخلاقية لاِستخدام هذه التقنيات، مع دعم من الأمين العام للأمم المتحدة، أنطونيو غوتيريش لإنشاء هيئة متخصصة تابعة للأمم المتحدة تدعم الجهود الجماعية لإدارة هذه التقنية على غِرار الوكالة الدولية للطاقة الذرية.
بالإضافة إلى ذلك، أعلنت المملكة العربية السعودية عن تأسيس المركز الدولي للأبحاث والأخلاق في مجال الذكاء الاصطناعي، مع التركيز على تعزيز البحوث وتحديد المعايير الأخلاقية للذكاء الاصطناعي لضمان خدمتها الأمثل للإنسانية، مع التشديد على السلامة والشفافية في استخدام هذه التقنية.
ما هي الأسباب التي تدعو إلى تنظيم استخدام تقنيات الذكاء الاصطناعي؟
هناك العديد من الأسباب التي تحتم على الحكومات صياغة التشريعات والقوانين لتنظيم استخدام تقنيات الذكاء الاصطناعي، بدلاً من تسليم هذه المسألة لشركات التكنولوجيا. تتضمن هذه الأسباب:
الوظائف في سوق العمل:
تقنيات الذكاء الاصطناعي قد تؤدي إلى تغيير هيكل سوق العمل ويمكن أن تحل محل الوظائف التقليدية والروتينية، مما يتطلب تنظيمًا لضمان تحقيق التوازن في سوق العمل.
الأثر البيئي:
تقنيات الذكاء الاصطناعي تتطلب كميات هائلة من الطاقة والموارد، مما قد يترتب عليه تأثيرات بيئية مهمة يجب مراعاتها.
نشر الأخبار الكاذبة والمعلومات غير الصحيحة:
تقنيات الذكاء الاصطناعي يمكن قد تستغل لنشر أخبار كاذبة ومعلومات غير صحيحة، مما يُؤثر على الرأي العام والثقة في وسائل الإعلام والمصادر الإخباريةالرسمية.
تنفيذ الهجمات السيبرانية:
تقنيات الذكاء الاصطناعي قد تُستخدم في المساعدة بتنفيذ الهجمات سيبرانيةوتطوير برامج خبيثة وبرامج الفدية والقيام بعملية تزييف الصور ومقاطع الفيديووالصوت.
دعم التحيز والتمييز:
قد تستخدم تقنيات الذكاء الاصطناعي بطرق تدعم التحيز والتمييز ضد جماعات معينة أو أقليات، مما يشكل تهديدًا للتنوع والتماسك الاجتماعي.
انتهاك الخصوصية:
يمكن أن تؤدي تقنيات الذكاء الاصطناعي إلى انتهاك لخصوصية الأشخاص. كما نعلم أن الذكاء الاصطناعي يعتمد بشكل كبير على البيانات، والتعامل غير السليم مع البيانات الشخصية قد يؤدي إلى انتهاكات خطيرة لخصوصية الأشخاص.
انتهاك حقوق الملكية الفكرية:
قد يتم استغلال تقنيات الذكاء الاصطناعي لانتهاك حقوق الملكية الفكرية وسرقة الأعمال الأدبية والفنية والابتكارات.
تطوير الأنظمة العسكرية:
قد تستغل منظمات وجماعات إرهابية تقنيات الذكاء الاصطناعي لتطوير أنظمة عسكرية متقدمة تشكل تهديدًا على الأمن الدولي والسلام العالمي.
التلاعب بالأسواق المالية:
تقنيات الذكاء الاصطناعي قد تُستغل للتلاعب بالأسواق المالية مما يؤثر على إقبال المستثمرين بالاستثمار بالسوق المالي.
ما هي المعايير الأخلاقية التي يتعين الاِلتزام بِهَا عِندَ تطوير واستخدام تقنيات الذكاء الاصطناعي؟
بناءً على تلك الأسباب، يجب أن تعمل الحكومات على وضع إطار قانوني مناسب وإصدار التشريعات واللوائح الضرورية لتنظيم استخدام تقنيات الذكاء الاصطناعي وضمان تحقيق التقدم التقني بما يتفق مع الأخلاقيات والمصلحة العامة. ويكون التعاون الدولي ضرورياً للتصدي للتحديات والمخاطر المرتبطة باستخدام تقنيات الذكاء الاصطناعي بفاعلية ونجاح للحفاظ على حقوق الإنسان ومبادئ المجتمع.
إذاً، العمل على تنظيم استخدام تقنيات الذكاء الاصطناعي ليس خيارًا وإنما ضرورة غير قابلة للتجاوز. ولضمان استخدام هذه التقنية بمسؤولية وأمان، يتعين الالتزام بمعايير أخلاقية عند تطوير واستخدام هذه التقنيات، وهذه المعايير تشمل:
المساواة والعدالة:
يجب أن تكون بيانات التدريب عادلة وخالية من التحيز وأن تتعامل مع جميع الأفراد على قدم المساواة، بغض النظر عن العرق، أو الجنس، أو الدين، أو أي عامل آخر. حتى لا تؤدي إلى إنشاء فجوات اجتماعية وتفاوت بين الأفراد.
المسؤولية:
يجب أن تتحمل الشركات المطورة لتقنيات الذكاء الاصطناعي كافة المسؤولية عن أي أضرار سواءً بشرية أو بيئية قد تسببها هذه التقنيات.
الشفافية:
يجب أن تكون تقنيات الذكاء الاصطناعي شفافة في عملها لتمكين الأفراد من فهمها وكيفية اتخاذها للقرارات.
الخصوصية:
يجب وضع قواعد لجمع واستخدام البيانات، مع مراعاة خصوصية الأفراد وعدم استخدام البيانات بدون موافقتهم أو استخدامها بغير الغرض الذي تم جمعها من أجله.
الأمان:
يجب أن تكون تقنيات الذكاء الاصطناعي قادرة على تحديد ومنع المخاطر المحتملة، وآمنه على حياة البشر والبيئة. يجب أن تكون أيضًا قادرة على التعامل مع حالات الطوارئ بطريقة آمنة وفعالة.
الموثوقية:
يجب حظر استخدام تقنيات الذكاء الاصطناعي في نشر المعلومات المضللة أو الأخبار الكاذبة التي تزعزع الاستقرار الاجتماعي وتنشر الكراهية.
الاستخدام الضار:
يجب منع استخدام تقنيات الذكاء الاصطناعي لأغراض ضارة، مثل إنشاء أسلحة قاتلة أو المساهمة في تطوير الأسلحة البيولوجية، ومنع وقوعها في أيدي المنظمات أو الجماعات إرهابية.
الحوكمة والتدقيق:
يجب أن تكون تقنيات الذكاء الاصطناعي خاضعة للحوكمة الداخلية والخارجية، وللتدقيق المستمر لضمان تطبيق المعايير الأخلاقية.
ختاماً، ندرك القيمة العظيمة التي تحملها تقنيات الذكاء الاصطناعي في تحسين وتطوير حياتنا. ورغم العديد من الفوائد التي تجلبها هذه التقنيات في مجالات عدة، يظل هناك تحديات في تنظيم استخدام تقنيات الذكاء الاصطناعي بما يلائم المعايير الأخلاقية ويخدم المصلحة العامة. هذه التحديات ليست مجرد مخاوف منفردة، بل قضايا حقيقية تحتاج إلى حلول. فإذاً، يتعين على المجتمع الدولي، وخصوصًا الهيئات التشريعية والحكومية، العمل سريعًا لإقرار قوانين تنظم استخدام تقنيات الذكاء الاصطناعي بشكل آمن وعادل ومسؤول. فإن تنظيم استخدام تقنيات الذكاء الاصطناعي ليس مجرَّد خِيارٍ، بل يُعد ضرورةً حتميَّة لضمان مستقبل مزدهر يحقق التوازن بين التقدم التقني والأمان الإنساني.

