الذكاء الاصطناعي والاستخدام الاخلاقي ai ethics

بدا صعود نجم “الذكاء الاصطناعي” خلال الأعوام الأخيرة أمراً حتمياً. فقد خُصصت أموالٌ طائلة للشركات الناشئة العاملة في هذا المجال. كما أنشأت الكثير من شركات التكنولوجيا القائمة بالفعل، بما فيها مؤسساتٌ عملاقة مثل “أمازون” و”فيسبوك” و”مايكروسوفت”، مختبرات بحثية جديدة لتطوير تقنياتها على هذا الصعيد.

وفي ظل كل ذلك، لم يعد من قبيل المبالغة المفرطة القول إن البرمجيات الآن باتت تعني “الذكاء الاصطناعي” وليس سواه.

ويتوقع البعض أن تؤدي هذه التقنيات إلى حدوث تغيرات هائلة مماثلة في حجمها أو أكثر ضخامة، من تلك التي أحدثها ظهور وانتشار شبكة الإنترنت.

ربما تكون الحجة الرئيسية لصالح استخدام الذكاء الاصطناعي هي قدرته على تبسيط حياتنا. ويتم هذا بشكل رئيسي من خلال أنظمته التي تساعدنا في توفير الوقت. وفي أفضل السيناريوهات، يمكن أن ينقذ الذكاء الاصطناعي الأرواح؛ على سبيل المثال عند الاستعانة بطائرة إنقاذ بدون طيار بإمكانها الدخول إلى منطق ضيقة جداً يصعب على طائرات الانقاذ العادية الوصول إليها.

خمس معلومات عن الذكاء الاصطناعي

الذكاء الاصطناعي والاستخدام الاخلاقي

  • أثبت الذكاء الاصطناعي أهميته في مواجهة جائحة كوفيد-19

فهو يُسهم في التخفيف من الأثر الاقتصادي للأزمة بفضل المنصات الرقمية، ويساعد الباحثين في معالجة كميات هائلة من البيانات التي تفيدهم في السباق للتوصل إلى لقاح أو علاج. وقد ساهم الذكاء الاصطناعي في احتواء انتشار الفيروس من خلال الاختبار وتكنولوجيات التعقب والتتبع. ولكن مع إعطاء الناس الإذن بالاطلاع على بياناتهم، أثار استخدام الذكاء الاصطناعي في أثناء هذه الأزمة مجدداً شواغل تتعلق بالخصوصية وحماية البيانات، واستخدامها في أمور بعيدة عن تتبع الفيروس.

  • من المرجح أن يكون النمو القائم على الذكاء الاصطناعي متفاوتاً إلى درجة كبيرة

من المتوقع أن تصل القيمة المضافة الناتجة عن الذكاء الاصطناعي في عام 2022 إلى ما يقارب 4 تريليونات دولار أمريكي. ومن المتوقع بحلول عام 2030، أن تكون الأرباح التي تحققها الصين وأمريكا الشمالية أكبر، حيث ستمثل 70% من الأثر الاقتصادي العالمي للذكاء الاصطناعي؛ فالذكاء الاصطناعي يعمل بمبدأ “الفائز يحصل على كل شيء”، ولذلك يجب وضع ضوابط له، فمن المرجح أن ينتج عن تركيز تكنولوجيا الذكاء الاصطناعي في أيدي عدد ضئيل من البلدان المرتفعة الدخل، تخلف البلدان النامية عن الركب، فهي لن تستفيد من هذه التكنولوجيات، أو قد تستفيد منها بمقدار ضئيل جداً، ولن تكون قادرة على امتلاكها.

  • يتسبب الذكاء الاصطناعي في توسيع الفجوة القائمة بين الجنسين

تمثل النساء نسبة 22% من مجمل المهنيين العاملين في مجال الذكاء الاصطناعي، وبما أنهنّ لا تحظين بالتمثيل الكافي في هذا القطاع، يظهر التحيز الجنساني والقوالب النمطية في تكنولوجيات الذكاء الاصطناعي، فليس من قبيل المصادفة أن يكون الخيار الافتراضي في الأجهزة الإلكترونية مبرمجاً على المساعدات الشحصيات الافتراضيات مثل سيري وأليكسا وكورتانا؛ وما الخنوع وأحياناً الخضوع الذي تعرب عنه هؤلاء المساعدات إلا مثال عن كيفية تعزيز الذكاء الاصطناعي التحيز الجنساني، أو استمراره في تعزيزه ونشره في مجتمعاتنا.

  • يمكن أن يكون الذكاء الاصطناعي أداة هامة في معالجة تغير المناخ والمشكلات البيئية

يزداد تأثير تغير المناخ سوءاً مع استمرار ارتفاع درجة حرارة كوكب الأرض، وقد تساعد النماذج القائمة على الذكاء الاصطناعي، من خلال جمع البيانات وتحليلها، في تحسين إدارة النظام الإيكولوجي وإصلاح الموائل، وهما أمران أساسيان في الحدّ من تراجع أعداد الأسماك والأحياء البرية. ولكن عملية استخراج البيانات تستهلك تقريباً 10% من الطاقة على صعيد العالم، ولذلك من الضروري التصدي لاستهلاك الذكاء الاصطناعي المرتفع للطاقة وما ينتج عنه من انبعاثات الكربون.

  • لا يمكن أن يكون الذكاء الاصطناعي منطقة خارجة عن نطاق القانون

إنّ الذكاء الاصطناعي حاضر في حياتنا ويوجه خياراتنا، وغالباً ما يقوم بذلك بطريقة مؤذية، وهناك بعض الفجوات التشريعية في هذا المجال التي يتوجب سدّها على وجه السرعة؛ حيث سيُتفق في المرحلة الأولى بدقة على القيم التي يتوجب إدراجها في القوانين، وعلى القواعد التي يتوجب إنفاذها، فهناك العديد من الأطر والمبادئ التوجيهية، ولكنها لا تطبق بالتساوي، ولا يتمتع أي منها بنطاق عالمي فعلي؛ وبما أنّ تكنولوجيا الذكاء الاصطناعي عالمية، نحتاج إلى تنظيمها بواسطة وثيقة تقنينية عالمية.

تُعتَبَر سويسرا واحدة من الدول الرائدة في مجال تطوير الذكاء الاصطناعي. ويمكن تعريف الذكاء الاصطناعي بأنه قدرة الآلات والحواسيب الرقميّة على القيام بِمَهام مُعينة تُحاكي تلك التي تقوم بها الكائنات الذكيّة؛ كالقُدرة على التفكير أو التَعَلُم من التجارب السابقة وغيرها من العمليات الأُخرى التي تتطلب مُمارسات ذهنية. وتعتمد عملية التَعَلُّم على مُعالجة كميات كبيرة من البيانات التي يتم جَمعَها.

تقوم العديد من الشركات الناشئة في سويسرا بتطوير مثل هذه الأنظمة التكيفية الذكية – سواء كانت في شكل روبوتات أو تطبيقات أو مُساعد رقمي شخصي – والتي من شأنها أن تُسَهِل حياتنا بِفَضل البيانات الضخمة. لكنها في ذلك تجد نفسها باستمرار في مواجهة المُعضِلة الأساسية المُتمثلة بالقضايا الأخلاقية. فأين يتعين على هذه الشركات وَضع خط أحمر مع الحفاظ على هدفها المتمثل ببيع تقنياتها؟

هذه المشكلة تتضح بشكل خاص في التفاعل بين البَحث والتطبيق الملموس. وعلى سبيل المثال، تشارك الجامعات السويسرية أيضاً في مشاريع يمولها الجيش الأمريكي، من كاميرات المراقبة الجوية إلى طائرات الاستطلاع المُسَيَّرة التي يتم التحكم فيها بشكل مُستقل.

يمكن استغلال الذكاء الاصطناعي لزيادة فعالية التدابير التمييزية القائمة، مثل التنميط العنصري والتنبؤ بالسلوك، بل وحتى تحديد التوجه الجنسي للأفراد. تستوجب الأسئلة الأخلاقية التي يثيرها الذكاء الاصطناعي سن تشريعات لضمان تطبيقه بمسؤولية.

ما هي المشاكل التي تثيرها برمجيات تحليل السلوك التي تستند إلى أشرطة مصوّرة؟

يساعد الذكاء الاصطناعي على تحسين الاستخدام الوقائي لأنظمة المراقبة بالفيديو في الفضاءات العامة. أصبح الآن  من الممكن تحليل الصوّر ‏باستمرار من قبل برامج قادرة على استشعار الأعمال العُدوانية والإبلاغ عنها بسرعة. وعلى سبيل المثال، تمّ  اختبار هذا النظام الجديد في أروقة محطة شاتلي في مترو باريس. وإذا ما قبلنا بمبدأ المراقبة بالفيديو، فإنّ المشكلة الوحيدة التي يطرحها استخدام الذكاء الاصطناعي تكمن في احتمال وقوع خطأ. وهذا الاحتمال ليس على درجة عالية، طالما أن البشر هم الذين يقررون في نهاية الأمر إن كان عليهم التدخل أم لا.

إلا أن الأخطاء في التعرّف على الوجه تتكرر بكثرة. ويكفي أن تضطرب الصورة حتى يرى الذكاء الاصطناعي آلة تحميص بدلاً عن وجه بشري! وقد يولّد الشعور بمراقبة مفرطة وتكرار الأخطاء إحساسا بالقلق.

ومن ناحية أخرى، علينا أن نحذر التجاوزات التي قد تنجم عن تلك الأنظمة الذكّية وعن أساليب التنميط (العنصري والاجتماعي) التي قد تستخدمها.

تجاوزات من أي قبيل؟

أفكّر على وجه الخصوص في البرمجيات التي يتمّ تطبيقها بالفعل في العديد من البلدان، والتي تهدف الى تحديد «السلوك الإرهابي» أو «الشخصيّة الإجرامية» لدى الأفراد، باستخدام تقنية التعرّف على ملامح الوجه. هذا يعني أن ملامح الوجوه تكفي للكشف عن الميولات الإجرامية الكامنة في الذات!

وقد ذُعر الباحثان  ميشال كوزينسكي وييلون وانغ من جامعة ستانفورد (الولايات المتحدة) من هذا الانبعاث الجديد لنظرية الفِراسة – التي تحلل شخصية الفرد اعتمادا على معالم وجهه وتعابيره – فقررا الكشف عن مخاطر هذه النظرية الزائفة التي تدّعي أنها علمية والتي كنا نخالها قد دفنت في طيات التاريخ. ولفتًا للانتباه حول ما تحمله من تهديد بانتهاك الحياة الخاصة،

يجب عدم تمكين أنظمة الذكاء الاصطناعي من إلحاق أي أذى أو تخريب أو تضليل البشر
يجب بناء أنظمة الذكاء الاصطناعي بهدف تقديم الخدمات والمعلومات وليس للخداع والتلاعب
يجب تعزيز التعاون الفعال لتجنب تجاهل معايير السلامة
يجب أن تقوم الانظمة مصممة لتوفير المعلومات للقرارات الهامة بهذه الوظيفة بموضوعية
 والذكاء الخارق AGI يجب إعداد نماذج الحوكمة للذكاء الاصطناعي العام
يجب تحديد المخاطر طويلة امد للذكاء الاصطناعي والاستعداد لها
يجب افصاح عن أي تطوير لحلول الذكاء الاصطناعي بخاصية التحسين الذاتي المستمر ومراقبته عن كثب والتحكم بمخاطره