عصر الذكاء الصناعي وقضايا أخلاقيات الحوسبة

د. جهاد فيصل العمري*

تقنيات الذكاء الصناعي هي محاولة محاكاة الوظائف الإدراكية، والحركية البشرية من تمييز المعلومات ومعالجتها (عبر تصنيفها وإنتاج معلومات جديدة منها) واتخاذ القرارات تجاهها، تستخدم تطبيقات الذكاء الصناعي في التعرف على المشاكل وتعلم تفاصيلها وتقديم حلول لها، حيث تساعد خوارزميات (برمجيات) الذكاء الصناعي على اتخاذ تلك القرارات بناء على منظومة تفرق بين عدة خيارات متوفرة. تشمل تقنيات الذكاء الصناعي تقنيات (تعلم الآلة) و(التعلم العميق). ففي تقنية تعلم الآلة يتعلم البرنامج مهارات جديدة عبر المعلومات الأولية المدخلة عليه إضافة إلى المعلومات التي أنشأها دون تدخل بشري لتقديم معلومات جديدة واتخاذ قرارات محددة، مثل برامج تمييز الصور والصوت وبرامج المساعدة في التشخيص الطبي. أما في تقنية التعلم العميق يستخدم البرنامج قواعد بيانات متعددة من مصادر مختلفة ويعالجها عبر ما يسمى خوارزميات الشبكات العصبية المعقدة والمستوحاة من تركيب الشبكات العصبية البشرية، مثل برامج المساعد الشخصي (سيري و أليكسا).
يدعم الذكاء الصناعي تنفيذ الأعمال البشرية بدقة وفعالية وسرعة عالية وبسعر منخفض مما ولد رؤية جديدة في التصرفات البشرية وطريقة تفكيرهم واعتمادهم على ما تقرره منتجات وتطبيقات الذكاء الصناعي. فلا عجب أنه في عصرنا الحالي تزايدت منتجات وتطبيقات الذكاء الصناعي وأصبحت جزءاً من حياتنا اليومية في وسائل المواصلات وفي الرعايا الطبية وفي المعاملات المالية وفي تقنيات التعليم. تتخذ هذه التطبيقات القرارات بدلاً عنا بمستوى عالٍ من الدقة والسرعة وباستقلالية ودون تدخل بشري. غير أنه وبالرغم من دور خوارزميات الذكاء الصناعي في اتخاذ القرارات الأنسب بين عدة خيارات متاحة، فإن فكرة أتممه القرارات وتركها معتمدة على تحليل البرنامج للخيارات المتاحة واختيار وتنفيذ ما تراه أفضل خيار أوجد بعض الإشكاليات الأخلاقية على مستوى الخصوصية والانحياز والمسؤولية والتي يمكن مناقشتها وبحثها من منظور أخلاقيات الحوسبة.
أولا قضية الخصوصية والتي تكمن في كمية البيانات التي تستعملها تطبيقات الذكاء الصناعي وتعلم الآلة والتعليم العميق لتوفير القرار الأفضل، إضافة إلى طريقة تصنيف وترتيب وربط هذه البيانات وما ينتج عنها من وجود كم هائل من المعلومات عنا تسهل التعرف علينا وتصنيفنا والحكم علينا أمام كل من يستطيع الاطلاع على تلك المعلومات مما يشكل مصدر تهديد لخصوصيتنا، فعلى سبيل المثال ما يجمعه محرك البحث (جوجل)، وتطبيقات الهواتف الذكية المختلفة، من معلومات عنا عبر عمليات البحث التي نقوم بها من خلال تلك التطبيقات لا يشكل فقط صورة عن تاريخنا وحاضرنا بل ويتعداه لتقديم صورة لمستقبلنا على هيئة مقترحات بريئة! فمن منا لم يصله اقتراح من تطبيق ما، لتناول وجبة العشاء بمطعم يقدم وجبته المفضلة أو مشاهدة مسلسل به نجمه المفضل.
ثانياً الانحياز والذي يشكل هاجساً لمستخدمي برامج الذكاء الصناعي تجاه طريقة اتخاذ برامج الذكاء الصناعي لبعض قراراتها ، حيث إن قرارات تطبيقات الذكاء الصناعي تعتمد بشكل أساسي على عاملين وهما طريقة تفكير المبرمجين والتي غالبا ما تتأثر بما يؤمنون به فينعكس ذلك على طريقة تفكير البرامج المنتجة من قبلهم و تعتمد أيضاً على مدى عمق تعلم البرنامج من نتائج عملياته السابقة وبالتالي توظيفها في العمليات السابقة، على سبيل المثال تم انتقاد بعض البرامج المستخدمة من قبل الشرطة ببعض الولايات الأمريكية والتي تهدف دعم الشرطة في تمييز الأشخاص المحتمل ارتكابهم جرائم بالمستقبل بناءً على معلوماتهم الشخصية وصورهم وسوابقهم في مخالفة القانون إن وجدت، اُتهمت هذه البرامج بأنها متحيزة ضد عرق وجنس محدد، وأرجعوا السبب بأن هذه البرامج صممت بطريقة متحيزة أو أن المعلومات المدخلة وجهت تلك البرامج للتعلم خطأً أن أفراد عرق محدد أكثر احتمالا لارتكاب جرائم محددة.
ثالثاً قضايا المسؤولية والقدرة على تحديدها عند استخدام تقنيات الذكاء الصناعي، تشكل قضايا المسؤولية الهاجس الأكبر لكل من مصنعي ومستخدمي الذكاء الصناعي و باحثي أخلاقيات الحاسب والمشرعين. فما هي قضية المسؤولية في عصر الذكاء الصناعي؟ أولاً دعونا نتعرف معنى المسؤولية أخلاقياً وقانونياًـ ولندرسها من وجهة نظر فلسفية. ففلسفياً يرتكز مبدأ أرسطو في المسؤولية على مبدئي التحكم والمعرفة، حيث يمكن تحميل مسؤولية أي عمل لمن قام به أو تسبب فيه أو كان لديه درجة من التحكم في حدوثه (التحكم)، كما أن المسئولية تتحقق إذا كان من تحكم في حدوث العمل على علم بما يقوم به و على إدراك بنتيجة ما يقوم به. على سبيل المثال إذا حصل حادث لشخص عند استخدام الهاتف الجوال أثناء قيادته السيارة، فإنه يتحمل جزء من تبعات الحادث إن كان المتسبب الرئيسي في الحادث أو كان أحد أطرافه أو أن وجوده قرب أطراف الحادث أو علاقته بهم تسبب في الحادث، كما أن معرفته وإدراكه بخطورة استخدام الهاتف الجوال أثناء القيادة يعزز مسؤوليته تجاه الحادث.
يمكن تطبيق مبدأ أرسطو في المسؤولية على منتجات وتطبيقات الذكاء الصناعي ومعرفة إذا كنا نستطيع تحدد المسؤولية تجاه أحداث مختلفة نتيجة استخدام برامج الذكاء الصناعي، لنأخذ على سبيل المثال حادثة تحطم طائرتين من طراز بوينج 737 ماكس في أكتوبر 2018 و مارس 2019 ومن يتحمل مسؤولية سقوط الطائرتين. لنفهم القضية دعونا نتعرف أولاً على مشكلة فنية تواجهها الطائرات بشكل متكرر بفعل السرعة والعوامل الجوية، والذي يسبب اتجاهها طوعياً للأعلى حيث يتعامل معها كابتن الطائرة كالمعتاد بتعديل اتجاه الطائرة للأسفل بتدخل مباشر منه، إلا أن بوينج 737 ماكس المطورة كانت مزودة بحساسات بمقدمة الطائرة لمعرفة ما إذا كانت تتجه للأعلى بسبب العوامل الجوية ، كما أنها كانت مزودة بمثبتات بأجنحة الطائرة الخلفية تستجيب للحساسات بمقدمة الطائرة وتقوم بإعادة الطائرة للاتجاه المستقيم في حالة شعرت الحساسات بأن الطائرة تتجه طوعياً للأعلى. ما حدث في حادثتي بوينج 737 ماكس بحسب ما أشارت إليه بعض التحقيقات أن الحساسات بمقدمة الطائرة أعطت معلومات مخالفة لما يراه كابتن الطائرة بل ووجهت الطائرة ألياً لتأخذ اتجاهاً يخالف ما يراه الكابتن، مما تسبب من ضمن مجموعة أخرى من العوامل في سقوط الطائرتين. فمن المسؤول هنا، هل هو كابتن الطائرة؟ أم المنظومة الآلية للتعامل مع مشكلة ارتفاع الطائرة الطوعي؟ و إذا كان البرنامج هو المسؤول فهل يتحمل مطورو البرنامج المسؤولية؟ أم مستخدموه؟
صعوبة تحديد المسؤولية تجاه قرارات برامج الذكاء الصناعي وهل تتحملها الآلة (البرنامج) أم الإنسان (المبرمج او المستخدم) ولّد ما يمكن تسميته بالفراغ في المسؤولية في حالة حوادث برامج الذكاء الصناعي وتعلم الآلة وليبقى السؤال الذي يبحث عنه متخصصو الذكاء الصناعي و باحثو أخلاقيات الحاسب والمشرعون على حد سواء، من المسؤول عن أعمال منتجات وتطبيقات الذكاء الصناعي؟ هل هي البرامج؟ أم مستخدموها؟ أم مطوروها؟ ام المشرعون؟ ولهذا مازلنا ندرس أخلاقيات الحاسب.

كاتب سعودي*

حساب تويتر: GH574_1

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *