العرب وتحديات الذكاء الاصطناعي

أخلاقيات الذّكاء الاصطناعي: هل انتهى عصر تحكّم البشر؟

حتّى وقتٍ قريبٍ، كان يبدو أنّ عصر التحكّم الآلي والعقول الآلية لا يزال ضمن اهتمامات كتّاب الخيال العِلمي، وبينه وبين اجتهادات المُهندسين والمُبرمجين مُدَدٌ زمنيةٌ طويلة، حينها اعتقد الباحثون والممارسون الذين عادة ما يُنتظر منهم استشراف المستقبل والتنبّؤ باحتياجاته على نحوٍ إنسانيّ واعٍ ومسؤول، أنّ الذّكاء الاصطناعي لا يزال بعيدًا عن امتلاك الوعي أو الإرادة على أن يكون مشابهًا للإنسان، وبالتالي لا توجد حاجةُ ملحةٌ لمناقشة القضايا الأخلاقية المرتبطة به، لكنّ الذي حدث في السنوات القليلة الماضية، هو أنّه تمّ دمج تطبيقات الذّكاء الاصطناعي مع تقنيات ذكية أخرى مثل تحليل البيانات الضخمة، والتعلّم الآلي، وخوارزميات الدردشة البشرية، الأمر الذي أحدث تأثيراتٍ متسارعةً في جميع النُّظم الحالية: الإنسانية والاقتصادية والسياسية والعسكرية والقانونية والأخلاقية، وأظهر حاجاتٍ مُلحةً وتوجهاتٍ عالميةً لوضح خططٍ واستراتيجياتٍ لمواجهته. على سبيل المثال، في العام 2017، أوقفت شركة "فيسبوك" محرّكَي ذكاءٍ اصطناعيّ بعد أن طوّرَا لغةً خاصّةً بهما لم يتمكن المُهندسون من فهمها.

أخلاقيات الذّكاء الاصطناعي: هل انتهى عصر تحكّم البشر؟

في سياق هذه التحدّيات وحتّى لا تخرج عقول الآلة عن سيطرة البشر، وفي أوروبا تحديدًا، صرّحت رئيسة المفوضية الأوروبية بأنّ أحد ركائز خطة الذّكاء الاصطناعي الأوروبية هو ضمان أن يكون "الذّكاء الاصطناعي المصنوع في أوروبا" أكثر أخلاقيةً من أي مكان آخر في العالم. أمّا في الولايات المتحدة، فقد أطلقت وزارة الدفاع ووزارة النّقل مبادراتٍ لضمان الاستخدام الأخلاقي للذّكاء الاصطناعي. كما أصدرت "أكاديمية بكين للذّكاء الاصطناعي" و"الجمعية الصينية للذّكاء الاصطناعي" دليلهما الأخلاقي، وانضمت دول كثيرة، إلى مبادئ منظمة التعاون الاقتصادي والتنمية التي تُركِّز على "الإشراف المسؤول على الذّكاء الاصطناعي".

على الرغم من هذه المبادرات والاجتهادات الفقهية التي رافقتها، إلّا أنّ هيمنة رأسمالية المراقبة على الشركات العالمية، وارتفاع أسهم الرّأسمال المنصّاتي، قَوّضا من تلك الجهود، وجعلا بناء ذكاءٍ اصطناعيّ أخلاقيّ وامتلاك أنظمة ذكاءٍ اصطناعيّ تتصرّف بأخلاقية وتحدّد الالتزامات والواجبات الأخلاقية للذّكاء الاصطناعي ومُطوّريه، مهمّةً معقّدةً للغاية وتشكّل تحديًا كبيرًا للمطوّرين والمستثمرين وكذلك رجال القانون والقضاء.

مفهوم الأخلاق المُعقّد والمتشعّب، لا ينحو كثيرًا عمّا حدّده أرسطو منذ مدةٍ طويلةٍ، ومفاده بأنّ الشخص الأخلاقي هو الشخص الذي يتصرّف وِفق الفضيلة، أي وِفق نظامٍ من المبادئ وقواعد السلوك التي تساعد على تحديد ما هو صواب وما هو خطأ، وكذلك إيمانويل كانط حينما دعا إلى احترام كرامة الإنسان ومعاملته كغايةٍ في ذاتِه وليس كوسيلةٍ تحرّكها هذه الغاية أو تلك. وهو التمشّي الذي أظهرت المعاينات الميدانية أنّ شركات الذّكاء الاصطناعي ومالكي المنصّات العالمية ينحرفون عنه بشكل رهيب.

"قوانين الرّوبوتات الثلاثة" أحد أبرز النّماذج لبناء ترسانةٍ أخلاقية توجّه سلوك الذّكاء الاصطناعي والعقول الآلية

في مقابل ذلك، يبرز أحد أبرز النّماذج الأخلاقية التي يمكن اعتمادها لبناء ترسانةٍ أخلاقيةٍ توجّه سلوك الذّكاء الاصطناعي والعقول الآلية التي ترتبط به، وهو ما يُعرف بـ"قوانين الرّوبوتات الثلاثة" التي وضعها إسحاق أسيموف في خمسينيّات القرن الماضي:

1 ــ لا يجوز للرّوبوت إيذاء إنسانٍ، أو أن يسمحَ، من خلال تقاعُسِه، بأن يتعرّض الإنسان للأذى؛

2 ــ يجب على الرّوبوت إطاعة أوامر البشر، ما لم تتعارض مع القانون الأوّل؛

3 ــ يجب على الرّوبوت حماية وجوده، طالما أنّ هذه الحماية لا تتعارض مع القانونيْن الأول والثاني.

يبقى الرهان على محاولات القادمين الجدد التأثير في الهيْمنة اللاأخلاقية للتّكنولوجيا

لا شك أنّ الذّكاء الاصطناعي الضيّق (وهو السائد حاليًا) والمتقدّم (مستقبلًا) يُحقّق اليوم مكاسب اقتصادية وتجارية غير مسبوقة لمالكي رأس المال المنصّاتي، والشركات المطوِّرة لبرمجيّات الذّكاء الاصطناعي، لكن في المقابل، تواجه الحكومات والهيئات والمنظّمات الحقوقية الدولية طيفًا واسعًا من المعضلات الأخلاقيّة، بفعل الحضور المتزايد على شبكة الإنترنت الوحيدة والموحّدة، لملايين البشر وبقائهم طوال الوقت تحت رحمة أنظمة الذّكاء الاصطناعي والعقول الآلية وما تفرضه خوارزمياتها من بروتوكولات ومعاملات.

وبدلًا من السببيّة الرّأسمالية التي تجعل من الظروف التّكنولوجية القائمة سببًا في فهم تأخّر التأثير الأخلاقي لتكنولوجيا الذّكاء الاصطناعي، يبقى الرهان مفتوحًا على إمكانات الانقلاب ومحاولات القادمين الجدد التأثير في الهيْمنة اللاأخلاقية للتّكنولوجيا، عبر المزيد من الضغط والتعبئة والترافع من أجل وضع المزيد من الأطر والإرشادات الأخلاقية لاستخدام وتطوير الذّكاء الاصطناعي، لا تتجاوز الإرادة الواعية والمسؤولية الأخلاقية للبشر.

(خاص "عروبة 22")

يتم التصفح الآن