تحديات الذكاء الاصطتاعي..بين الآلة والاخلاق

العالم اليوم يتشبت بالتقنيات الرقمية ،فهل هو على حق . تابع معنا هدا البحت المقترح عليكم من العالم 24

تُوَفر التقنيات الرَقمية المُترابطة فُرَصَاً كبيرة لِقطاع الاقتصاد والمُجتمع، لكنها تُثير مشاكل أخلاقية في نفس الوقت، كما هو الحال مع تكنولوجيا التَعَرُّف على الوجوه مثلاً. من جانبها، تواجه سويسرا – التي تُعتَبَر إحدى الدول الرائدة في مجال الذكاء الاصطناعي مثل هذه التحديات أيضاً.

فقدان الوظائف بِسَبَب الأتمتة (أو التشغيل الآلي)، نشوء ما يُسمّى بـ فقاعة المرشح [أوFilter Bubble باللغة الإنكليزية، والمُستَحدَمة حالياً على الإنترنت لتحديد التفضيلات الشخصية]، وحماية البيانات، والتَعَرُّف على الوجوه، ومقاطع الفيديو المُزيفة (باستخدام تقنية “ديبفيك”)، والأمن السيبراني وإساءة استخدام تقنيات الذكاء الاصطناعي: لا شك بأن الرَقمنة أتَت بعددٍ غير مَسبوق تاريخياً من التحديات الأخلاقية الجديدة.

لكن ماذا لو وَقَعَ الذكاءُ الاصطناعي في الأيدي الخطأ؟ إنه شيءٌ لا يستطيع المَرءُ تخيله حتى. وعلى سبيل المثال، لا تزال دول العالم مُنقَسِمة حول ضرورة فَرض قواعد صارمة لتنظيم استخدام ما يُسمّى بـ ‘الروبوتات القاتلة’. وكانت النتائج بهذا الشأن مُخَيبة للآمال إلى حدٍ كبير بعد محادثات استمرت أسبوعاً كاملاً في مقرّ الأمم المتحدة بجنيف في ربيع هذا العام.ورغم عَدَم وجود أسلحة فتّاكة مُستقلّة بالكامل حتى الآن، إلّا أنَّ النُشطاء يتوقّعون استخدام هذا الجيل من الأسلحة في معارك ميدانية في غضون السنوات القليلة القادمة، نظراً للتقدّم التقني السريع في هذا المجال، والإنتشار الواسع للذكاء الإصطناعي وأنواع أخرى من التقنيات فائقة التطور.

الذكاء الإصطناعي يثير آمالا عريضة ومخاوف شتى

 بَعيداً عن المَركبات ذاتية القيادة وبرنامج الترجمة الآلية لـمحرك البحث “غوغل”، تُشكل إمكانيات استخدام تقنيات الذكاء الإصطناعي لتغيير المجتمع إلى…

تُعتَبَر سويسرا واحدة من الدول الرائدة في مجال تطوير الذكاء الاصطناعي. ويمكن تعريف الذكاء الاصطناعي بأنه قدرة الآلات والحواسيب الرقميّة على القيام بِمَهام مُعينة تُحاكي تلك التي تقوم بها الكائنات الذكيّة؛ كالقُدرة على التفكير أو التَعَلُم من التجارب السابقة وغيرها من العمليات الأُخرى التي تتطلب مُمارسات ذهنية. وتعتمد عملية التَعَلُّم على مُعالجة كميات كبيرة من البيانات التي يتم جَمعَها.

تقوم العديد من الشركات الناشئة في سويسرا بتطوير مثل هذه الأنظمة التكيفية الذكية – سواء كانت في شكل روبوتات أو تطبيقات أو مُساعد رقمي شخصي – والتي من شأنها أن تُسَهِل حياتنا بِفَضل البيانات الضخمة. لكنها في ذلك تجد نفسها باستمرار في مواجهة المُعضِلة الأساسية المُتمثلة بالقضايا الأخلاقية. فأين يتعين على هذه الشركات وَضع خط أحمر مع الحفاظ على هدفها المتمثل ببيع تقنياتها؟

هذه المشكلة تتضح بشكل خاص في التفاعل بين البَحث والتطبيق الملموس. وعلى سبيل المثال، تشارك الجامعات السويسرية أيضاً في مشاريع يمولها الجيش الأمريكي، من كاميرات المراقبة الجوية إلى طائرات الاستطلاع المُسَيَّرة التي يتم التحكم فيها بشكل مُستقل.

استخدام “الروبوتات المستقلة القاتلة” يُثير إشكالات قانونية

 أطلقت منظمة الأمم المتحدة في جنيف نقاشا حول تطوير أسلحة قادرة على اتخاذ قرار القتل، بعيدا عن التدخل الإنساني أو ما يُعرف بـ “الروبوتات المستقلة…

الموقف السويسري

تريد سويسرا أن تقوم بدور الريادة في صياغة مستقبل المعايير الأخلاقية المتعلقة بالذكاء الاصطناعي. لكنها تفشل في التعاون مع الدول الأخرى حتى فيما يخص التطبيقات البسيطة.

هذا الأمر حدث مع تطبيق تَتَبُّع الاتصال السويسري “SwissCovid”، الذي يهدف إلى تَتَبُّع واحتواء عدوى فيروس كورونا؛ حيث يدور الخلاف هنا حول وجوب تَخزين البيانات مركزياً [على خادم خارجي واحد] أم على جهاز الهاتف المحمول فقط (مثل الحَل السويسري)

كيف يُمكن تعزيز الثقة في التقنيات الجديدة؟

 أبرزت الأزمة الصحية الناجمة عن انتشار فيروس كورونا المستجد أهمية تعزيز ثقة المستخدمين بالتقنيات الجديدة.

إذن، من أين يمكن لسويسرا أن تبدأ في محاولتها لِلَعب الدور الرائد الذي تطْمَح إليه؟ الشهادة السويسرية للثقة الرقمية (Swiss Digital Trust Label)، التي تهدف إلى تعزيز ثِقة المُستخدمين بالتقنيات الجديدة هي محاولة بهذا الاتجاه. والفكرة من وراءِ ذلك هي إتاحة وفرة من المعلومات للمُستخدمين حول الخدمات الرقمية، وخَلْق الشفافية وضمان احترام القيم الأخلاقية.

“في الوقت نفسه، تهدف العلامة التجارية إلى المساعدة في ضمان أن يصبح السلوك الأخلاقي والمسؤول ميزة تنافسية للشركات” أيضاً، كما تقول نينيان بيفّيغَن مديرة المبادرة الرقمية السويسرية التي تقف وراء علامة Swiss Digital Trust Label.”

هناك إجماع واسع على الحاجة إلى وَضع القواعد وتعيين الحدود الأخلاقية بوضوح. تَحقيقاً لهذه الغاية، أنشأت الحكومة السويسرية الفريق العامل المُشترك بين الإدرارات المعني بالذكاء الاصطناعي. وفي نهاية نوفمبر 2020، اعتمدت الحكومة المبادئ التوجيهية للذكاء الاصطناعي التي طورها الفريق تحت قيادة الإدارة الفدرالية للاقتصاد والتعليم البحث العلمي. وتوفر هذه الإرشادات إطاراً توجيهياً للإدارة الفدرالية.

“من المهم بالنسبة لسويسرا استخدام الإمكانيات التي تنشأ عن الاحتمالات الجديدة للذكاء الاصطناعي”، كما جاء في تقرير الفريق العامل المُشترك بين الإدارات المعنية بالذكاء الاصطناعي. تحقيقاً لهذه الغاية، من المهم ضمان أفضل الشروط الإطارية المُمكنة التي تتيح لسويسرا تطوير مكانتها كواحدة من مواقع الابتكار الرائدة في العالم في مجالات البَحث وتطوير وتطبيق الذكاء الاصطناعي. في الوقت نفسه، من المهم أيضاً مُعالجة المَخاطر المُرتبطة باستخدام الذكاء الاصطناعي واتخاذ الإجراءات في الوقت المناسب”.

في أغسطس 2021، قررت الحكومة الفدرالية إنشاء “شبكة كفاءات في مجال الذكاء الاصطناعيرابط خارجي“، وأوضحت أنه سيتم البدء في إقامتها على الفور، على أن تكون جاهزة للبدء في العمل في ربيع عام 2022. ومن المقرر أن تكون الشبكة بمثابة نقطة اتصال لكل ما يتعلق بالتشبيك الداخلي والخارجي للإدارة الفدرالية بالإضافة إلى المسائل ذات الطابع العام في مجال الذكاء الاصطناعي.

الذكاء الاصطناعي الأخلاقي: هل يُمكن لسويسرا أن تتقدم الصفوف؟

هذا المحتوى تم نشره يوم 18 مايو 2020 يوليو, يسلط النقاش المتعلق بتتبع جهات الاتصال، الضوء على الحاجة الملحة إلى معالجة التكنولوجيات غير المقننة مثل الذكاء الاصطناعي (AI). ولأن سويسرا متميّزة…

مفاهيم أخلاقية مُختلفة

تدعو العديد من الأطراف إلى اعتماد معيار مُلزِم عالمياً. وعلى سبيل المثال، يعالج البرلمان الأوروبي بشكل مُكَثَف مسألة الفُرصَ والمخاطر الناجِمة عن الذكاء الاصطناعي. وفي عام 2018، قدمت مجموعة خبراء أنشأتها المفوضية الأوروبية مسودة لمبادئ توجيهية أخلاقية بإمكانها أن تميّز الذكاء الاصطناعي الجدير بالثقة. ولكن لا توجد استراتيجية عالمية مَتفق عليها لتحديد المبادئ المشتركة حتى الآن.

بشكل عام، توجد هناك بالفعل العديد من البيانات والمبادئ التوجيهية. لكن تحليلاً منهجياً لـ 84 وثيقة ذات صلة أجراه مختبر الأخلاق والسياسة الصحية في المعهد التقني الفدرالي العالي بزيورخ، أظهر خلوها من أي مبدأ أخلاقي مُشترك.

نظراً للاختلافات الكبيرة بين القِيَم الأخلاقية الأساسية التي تَنطَبق في الدول المُختلفة، فمن غير المؤكد تماماً ما إذا كان بالإمكان تحقيق تنظيم موَحَد للذكاء الاصطناعي في السياق الدولي. على أية حال، جاء ذِكر أكثر من خمس قيم أساسية في أكثر من نصف البيانات هي الشفافية، والعدالة والإنصاف، ومنع الضرر، والمسؤولية، وحماية البيانات والخصوصية.

يبدو أن هذه المناقشة محتدمة أيضًا بين عمالقة التكنولوجيا مثل غوغل. فقد أقدمت المجموعة مؤخرًا على فصل اثنين من خبراء الأخلاقيات لديها بعد خلاف. وهو قرار يدعو إلى التساؤل عما إذا كان احترام القواعد الأخلاقية المحيطة بالذكاء الاصطناعي يندرج حقا ضمن الأولويات القصوى للشركات التكنولوجية الكبرى أم لا.

 

ما الذي يحدث عندما تتخلى غوغل عن “أخلاقياتها”؟

هذا المحتوى تم نشره يوم 27 مارس 2021 يوليو, طرد موظفة سامية عضو بفريق اخلاقيات الذكاء الاصطناعي بشركة غوغل يثير السؤال حول مصداقية هذه الشركات الكبرى في الالتزام بمواثيقها الاخلاقية.

وفي المعهد التقني الفدرالي العالي في زيورخ، يريد مركزٌ جديدٌ للذكاء الاصطناعي الآن التركيز على القيم الأخلاقية الأوروبية على الأقل. وسوف يعمل هذا المركز على تجميع كافة بحوث المعهد العالي في مجال بالذكاء الاصطناعي. وكما قال ألكسندر إيليتش، المدير الإدراي للمركز في مقابلة مع swissinfo.ch، يجب أن يكون الانسان في صميم اهتمام هذه البحوث.

“الشخص الذي يُصمّم شيئاً جديداً يتحمل مسؤولية مُعيّنة أيضاً. لذا من المُهم بالنسبة لنا أن نساعد في تشكيل حوار بهذا الخصوص وأن نُدمج قيمنا الأوروبية في تطوير تطبيقات الذكاء الاصطناعي”، كما يقول.

“الذكاء الاصطناعي لن يَحِلّ مَحلَّ البشر”

هذا المحتوى تم نشره يوم 20 ديسمبر 2020 يوليو, افتتح المعهد التقني الفدرالي العالي بزيورخ مؤخرا مركز بحوث متخصص يحرص على وضع الذكاء الاصطناعي مكانةٍ تدعَم الأشخاص ولا تَحل محلهم.

ربما تكون الحجة الرئيسية لصالح استخدام الذكاء الاصطناعي هي قدرته على تبسيط حياتنا. ويتم هذا بشكل رئيسي من خلال أنظمته التي تساعدنا في توفير الوقت. وفي أفضل السيناريوهات، يمكن أن ينقذ الذكاء الاصطناعي الأرواح؛ على سبيل المثال عند الاستعانة بطائرة إنقاذ بدون طيار بإمكانها الدخول إلى منطق ضيقة جداً يصعب على طائرات الانقاذ العادية الوصول إليها

عن وكالة رويترز

شاهد أيضا
تعليقات الزوار
Loading...