“دافوس 2024″… هل يمكن التحكُّم بعمل الذكاء الاصطناعي؟

Noha ahmed
القسم العربي
Noha ahmed22 يناير 2024
“دافوس 2024″… هل يمكن التحكُّم بعمل الذكاء الاصطناعي؟
يتساءل زعماء العالم، في المنتدى الاقتصادي العالمي هذا العام في “#دافوس 2024″، عما إذا كانوا سيضعون حواجز للذكاء الاصطناعي نفسه، أو يتطلعون إلى تنظيم تأثيراته بمجرد تطوير ال#تكنولوجيا.
يعتبر #الذكاء الاصطناعي (AI) في مقدّمة اهتمامات العديد من رجال الأعمال والموظفين الذين يشعرون بالأمل بشأن إمكانياته، ولكنهم يشعرون بالقلق من آثاره المستقبلية.
تأثير الذكاء الاصطناعي على العمل
في وقت سابق من هذا الشهر، وجد باحثون في صندوق النقد الدولي أن الذكاء الاصطناعي قد يؤثر على عمل أربعة من كل 10 موظفين في جميع أنحاء العالم.
ويقفز هذا العدد إلى ستة من كل 10 في الاقتصادات المتقدّمة، في صناعات مثل التسويق عبر الهاتف ومجال القانون.
بالإضافة إلى ذلك، أظهر تقرير صادر عن المنتدى الاقتصادي العالمي أن نصف الاقتصاديين الذين شملهم الاستطلاع يعتقدون أن الذكاء الاصطناعي سيصبح “مدمِّراً تجاريّاً” في عام 2024، ارتفاعاً من 42 في المئة في عام 2023.
الـ”AI” محور محادثات “دافوس”
يعطي قادة الأعمال في الاجتماع السنوي للمنتدى الاقتصادي العالمي لعام 2024 في “دافوس” الأولوية للمحادثات حول الذكاء الاصطناعي. إذ أنّهم يركّزون بشكل خاص على كيفية تنظيم تكنولوجيا الذكاء الاصطناعي للتأكد من أنّها قوّة من أجل الخير في كل من الأعمال التجارية والعالم ككل.
قال أراتي برابهاكار، مدير مكتب البيت الأبيض الأميركي لسياسة العلوم والتكنولوجيا، في وقت سابق: “إنّه أقوى تكنولوجيا في عصرنا”. وأضاف: “نحن نرى قوة الذكاء الاصطناعي كشيء يجب إدارته. ويجب إدارة المخاطر”.
 عواقب غير مقصودة
إنّ الحديث عن الكيفية التي يمكن بها للحوكمة أن تساعد في إدارة تلك المخاطر يأتي عند نقطة انعطاف حاسمة. فإلى جانب الفوائد الناشئة للذكاء الاصطناعي، هناك واقع أكثر تعقيداً: فالذكاء الاصطناعي يمكن أن يكون له عواقب غير مقصودة. لنأخذ على سبيل المثال، البرنامج الذي يرفض تلقائيّاً، وبشكل غير قانوني، المتقدمين للوظائف فوق عمر معين، أو برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي والذي ينشر تغريدات متحيّزة جنسيّاً وعنصرية.
ظلّت الحكومات في أنحاء العالم، بما في ذلك الاتحاد الأوروبي والولايات المتحدة، تناقش لوائح الذكاء الاصطناعي لسنوات، ومع ذلك لا تزال هناك أسئلة كثيرة تقريباً. واحدة من أكثر الأمور صعوبة هي كيفية تنظيم الذكاء الاصطناعي بالضبط، وإلى أي مدى يمكن تنظيمه؟
تنظيم عمل الذكاء الاصطناعي… حلّ أو تقييد؟
أحد الأساليب المطروحة على الطاولة في دافوس هو تنظيم الطريقة التي يعمل بها الذكاء الاصطناعي منذ البداية.
قد يعني هذا وضع سياسات تعمل على تقييم وتدقيق الخوارزميات. الفكرة الأساسية هي التأكد من أن الخوارزميات نفسها لا تُسيء استخدام البيانات بطرق قد تؤدي إلى نتائج غير قانونية. ففي الولايات المتحدة، على سبيل المثال، اقترحت الوكالات الفيدرالية تقييم ومراقبة جودة الخوارزميات التي تعمل على تقييم قيمة ضمانات الممتلكات في طلبات الرهن العقاري.
ومع ذلك، يشعر بعض الخبراء في الصناعة بالقلق من أن التنظيم التقييدي للتكنولوجيا في منشئها يمكن أن يخنق الابتكار والتطوير.
وفي هذا الإطار، قال أندرو إنج، مؤسس شركة “Deeplearning.AI” لتعليم الذكاء الاصطناعي وأستاذ علوم الكمبيوتر المساعد في جامعة ستانفورد، في مقابلة مع المنتدى الاقتصادي العالمي، إنّ “اللوائح التنظيمية التي تفرض متطلبات مرهقة على البرمجيات مفتوحة المصدر أو على تكنولوجيا الذكاء الاصطناعي يمكن أن تعيق الابتكار، ولها آثار مضادة للمنافسة، وتبطئ قدرتنا على تحقيق الفوائد للجميع”.
ويعتقد آخرون أنه قد يكون من غير العملي مجرّد محاولة التحكم بشكل مباشر في تكنولوجيا الذكاء الاصطناعي في المقام الأول. وبدلاً من ذلك، يجادلون بأنه يجب أن يكون الهدف تأثيرات الذكاء الاصطناعي بعد تطويره.
وصرّح خلفان بالهول، الرئيس التنفيذي في “مؤسسة دبي للمستقبل”، للمنتدى الاقتصادي العالمي، “الذكاء الاصطناعي بالاسم ليس شيئًا يمكنك التحكم فيه فعليّاً”.
وتابع: “يمكنك التحكم في التأثيرات الفرعية أو القطاعات التي يمكن أن يؤثر عليها الذكاء الاصطناعي. وإذا أخذتها على أساس كل حالة على حدة، فهذه هي أفضل طريقة لإنشاء نوع من السياسة فعليّاً”.
لكن آخرين اعتبروا أنّه يجب أن تكون هناك مجموعة قياسية من القواعد التي يمكن من خلالها تنظيم تقنيات الذكاء الاصطناعي على وجه التحديد.
رابط مختصر

اترك تعليق

يجب ان تسجل الدخول لكي تتمكن من إضافة التعليقات