مع وصول تقنيات الذكاء الاصطناعي إلى مستويات غير مسبوقة من التطور والقدرة على التعلم الذاتي، بدأ البشر يشعرون بالخوف من صعود هذه الأنظمة الذكية، التي لم تعد مجرد أدوات تقنية تخدم الإنسان، بل تحوّلت في بعض الأحيان إلى كيان روبوتي، ينمو ويتطور بوتيرة سريعة قد يصعب احتواؤها.
ولكن وبحسب تقرير أعدته “فايننشال تايمز” واطلع عليه موقع “اقتصاد سكاي نيوز عربية”، فبدلاً من القلق من الروبوتات الذكية المتمردة، فعلى البشر التركيز على تهديد خفي قد يقلب الموازين في عالم الأعمال رأساً على عقب، ويتمثل بـ “بيروقراطية الذكاء الاصطناعي”.
وتشير “بيروقراطية البشر” إلى النظم الإدارية التقليدية التي تعتمد على الكوادر البشرية لتنفيذ القرارات، وإدارة المهام والإشراف على سير العمل ضمن المؤسسات.
وفي هذه الأنظمة، يتولى الموظفون تقييم الحالات، اتخاذ القرارات، معالجة البيانات، وإجراء التعديلات المناسبة حسب السياق، مما يمنح العمل مرونة إنسانية وقدرة على التعامل مع التفاصيل الفريدة لكل حالة.
أما “بيروقراطية الذكاء الاصطناعي” فتشير إلى الاعتماد المتزايد على الأنظمة الذكية، لأداء مجموعة متنوعة من الأعمال الروتينية التي كانت تتم في السابق عبر الموظفين البشر، حيث ستعمل برامج الذكاء الاصطناعي، على إدارة وإجراء المهام الإدارية واتخاذ القرارات ورصد الامتثال للقوانين داخل الشركات والمؤسسات الحكومية، مما قد يعزز الكفاءة والسرعة.
لماذا الخوف من هذا التحوّل؟
يثير إنتقال “البيروقراطية” من يد البشر إلى الذكاء الاصطناعي مخاوف عديدة، منها زوال الشعور الإنساني عند التفاعل مع قرارات مصيرية تمس حياة الأفراد، فالبرامج الذكية لا تمتلك المرونة التي يتمتع بها الإنسان عند تعاطيه مع قضايا الشأن العام، ما قد يفضي إلى إتخاذ البرمجيات الإلكترونية لقرارات متحيزة وظالمة.
وإضافة إلى ذلك فإن “بيروقراطية الذكاء الاصطناعي” يمكن أن تسلب الناس حقهم في الشفافية والعدالة، وتفرض قرارات لا رجوع فيها وغير قابلة للنقض، حيث أن هذه البرامج ترفض رفضاً قاطعاً تقديم استثناءات مرنة.
ويقول تقرير “فايننشال تايمز” إن “البيروقراطية” هي القوة النافذة التي يستعد الذكاء الاصطناعي الآن للاستيلاء عليها، فالذكاء الاصطناعي، سواء كان خيراً أم شراً، يجب أن لا يسمح له بالتحكم في أدوار حاسمة ترتبط بصنع القرارات وإدارة العمليات اليومية، حيث أنه وخلال سنوات قليلة، سيقرر الذكاء الاصطناعي ما إذا كان المصرف سيمنحنك قرضاً، وما إذا كان سيتم قبولك في الجامعة أو في الوظيفة.
كما سيقرر الذكاء الاصطناعي في نظام المحكمة ما إذا كان سيرسلك إلى السجن، وفي النظام العسكري ما إذا كان سيقصف منزلك.
ورغم أنه ليس بالضرورة أن يكون الذكاء الاصطناعي سيئاً، ولكن إذا سارت الأمور بشكل خاطئ، وتعلمت خوارزميات الذكاء الاصطناعي الجشع والكراهية، من خلال التلاعب بتدفق المعلومات إليها، فقد نكون أمام نتائج كارثية في عالم تحكمه الفوضى، فالخطر هنا لا يكمن في روبوتات تجوب الشوارع، بل بخوارزميات تتخذ القرارات خلف شاشات الكمبيوتر، وتفتقر إلى العنصر الإنساني.
ويقول رئيس شركة “تكنولوجيا” مازن الدكاش، في حديث لموقع “اقتصاد سكاي نيوز عربية”، إن أضرار “بيروقراطية الذكاء الاصطناعي” تتجلى في عدة جوانب، أبرزها “الآلية الجامدة” التي تعتمدها هذه التكنولوجيا، فخوارزميات الذكاء الاصطناعي تعتمد على قواعد وبرمجيات محددة سلفاً، مما يجعلها أقل مرونة في مواجهة الحالات التي تحتاج إلى مراعاة ظروف خاصة أو تعامل إنساني، وهذا يمكن أن يؤدي إلى قرارات غير عادلة بحق الأفراد، فهناك مواقف تحتاج إلى تفهم وتقدير إنساني يصعب على الآلة تحقيقه، لافتاً أيضاً إلى أن خوارزميات الذكاء الاصطناعي تتعلم من البيانات التي تغذى منها، والتي قد تحتوي على تحيزات معينة، ولذلك عندما تتولى هذه الأنظمة إدارة القرارات، فقد يتم تعزيز تلك التحيزات على نطاق أوسع، مما يؤثر على حقوق الأفراد بشكل مباشر.
ويكشف الدكاش أن أضرار “بيروقراطية الذكاء الاصطناعي”، تتجلى أيضاً في نقص الشفافية والمساءلة، فإذا كانت القرارات الصادرة عن الذكاء الاصطناعي غامضة وغير قابلة للفهم بسهولة، فمن الصعب معرفة كيفية وصول البرمجيات إلى تلك النتائج والاعتراض عليها ومحاسبتها، فالخوارزميات ليست مسؤولة قانونياً مثل البشر، كما أن أنظمة الذكاء الاصطناعي قد تؤدي إلى بناء أنظمة مراقبة دقيقة تتعقب وتراقب سلوك الأفراد، ومع غياب الشفافية، يصبح الذكاء الاصطناعي أداة للتحكم بالأفراد وتقويض حرياتهم الشخصية بطرق خفية، مما يجعل المواطنين تحت رقابة مستمرة.
وبحسب الدكاش فإن “بيروقراطية الذكاء الاصطناعي” تهدد أيضاً الخصوصية، حيث تحتاج “الأنظمة البيروقراطية الذكية” إلى كميات هائلة من البيانات الشخصية للعمل بكفاءة، مما يثير مخاوف حول الخصوصية وسلامة البيانات.
العامل الإنساني هو الحلّ
من جهته يقول الخبير في التكنولوجيا جو زغبي، في حديث لموقع «اقتصاد سكاي نيوز عربية»، إن معالجة مشكلة «بيروقراطية الذكاء الاصطناعي» تعتبر مسألة حيوية لضمان استخدام هذه التكنولوجيا بشكل عادل وفعّال، حيث يتعين أولاً على الشركات والمصالح الحكومية، توضيح كيفية عمل أنظمة الذكاء الاصطناعي، وطريقة اتخاذها للقرارات، وذلك من خلال توفير معلومات شاملة حول البيانات المستخدمة في تدريب الخوارزميات، وكشف المعايير التي يتم اعتمادها في اتخاذ القرارات.
وشدد على ضرورة وجود آليات للمساءلة تضمن أن تكون هناك جهة مسؤولة عن القرارات التي يتخذها الذكاء الاصطناعي، وذلك حتى يتسنى للأفراد الاعتراض على القرارات التي تؤثر عليهم، والحصول على توضيحات حول طريقة اتخاذ هذه القرارات.
ويرى زغبي أنه يجب على العالم اليوم التركيز على تدريب الأفراد على فهم الذكاء الاصطناعي وطرق استخدامه بشكل أخلاقي، إذ يتعين على العاملين في المؤسسات التي تستخدم هذه الأنظمة، أن يكونوا مدربين على التعرف على المخاطر المرتبطة بهذه التكنولوجيا وكيفية التعامل معها، فمن خلال رفع مستوى الوعي والتعليم، يمكن تقليل الاعتماد الأعمى على الخوارزميات وتعزيز التفكير النقدي، محذراً من عدم توفير خيارات بديلة للذكاء الاصطناعي في المؤسسات والإدارات.
وبحسب زغبي فإنه يجب أن على المؤسسات إتاحة خيارات بشرية بديلة عن الذكاء الاصطناعي، عند اتخاذ القرارات المهمة، ولا يجب السماح باستيلاء التكنولوجيا على «البيروقراطية البشرية» وتحويلها إلى «بيروقراطية قاسية» على يد الذكاء الاصطناعي، ففي حالات معينة ينبغي أن يكون للبشر الحق في اتخاذ القرارات، حتى لو كان رأيهم مخالفاً لرأي الآلة، حيث أن ضمان وجود عنصر بشري في اتخاذ القرارات الحساسة، كفيل بمحاربة «بيروقراطية الذكاء الاصطناعي» التي تتطلب أيضاً تنفيذ سياسات أخلاقية، وتعزيز الشفافية والمساءلة.