شريط الأخبار
صناعيون: نمو القطاع الصناعي يسهم باستقطاب الاستثمارات رئيس الوزراء يرعى احتفال يوم الصناعة الاردنية ويكرم 100 شركة الملك: ضرورة الالتزام بتنفيذ اتفاق إنهاء الحرب في غزة لتحقيق التهدئة ولي العهد ورئيس الوزراء السلوفيني: ضرورة الحفاظ على وقف إطلاق النار كيف سيصبح شكل لوحات المركبات الحكومية والرسمية بعد التعديلات على نظام اللوحات الجديدة؟ جيش الاحتلال يعلن مقتل ضابط وجندي في رفح بأوامر أمريكية: جيش الاحتلال يعود لوقف إطلاق النار بعد غارات كثيفة على غزة نقيب المهندسين: نظام التخطيط والتنظيم الجديد خطوة نوعية نحو عمّان أكثر عدالة واستدامة حماس تنفي علاقتها بهجوم رفح.. والتزامها بوقف اطلاق النار الغضب يشتعل في شوارع أمريكا ضد سياسات ترامب..و7 ملايين يهتفون باقالته جيش الاحتلال يشن غارات عنيفة على جنوب غزة وتحريض اسرائيلي استئناف الحرب.. و“حماس” تؤكد التزامها بوقف النار السماح لكل عائلة قادمة من فلسطين بإدخال 5 تنكات زيت زيتون للاستخدام الشخصي مياهنا: صيانة في محطة زي توقف ضخ المياه عن 39 منطقة الجامعة الأردنية تحيل ملفات الطلبة المتورطين بالاحداث إلى المجلس التأديبي فتح تحقيق بوفاة حدث في المفرق نتنياهو يهدد: الحرب بغزة لن تنتهي الا بنزع سلاح حماس.. وسنبقى بجبل الشيخ السوري قطر: اعلان وقف فوري لاطلاق النار بين باكستان وأفغانستان مبادرة الحوار المجتمعي تستنكر المشاجرات الجامعية وتدعو لحلول متكاملة الغارديان: واشنطن وأوروبا تدفعان لتشكيل قوة دولية بقيادة مصر للسيطرة على الأمن في غزة ضبط 4 مركبات شاركت بإغلاق الطريق خلال فاردة زفاف

حوكمة استخدام الذكاء الإصطناعي في إدارة الموارد البشرية: التوازن بين التقنية والمسوؤلية

حوكمة استخدام الذكاء الإصطناعي في إدارة الموارد البشرية: التوازن بين التقنية والمسوؤلية


 

د. جهاد يونس القديمات

 

  تشهد المنظمات في مختلف أنحاء العالم، ومنها الأردن، تحولا متسارعا نحو استخدام تقنيات الذكاء الإصطناعي AI في مجالات عدة منها، إدارة الموارد البشرية، مثل التوظيف، وتقييم الأداء، وتحليل البيانات الوظيفية، ومع هذا التوسع، تبرز الحاجة هنا وبشكل استباقي لوضع أطر واضحة لحوكمة استخدام هذه التقنيات، بما يضمن توظيفها بطريقة أخلاقية ومسؤولة، تحافظ على حقوق الموظفين وتعزز ثقة الأفراد بالنظم الرقمية داخل بيئة العمل.

  يقصد بحوكمة استخدام الذكاء الإصطناعي في إدارة الموارد البشرية هي وضع الأطر والسياسات والضوابط والمسؤوليات التي تضمن استخدام هذه الأنظمة بشكل قانوني وشفاف ومتوازن، وتهدف إلى حماية حقوق الموظفين، خصوصا ما يتعلق بالخصوصية والعدالة وعدم التمييز، إضافة إلى ضمان أن تكون أدوات الذكاء الإصطناعي داعمة لاتخاذ القرار البشري، وليست بديلا عنه، مع العمل على إدارة المخاطر المحتملة مثل التحيز أو الخطأ أو فقدان الثقة، والإمتثال للقوانين التنظيمية ذات الصلة.

  رغم الفوائد الكبيرة التي يقدمها الذكاء الإصطناعي في تسريع عمليات التوظيف وتحليل الأداء، إلا أن تطبيقه في مجال الموارد البشرية يواجه تحديات ومخاطر متعددة، فمن أبرز هذه التحديات التحيز والتمييز، إذ قد تدرب الأنظمة الذكية على بيانات قديمة أو غير متوازنة، مما يعزز أنماط التحيز القائمة على الجنس أو العمر أو الخلفية التعليمية أو النشأة الاجتماعية، كما يشكل انتهاك الخصوصية وسوء إدارة البيانات تحديا بارزا، حيث تتعامل إدارات الموارد البشرية مع بيانات عالية الحساسية مثل الملفات الخاصة والسرية، وتقييم الأداء والمراسلات الداخلية، مما يتطلب تأمين هذه المعلومات وضمان خصوصيتها، والحصول على موافقة صريحة من الموظفين لاستخدامها. في السياق الأردني، تزداد الحاجة إلى تطوير إطار وطني متكامل لحوكمة الذكاء الإصطناعي في المنظمات العامة والخاصة على حد سواء، بحيث يتماشى مع قانون حماية البيانات الشخصية رقم (24) لسنة 2023، ومع الاتجاهات الدولية في مجال أخلاقيات الذكاء الإصطناعي، ويمكن أن يشكل التعاون بين وزارة العمل وهيئة حماية البيانات والجامعات الأردنية خطوة مهمة نحو وضع معايير وطنية تضمن الاستخدام الآمن والعادل لهذه التقنيات داخل بيئة العمل.

   إن حوكمة استخدام الذكاء الإصطناعي في إدارة الموارد البشرية تمثل ركيزة أساسية للتحول المنظمي المسؤول، فهي لا تهدف فقط إلى ضبط التكنولوجيا، بل إلى توجيهها نحو خدمة الإنسان، وتحقيق العدالة، والإستدامة، والإبتكارالأخلاقي في بيئة العمل، ومع استمرار التطور التكنولوجي، تصبح المنظمات التي توازن بين الكفاءة التقنية والمسؤولية الأخلاقية هي القادرة على قيادة المستقبل بثقة واستقرار،  فمثلا قدر تبرز مشكلة ضعف الشفافية وقابلية التفسير، إذ تعمل كثير من أنظمة الذكاء الإصطناعي كصندوق أسود يصعب فهم آلية اتخاذها للقرارات أو تبرير نتائجها، الأمر الذي يؤدي إلى فقدان الثقة والمساءلة داخل المنظمات، وهنا يطرح سؤال مهم: من المسؤول إذا ارتكبت هذه الأنظمة خطأ؟، هل هي الشركة أم مزود التقنية أم المدير المسؤول؟، إن الإجابة عن هذا السؤال يقتضي وضع إطار واضح للمساءلة وتحديد المسؤوليات بدقة في كل مرحلة من مراحل استخدام الذكاء الإصطناعي.

  إن حوكمة الذكاء الإصطناعي في إدارة الموارد البشرية لم تعد ترفا إداريا أو خيارا تجريبيا، بل أصبح ضرورة استراتيجية لضمان الاستخدام العادل والمسؤول للتقنيات الذكية، فالتوازن بين الكفاءة التشغيلية والإلتزام الأخلاقي هو ما يحدد نجاح المنظمات في المستقبل، إذ ينبغي أن ينظر إلى الذكاء الإصطناعي كشريك داعم لصنع القرار، لا كبديل عن العنصر البشري الذي يبقى جوهر العملية الإدارية وركيزتها الأساسية، وليس مجرد إجراء تنظيمي، بل هي رؤية مستقبلية تسعى إلى تحقيق توازن بين الإبتكاروالمسؤولية، فالمنظمات التي تنجح في دمج الذكاء الإصطناعي بطريقة تراعي القيم الإنسانية وتلتزم بالشفافية والمساءلة ستكون الأقدر على بناء بيئة عمل مستدامة قائمة على الثقة والعدالة، وفي النهاية، سيظل الإنسان (لا الآلة) هو العنصر الأهم في اتخاذ القرار وضمان بقاء الطابع الإنساني داخل المنظمات مهما بلغت التقنيات من تطور.

  لا يقتصر التحول نحو الذكاء الإصطناعي في إدارة الموارد البشرية على استخدام الأنظمة الذكية في المهام التشغيلية، بل يشمل إعادة تشكيل فلسفة العمل ذاتها، فالمنظمات التي تتبنى الذكاء الإصطناعي دون إطار حوكمة واضح، قد تحقق مكاسب مؤقتة في الكفاءة، لكنها تخاطر بخسائر طويلة المدى في الثقة، والسمعة، والإنتماء الوظيفي، ولهذا أصبحت الحوكمة ليست خيارا، بل ضرورة استراتيجية لضمان توازن العلاقة بين الإنسان والتقنية داخل بيئة العمل. من جانب آخر يعتبر نجاح الذكاء الإصطناعي في الموارد البشرية بمدى قدرته على تعزيز قيم العدالة والشفافية والاحترام داخل بيئة العمل، فالتكنولوجيا مهما بلغت من تطور، تبقى أداة في يد الإنسان، ويظل الضمير المهني هو الضمانة الحقيقية لحسن استخدامها، ولهذا يجب أن تبنى سياسات الحوكمة على قيم إنسانية قبل أن تبنى على لوائح تنظيمية، لأن القيم هي التي تمنح الأنظمة معناها الإنساني ومشروعيتها الأخلاقية؛ فمع اتساع نطاق التحول الرقمي في بيئات العمل، تبرز الحاجة إلى أن تكون حوكمة الذكاء الإصطناعي جزءا أصيلا من منظومة الإدارة الحديثة، لا مجرد إجراء تنظيمي أو قانوني، فالحوكمة في جوهرها ليست فقط لضبط المخاطر أو تصحيح الانحرافات التقنية، بل هي فلسفة متكاملة تهدف إلى توجيه التكنولوجيا لخدمة الإنسان، وتحقيق التنمية المستدامة، وضمان العدالة داخل المنظمات.

  بنظرة اخرى، إن حوكمة الذكاء الإصطناعي في إدارة الموارد البشرية ليست مجرد مصطلح إداري، بل هي رؤية حضارية تعيد تعريف العلاقة بين الإنسان والتكنولوجيا في ضوء القيم، والعدالة، والمسؤولية، إنها الطريق نحو منظمات أكثر نضجا وإنسانية، قادرة على استخدام التقنية لخدمة العاملين لا لاستبدالهم، ولتحقيق الكفاءة دون التفريط في الكرامة. مع تزايد اعتماد المنظمات على أدوات الذكاء الإصطناعي في تحليل البيانات، والتنبؤ بالسلوك الوظيفي، وإدارة الأداء، يتضح أن المستقبل القريب لن يكون فيه مكان للممارسات الإدارية التقليدية التي تعتمد على الحدس وحده، فالذكاء الإصطناعي أصبح شريكا في صنع القرار، لا مجرد أداة مساعدة، غير أن هذا التطور يفرض على المنظمات مسؤولية مضاعفة في بناء أنظمة حوكمة مرنة، قادرة على التكيف مع التغيرات السريعة دون الإخلال بالقيم الجوهرية التي تحفظ كرامة الإنسان في العمل. فالخطورة لا تكمن في الذكاء الإصطناعي نفسه، بل في كيفية توجيهه وتوظيفه، فالخوارزميات لا تمتلك ضميرا أو حسّا إنسانيا، بل تعمل وفق البيانات التي تغذى بها، وإذا كانت هذه البيانات مشوبة بالتحيز أو ناقصة أو غير متوازنة، فإن النتائج ستكون منحازة بطبيعتها، مما يؤدي إلى قرارات غير عادلة تمس حياة الموظفين ومساراتهم المهنية، ولهذا فإن جوهر الحوكمة يكمن في التحكم البشري الواعي، أي في أن يظل الإنسان هو الحكم الأخير في أي قرار يصدر عن النظام الذكي.

على المستوى القانوني، فإن الامتثال للتشريعات يعد مسألة جوهرية، خصوصا مع تزايد أهمية قوانين حماية البيانات وقوانين العمل، التي تفرض التزامات محددة على المنظمات في ما يتعلق بجمع المعلومات وتحليلها واستخدامها مبدأ العدالة التنظيمية والمساءلة الرقمية، فكل قرار آلي يجب أن يكون قابلا للتدقيق والمراجعة، بحيث يمكن تتبع مصدره ومعرفة الأسس التي استند إليها، فالذكاء الإصطناعي يجب أن يكون شفافا بقدر ما هو ذكي، لأن الغموض في القرارات المؤثرة على حياة الأفراد قد يؤدي إلى فقدان الثقة داخل المنظمة وإثارة النزاعات القانونية أو الأخلاقية. العدالة المنظمية تضمن أن يمتلك الموظف أو المتقدم للوظيفة الحق في الاعتراض أو طلب تفسير القرار، فالمساءلة هنا لا تعد عبئا إداريا، بل هي ضمانة للاستدامة المنظمية، لأنها تمنح الأفراد شعورا بالإنصاف وتدعم صورة المنظمة كمكان عمل عادل وشفاف.

  من هنا، تصبح حوكمة الذكاء الإصطناعي في إدارة الموارد البشرية مسؤولية منظمية غاية في الأهمية، فهي تمس جوهر العدالة في العمل، وحقوق الأفراد، فكل منظمة تطبق مبادئ الحوكمة بصدق وعدالة، تساهم في بناء مجتمع عمل أكثر إنصافا واستدامة، وتؤسس لجيل من الإدارات القادرة على قيادة الثورة الرقمية بضمير حي وبصيرة إنسانية.

 على المستوى الإداري، تتيح الحوكمة للمنظمات فهما أعمق لكيفية توجيه الذكاء الإصطناعي لخدمة الأهداف المنظمية دون تجاوز الحدود الأخلاقية أو القانونية، فعلى سبيل المثال، يمكن للنظام الذكي أن يقترح المرشحين الأكثر ملاءمة لوظيفة معينة بناء على تحليل السير الذاتية، لكنه لا يجب أن يمنح صلاحية القرار النهائي في التعيين أو الاستبعاد، لأن العنصر الإنساني يظل الأقدر على تقييم الجوانب الشخصية، والدوافع، والسلوكيات غير القابلة للقياس الرقمي، كما أن تأهيل القيادات الإدارية تمتلك فهما عميقا لتقنيات الذكاء الإصطناعي يعد شرطا أساسيا لنجاح الحوكمة، فالمسؤول الذي يستخدم الذكاء الإصطناعي دون إدراك لطريقة عمله أو حدوده، قد يتخذ قرارات غير مدروسة أو يقع في فخ الاعتماد المفرط على الخوارزميات، لذلك، ينبغي للمنظمات الاستثمار في بناء القدرات البشرية، وتطوير مهارات التفكير النقدي والتحليل الأخلاقي لدى المديرين ومتخذي القرار، وتتحمل هذه القيادات مسؤولية محورية في رسم ملامح ثقافة منظمية جديدة قوامها الثقة والمسؤولية المشتركة، كما أن مدير الموارد البشرية في العصر الرقمي لم يعد مشرفا على ملفات الموظفين فحسب، بل أصبح حارسا لأخلاقيات التقنية داخل المنظمة، وعليه أن يوازن بين كفاءة الأداء التي تقدمها الأنظمة الذكية، وحقوق الإنسان التي لا يمكن التنازل عنها تحت أي ظرف، ولا يمكن إغفال الدور التربوي للحوكمة، فهي لا تقتصر على وضع القوانين، بل تهدف إلى بناء وعي منظمي يرسخ مفهوم الاستخدام المسؤول للتكنولوجيا، فحين يدرك الموظفون والمديرون على حد سواء مخاطر الذكاء الإصطناعي وفرصه، فإنهم يصبحون شركاء حقيقيين في تطوير بيئة عمل أكثر نضجا وتوازنا.

   على المستوى الاجتماعي، تمتد آثار الحوكمة إلى تعزيز ثقة المجتمع في أنظمة العمل الرقمية، فكلما شعر الأفراد أن بياناتهم تستخدم بمسؤولية، وأن القرارات المتعلقة بهم لا تتخذ بطريقة آلية غامضة، زادت ثقتهم بالمنظمة وببيئة العمل الرقمية عموما، وهذا ما يجعل الحوكمة عاملا رئيسيا في بناء ثقافة ذكاء اصطناعي أخلاقي داخل المنظمة، بمعنى اخر يفرض علينا التحول نحو الذكاء الإصطناعي إعادة التفكير في مفهوم العدالة المهنية ذاته، فبينما كان التقييم الوظيفي في الماضي يعتمد على الأداء البشري المباشر، أصبح اليوم خاضعا لمعايير رقمية قد لا تأخذ في الاعتبار الجوانب الإنسانية مثل الإبداع أو الجهد غير المرئي أو الظروف الفردية، ومن هنا، تأتي أهمية وجود آليات بشرية مرافقة تضمن أن تبقى القرارات عادلة وشاملة، لا مجرد نتاج لخوارزميات جامدة.

  أما على المستوى الإقتصادي، فإن تبني حوكمة فعالة لا يقلل من الإبتكار، بل على العكس، يعززه، فالمنظمات التي تضع أطرا واضحة للاستخدام الآمن والمسؤول للذكاء الإصطناعي تصبح أكثر قدرة على جذب الاستثمارات، واستقطاب الكفاءات، والحفاظ على تنافسيتها في سوق العمل العالمي، كما أن التوازن بين الكفاءة التقنية والإلتزام الأخلاقي يجعلها أكثر استعدادا لمتطلبات التحول الرقمي المستقبلي، وتقترح التجارب الدولية، خاصة في الإتحاد الأوروبي وكندا وسنغافورة، مجموعة من المبادئ التي يمكن الاستفادة منها في السياق العربي، أهمها:

-الشفافية والتفسير: ضمان إمكانية شرح أي قرار صادر عن نظام الذكاء الإصطناعي بطريقة مفهومة للموظفين والإدارة.

-العدالة وعدم التمييز: اختبار الأنظمة بانتظام للتأكد من خلوها من التحيزات الخوارزمية.

-المساءلة والمراجعة: تحديد الجهات المسؤولة عن أي خطأ ينتج عن استخدام النظام، ووضع آلية تصحيح واضحة.

-الخصوصية وأمن البيانات: تطبيق أعلى معايير الحماية الرقمية والإلتزام الكامل بقوانين حماية البيانات.

-الإشراف البشري: ضمان أن يظل الإنسان هو المتحكم في القرارات الجوهرية المتعلقة بالموظفين.

  في الأردن والمنطقة العربية عموما، يمكن أن تمثل هذه المبادئ نقطة انطلاق لتطوير إطار وطني وإقليمي لحوكمة الذكاء الإصطناعي في إدارة الموارد البشرية، هذا الإطار يجب أن يوازن بين تشجيع الإبتكاروحماية الإنسان، وأن يعتمد على الشراكة بين القطاعين العام والخاص، والمنظمات الأكاديمية، وهيئات المجتمع المدني.

   إن بناء منظومة حوكمة فعالة يبدأ من الثقافة المنظمية ذاتها، فحينما تؤمن المنظمة بأن الإبتكارلا يتعارض مع الأخلاق، وأن التقنية يجب أن تكون وسيلة تمكين لا تهميش، فإنها تزرع داخل كوادرها روح المسؤولية الرقمية، وتحول الذكاء الإصطناعي من تهديد محتمل إلى فرصة للنمو والتطور. أما المنظمات التي تتعامل مع التقنية كبديل عن الإنسان أو كوسيلة لتقليص التكلفة فحسب، فإنها تخاطر بفقدان ثقة موظفيها وتراجع سمعتها الاجتماعية، كما أن تحقيق التوازن بين الإبتكاروالحماية القانونية يمثل تحديا متزايدا، خاصة مع تسارع صدور القوانين الدولية والوطنية المرتبطة بالذكاء الإصطناعي وحماية البيانات، لذلك فإن صياغة تشريعات وطنية متخصصة في حوكمة الذكاء الإصطناعي بالموارد البشرية باتت ضرورة ملحة، خصوصا في العالم العربي، لضمان وضوح المسؤوليات وتحديد معايير العدالة الرقمية، ومن المفيد أن تتضمن هذه التشريعات مبادئ واضحة مثل (الحق في التفسير) و (الحق في الإعتراض) على القرارات الآلية، و(الحق في الخصوصية الرقمية)، بما يتماشى مع الممارسات الأوروبية الحديثة.

  يمكن للجامعات الرسمية والخاصة ومراكز البحث العلمي أن تلعب دورا محوريا في هذا السياق، من خلال تطوير دراسات متخصصة وبرامج أكاديمية تدمج بين الذكاء الإصطناعي وإدارة الموارد البشرية وأخلاقيات التكنولوجيا، فإعداد جيل من المديرين القادرين على فهم البعد التقني والأخلاقي في آن واحد، هو الخطوة الأهم نحو بناء منظمات قادرة على المنافسة في المستقبل الرقمي بثقة ومسؤولية. وفي ضوء ذلك، يمكن تلخيص الرؤية المستقبلية في ثلاثة اتجاهات رئيسية:

أولا: تعزيز الشفافية والعدالة في نظم التوظيف والتقييم القائمة على الذكاء الإصطناعي، عبر المراجعة الدورية للخوارزميات وإدراك دور العنصر البشري في المراحل الحساسة.

ثانيا: الإستثمار في بناء قدرات بشرية جديدة تتقن التعامل مع الذكاء الإصطناعي وتحليل مخرجاته، لضمان الاستخدام الواعي والمسؤول للتقنية.

ثالثا: وضع معايير وطنية وإقليمية لحوكمة الذكاء الإصطناعي في الموارد البشرية، بحيث تشكل مرجعا موحدا للمنظمات العامة والخاصة، وتضمن حماية حقوق الموظفين، وتنظيم العلاقة بين الإنسان والتقنية.

   من المهم التأكيد على أن حوكمة الذكاء الإصطناعي لا تقاس فقط بوجود لوائح مكتوبة، بل بمستوى الإلتزام العملي بها، فالتحدي الحقيقي ليس في وضع السياسات، بل في تطبيقها ومراجعتها بانتظام، فالأنظمة الذكية تتطور بسرعة، وما كان ملائما اليوم قد يصبح غير كاف غدا، لذلك، يجب أن تكون الحوكمة عملية ديناميكية مستمرة، تحدّث باستمرار لتواكب التغيرات التقنية والقانونية والمجتمعية. إن مستقبل الموارد البشرية لن يكون صراعا بين الإنسان والآلة، بل شراكة متوازنة بين الخبرة الإنسانية والدقة الرقمية، فحين يدار الذكاء الإصطناعي بذكاء إنساني، تصبح التقنية حليفا للتنمية لا خصما لها، ويصبح الإبتكارطريقا إلى الإزدهار لا مصدرا للتهديد.

    في النهاية، إن الطريق نحو إدارة الموارد البشرية القائمة على الذكاء الإصطناعي لا بد أن يكون محفوفة بالمخاطر، فالتقنية يمكن أن تكون سيفا ذا حدين: فهي قادرة على إحداث نقلة نوعية في الكفاءة والموضوعية، لكنها أيضا قد تعمق الفجوات الإجتماعية والمهنية إذا أسيء استخدامها أو غابت عنها الحوكمة الرشيدة، وبشكل عام قد يؤدي استخدام الذكاء الاصطناعي الى مخاوف من الأتمتة وتأثيرها على الوظائف، قد يشعر بعض الموظفين بأن الذكاء الإصطناعي يمثل تهديدا يجب مقاومته، وقد يقلل من دورهم، أو يهدد استقرارهم الوظيفي، مما يخلق حالة من القلق داخل بيئة العمل ويضعف الثقة المنظمية.