لم يعد الذكاء الاصطناعي موضوعًا مؤجلًا. ولم يعد مجرد نقاش بين خبراء التقنية، ولا وعدًا بعيدًا تحمله السنوات القادمة. لقد دخل بالفعل إلى التعليم، والإدارة، والإعلام، والصحة، والخدمات، وسوق العمل. ودخل أيضًا، وهو الأهم، إلى مراكز اتخاذ القرار في العالم: لا باعتباره أداة جديدة فقط، بل باعتباره قوة ستعيد رسم موازين الإنتاج والمعرفة والنفوذ.
وهنا يبرز سؤال لا يكفي أن نطرحه تقنيًّا، بل يجب أن نطرحه وطنيًّا: هل سنكون من الدول التي تستخدم الذكاء الاصطناعي فقط، أم من الدول التي تبني القواعد والقدرات والمؤسسات التي تجعل استخدامه جزءًا من مشروع تنموي وسيادي واعٍ؟.
هذا السؤال مهم لأن الفجوة المقبلة بين الدول قد لا تتشكل فقط بين مَن يملكون التكنولوجيا ومَن لا يملكونها، بل بين مَن يضعون قواعد عصر الذكاء الاصطناعي ومَن يضطرون إلى العيش داخل قواعد صاغها غيرهم. فالدول المتقدمة لا تتحرك اليوم وكأن الذكاء الاصطناعي مجرد تطبيقات تجارية جديدة. هي تتعامل معه باعتباره بنية استراتيجية تستدعي تشريعًا، ومؤسسات تنفيذ، ومعايير، والتزامات على المطورين والمستخدمين، واستثمارات في البنية الحاسوبية والمهارات والبحث والتطوير.
في أوروبا مثلًا، لم يعد الحديث عن تنظيم الذكاء الاصطناعي نظريًا. فقد دخل قانون الذكاء الاصطناعي الأوروبي حيّز النفاذ في 1 أغسطس 2024، وبدأت بعض أحكامه تُطبق بالفعل منذ 2 فبراير 2025، فيما أصبحت قواعد النماذج العامة الأغراض سارية من 2 أغسطس 2025، على أن يستكمل التطبيق الأوسع تباعًا خلال 2026 و2027. المعنى هنا ليس مجرد وجود قانون جديد، بل وجود انتقال مؤسسي من مرحلة الانبهار بالتقنية إلى مرحلة حكمها ووضع التزامات واضحة حولها.
وعلى المستوى الدولي الأوسع، لم يعد النقاش محصورًا في «الابتكار» وحده. فاليونسكو أرست منذ 2021 توصيتها العالمية لأخلاقيات الذكاء الاصطناعي، وهي منطبقة على الدول الأعضاء كافة، بما يرسّخ مبادئ مثل الشفافية والعدالة والإشراف البشرى وحماية الحقوق. كما واصلت منظمة التعاون الاقتصادي والتنمية تحديث مبادئها للذكاء الاصطناعي لتواكب تسارع التطورات. أي أن العالم المتقدم والمؤسسات الدولية لم تعد تناقش فقط كيف نستخدم الذكاء الاصطناعي، بل كيف نؤطره قبل أن يعيد تشكيل المجتمع من دون ضابط كافٍ.
لكن الوجه الآخر للصورة أكثر إلحاحًا بالنسبة إلينا. تقرير الأونكتاد لعام 2025 لا يتحدث عن الذكاء الاصطناعي كلحظة ازدهار تقني فحسب، بل يحذر من أن منافعه شديدة التركز في عدد محدود من الشركات والدول، وأن الفجوات في البنية الرقمية والمهارات والقدرة المؤسسية قد تؤدي إلى اتساع اللامساواة داخل الدول وفيما بينها. ويشير التقرير أيضًا إلى أن أقل من ثلث الدول النامية لديها استراتيجيات للذكاء الاصطناعي، وأن 118 دولة لا تتمتع بتمثيل في حوكمة الذكاء الاصطناعي على المستوى العالمي.
هذه الأرقام ليست تفصيلًا إحصائيًا. إنها تقول ببساطة إن العالم قد يتجه إلى وضع تصبح فيه قلة من الدول هي التي تطور النماذج، وتمتلك القدرة الحاسوبية، وتحدد المعايير، وتؤثر في القواعد، بينما تتحول دول كثيرة أخرى إلى أسواق للاستهلاك، ومصادر للبيانات، وحقول لاختبار الأثر، من دون أن يكون لها النصيب نفسه من القدرة على التوجيه أو التفاوض أو التكييف المحلى.
وهنا تصبح المشكلة بالنسبة إلى الدول النامية،، أعمق من مجرد «مواكبة تكنولوجية». فالقضية ليست أن نستخدم أدوات الذكاء الاصطناعي في مؤسسة أو وزارة أو جامعة أو شركة. القضية هي: هل نمتلك ما يكفي من البيانات المنظمة، والبنية التحتية، والمهارات، والضوابط، والمعايير، والقدرة البحثية، حتى يكون الاستخدام في مصلحتنا فعلًا؟، أم أننا سنستهلك حلولًا صُممت في سياقات أخرى، وتدربت على بيانات أخرى، وتحكمها افتراضات قانونية وثقافية وأخلاقية لم نشارك نحن في صياغتها؟.
الفرق هنا جوهري. فالدولة التي تتبنى الذكاء الاصطناعي استراتيجيًا لا تسأل فقط: كيف نستخدمه؟، بل تسأل أيضًا: مَن يراجع أثره؟، مَن يحاسب عند الضرر؟، ما حدود استخدامه في القطاعات الحساسة؟، كيف نحمي البيانات؟، كيف نُعدّ المعلمين والأطباء والقضاة والموظفين والفنيين للتعامل معه؟، كيف نبني قدرات محلية لا تجعلنا معتمدين بالكامل على الخارج؟، وكيف نمنع أن تتحول التكنولوجيا من أداة لتحسين الكفاءة إلى قناة جديدة لاستيراد التبعية؟
إن التحدي الذي يواجه كثيرا من الدول النامية: كيف تنتقل من «وجود رؤية» إلى «وجود قدرة»؟، كيف تمنع أن يصبح الذكاء الاصطناعي مجرد عنوان تحديثي جميل، بينما تبقى البنية الأعمق – من تعليم، وتدريب، وتشريعات، ومؤسسات، وأخلاقيات، وآليات مساءلة – أبطأ من اللحظة التاريخية التي نعيشها؟.
إن أخطر ما يمكن أن يحدث ليس أن نتأخر قليلًا في تصنيع النماذج الكبرى، فهذا واقع تتحكم فيه عوامل رأسمالية وعلمية معقدة. الأخطر هو أن نتأخر في فهم أن الذكاء الاصطناعي ليس برنامجًا نشتريه، بل هو عصر يدخل إلى المؤسسات والمهن والحقوق والعلاقات الاقتصادية. وإذا دخل هذا العصر إلينا عبر الاستهلاك فقط، من دون بناء قواعده وأسسه وقدراته محليًا، فإن الفجوة لن تكون تقنية فقط، بل ستكون أيضًا فجوة سيادة، وفجوة عدالة، وفجوة قدرة على اتخاذ القرار.
فمَن يضعون اليوم قواعد الذكاء الاصطناعي في العالم لا ينظمون قطاعًا واحدًا، بل ينظمون جزءًا من المستقبل نفسه. ومَن يكتفون بالاستهلاك قد يجدون أنفسهم لاحقًا داخل نظم تقنية وقانونية ومعرفية لم يشاركوا في تصميمها، لكنهم مضطرون إلى التعايش مع آثارها.
من هنا، لا ينبغي أن ننظر إلى الذكاء الاصطناعي باعتباره ملفًا منفصلًا عن أسئلة الدولة والمجتمع والتنمية. بل يجب أن نراه كما هو: ساحة جديدة يتحدد فيها مَن يملك فقط حق الاستخدام، ومَن يملك أيضًا حق التوجيه.
فالمشكلة ليست أن يستخدم الآخرون الذكاء الاصطناعي قبلنا. المشكلة أن يحكموه قبلنا، بينما نكتفي نحن باستهلاكه، فالذكاء الاصطناعي ليس مجرد أداة، بل هو ميزان جديد للقوة.
{ أستاذ إدارة التكنولوجيا
في جامعة النيل

هل ترغب بالتعليق على الموضوع؟
لا تتردد في إعطاء تعليقك ومشاركة رأيك