خبراء: الذكاء الفائق يمكنه التغلب على البشر ويخرج عن السيطرة
وآخرون: مجرد تكهنات خيالية غير مبنية على أسس علمية.. والمعيار هو كيفية الاستخدام والتوجيه
الذكاء الاصطناعي ليس تهديدا.. وانتهاك الخصوصية امتداد للبيانات التي وفرناها طواعية عبر الإنترنت
يعرّف الذكاء الاصطناعي (Artificial Intelligence) نفسه بأنه «أحد فروع علوم الحاسوب التي تهدف إلى إنشاء أنظمة وبرامج قادرة على محاكاة الذكاء البشري خاصة فيما يتعلق بالتفكير والتعلم واتخاذ القرارات وحل المشكلات وفهم اللغة وتحليل الصور والأصوات. ويتميز الذكاء الاصطناعي بقدرته على تحسين أداء الأنظمة والتكيف مع البيئات المتغيرة من خلال استخدام البيانات والخوارزميات. بمعنى آخر، هو تكنولوجيا تمكن الآلات من أداء المهام التي تتطلب ذكاءً بشريًا.
لسنا هنا بمقام السارد لما يقدمه الذكاء الاصطناعي من خدمات أحدثت نقلة نوعية واسعة في التطور بمختلف المجالات، ولكن هناك وجها آخر لا يقل أهمية، ومن الضرورة بمكان التركيز عليه، خاصة مع انتشار نداءات تحذيرية تتعالى بشكل مواز للتطورات المتسارعة التي يحدثها الذكاء الاصطناعي.
مخاوف متزايدة
رئيس وحدة الاستشارات الرقمية في صندوق النقد الدولي هيرفيه تورب، أكد في مقال أن الذكاء الاصطناعي التوليدي (GenAI) هو التقدم الأكثر إبهارا على الإطلاق بين جميع تكنولوجيات تعلُّم الآلة. بيد أنه يطرح أسئلة مهمة أيضا للجنس البشري. ومن المخاطر المثيرة للقلق البالغ ما يتمتع به الذكاء الاصطناعي التوليدي من قدرة فائقة على سرد قصص تجد صدى في معتقدات الأفراد ووجهات نظرهم الراسخة، وبمقدور الأطراف ذات النوايا الخبيثة أن تستفيد من ذلك. كما أن مخرجات الذكاء الاصطناعي التوليدي يمكن أن تكون مقنعة لدرجة تخلق شعورا زائفا بكونها واقعا حقيقيا. وينطوي ذلك على إمكانية نشر معلومات مغلوطة، وإثارة الذعر، بل زعزعة استقرار النظم الاقتصادية أو المالية بكفاءة وقوة غير مسبوقتين. ولا يقتصر خطر الذكاء الاصطناعي على التلاعب. فإزاحة الوظائف وأتمتة مهام كان يؤديها الإنسان تمثل شاغلا آخر».
في بدايات عام 2024، وقع كبار خبراء الذكاء الاصطناعي، ومنهم مبتكر نموذج «ChatGPT» الشهير، على رسالة تشدد على ضرورة أن يكون التخفيف من حدة مخاطر الانقراض بسبب الذكاء الاصطناعي، أولوية عالمية إلى جانب المخاطر الأخرى على مستوى المجتمعات، مثل الأوبئة والحرب النووية.
الفيلسوف السويدي والأستاذ في جامعة أوكسفورد نيك بوستروم، قال في مقال له إن الذكاء الفائق يمكنه التغلب على البشر في أي وقت تتعارض فيه أهدافه معهم. وقد يختار إخفاء نيته الحقيقية حتى لا تتمكن البشرية من إيقافه.
ويمكن للذكاء الاصطناعي المتقدم أن يولد مسببات أمراض محسنةً أو هجمات إلكترونيةً أو يتلاعب بالناس. كما يمكن إساءة استخدام هذه القدرات من قبل البشر أنفسهم.
فيما أطلق عالم النفس المعرفي والحاسوب جيفري هينتون، المعروف باسم «الأب الروحي للذكاء الاصطناعي»، صافرة الإنذار بشأن التكنولوجيا التي ساعد في تطويرها. وقال إن هناك فرصة بنسبة 10% أن يؤدي الذكاء الاصطناعي إلى انقراض الإنسان خلال العقود الثلاثة المقبلة.
كما حذر من استغلال النصوص والصور ومقاطع الفيديو المولدة بواسطة الذكاء الاصطناعي والتي من الصعب معرفة حقيقتها، للتلاعب واستخدامها من قبل الجهات الفاعلة الخبيثة لتفتيت المجتمع وجعله مختلًا وظيفيا.
خروج عن السيطرة
خلال قمة الأمم المتحدة الكبرى للذكاء الاصطناعي في جنيف يوليو الماضي، حذر مختصون من تزايد المخاطر في نشر الذكاء الاصطناعي من دون فهم عام كافٍ أو إشراف سياسي. مشيرين إلى ان أكبر خطر نواجهه ليس أن يقضي الذكاء الاصطناعي على الجنس البشري، بل في سباق دمج هذا الذكاء في كل مكان، من دون فهم كافٍ لما يعنيه ذلك للناس ولكوكبنا وتوقع خبراء أن وجود نماذج للذكاء الاصطناعي بمستويات تفوق القدرات البشرية ستضاعف في غضون السنوات الثلاث القادمة من المخاوف بشأن السلامة والتحيز واستهلاك الطاقة والقدرة التنظيمية.
وفي خطاب وقعه موظفون في عملاق البحث «غوغل» وOpenAI»»، حذروا من المخاطر الناجمة عن الذكاء الاصطناعي غير المنظم، بدءا من انتشار المعلومات المضللة إلى فقدان أنظمة الذكاء الاصطناعي المستقلة وتعميق عدم المساواة القائمة، مما قد يؤدي إلى «انقراض البشرية». وهذا ما يعود بنا إلى فلم «ترمنيتر» الشهير الذي قدم صورة لهيمنة الروبوتات الالية على البشرية.
من جانب آخر، حذر تقرير لشركة «غلادستون للذكاء الاصطناعي» ونشرته (سي إن إن) حول «خطورة الذكاء الاصطناعي» من صورة مثيرة للقلق تتعلق بمخاطر الأمن القومي «الكارثية» التي يشكلها الذكاء الاصطناعي السريع التطور.
واكد التقرير إلى أن أنظمة الذكاء الاصطناعي الأكثر تقدما يمكن، في أسوأ الحالات، «أن تشكل تهديدا على مستوى الانقراض للجنس البشري، ومن المحتمل أن تصبح أنظمة الذكاء الاصطناعي خارجة عن السيطرة». خاصة مع تمتع بعض اشكال هذا الذكاء بقدرة على التعلم تشبه قدرة الإنسان أو حتى تفوق طاقة البشر.
وفي عام 2024، أشار استطلاع في قمة الرؤساء التنفيذيين بجامعة «ييل» الأمريكية، إلى أن 42% من الرؤساء التنفيذيين يشعرون بقلق متزايد ويرون أن الذكاء الاصطناعي لديه القدرة على تدمير البشرية بعد خمس إلى عشر سنوات.
فيما خلصت دراسة نشرتها شركة الخليج للتدريب والتعليم، حول أبرز مخاطر وسلبيات الذكاء الاصطناعي، الى ان من هذه المخاطر: التأثير على سوق العمل، زيادة تكاليف الإنتاج، ضعف المهارات البشرية والابداع بسبب الاعتماد المفرط على التكنولوجيا، المخاطر الأخلاقية، انعدام الخصوصية، إلحاق أضرار كبيرة ببعض الأشخاص أو الشركات، أو الدول، مثل تشويه السمعة عن طريق التلاعب بالصور أو نشر معلومات شخصية فاضحة، مخاطر أمنية وشن هجمات إلكترونية واختراق المعلومات السرية، التحيز والتمييز، قلة الشفافية.
ولا تقتصر المخاطر في رأي البعض على الافراد والشركات، بل تمتد الى التأثير على الأمن العام واقتصاد المجتمع والعلاقات الإنسانية والنظم البيئية.
هل هي تحذيرات واقعية؟
السؤال هنا، ما مدى واقعية كل هذه التحذيرات؟ وهل يمثل الذكاء الاصطناعي مصدر خطر على المستوى الفردي؟ هل باتت الخصوصية أمرا بائدا في ظل برامج الذكاء الاصطناعي؟ وهل يمكن تجنب الحد الآخر السلبي لهذا السلاح التقني المتطور؟
تساؤلات ناقشناها مع الخبير في مجال الذكاء الاصطناعي الدكتور جاسم حاجي، الذي أكد في مقدمة حديثه أنه من الضروري أن ندرك ان الذكاء الاصطناعي ليس مجرد نمط أو تطبيق واحد بحيث يمكن إطلاق حكم مجمل عليه. فيجب أن نحدد أولا عن أي تطبيق نتحدث، وكيف تم تجهيزه وكيف تم (تدريب النماذج)، وما الضوابط المتعلقة بالجوانب الأمنية في الشركة التي توفر البرنامج أو خدمات الذكاء الاصطناعي. وكذلك حجم الشركة وخبرتها في هذا الجانب. وبالتالي هناك عدة مستويات وضوابط تحدد طبيعة الأمان أو المخاطر المحتملة. ومثال ذلك ما حدث مؤخرا من الكشف عن شركة بريطانية ناشئة ولديها تعاملات مع كبريات الشركات العالمية، ولكن بعد عام ونصف العام تم اكتشاف ان المبرمجين وإدارة التطبيقات تتم في الهند وليس في بريطانيا، والعمليات تتم من خلال 700 شخص بطريقة يدوية وليس بالذكاء الاصطناعي! لذلك من الضرورة بمكان التعامل مع تطبيقات وشركات عالمية موثوقة.
** وما المخاطر التي يمكن أن يتعرض لها الفرد العادي خلال استخدامه تطبيقات الذكاء الاصطناعي؟
تعريف كلمة المخاطر يتفاوت من شخص لآخر وفقا لطبيعة الاستخدام والبيانات التي يبوح بها ويدرب التطبيقات بها.
ولكن إجمالا، على الرغم من أن الذكاء الاصطناعي له فوائد كبيرة للفرد، فإن له بعض المخاوف المرتبطة بخصوصية البيانات. فاعتماده على جمع وتحليل كميات هائلة من المعلومات يثير تساؤلات حول كيفية استخدام هذه البيانات من قبل المطورين والشركات، وإمكانية الوصول غير المراقب إلى قواعد البيانات. كما أن بعض الخوارزميات قد تكون غير شفافة أو منحازة، مما يؤدي إلى قرارات غير دقيقة. وتزداد المخاوف في حال تعرض هذه الأنظمة للاختراق، مما قد يؤدي إلى تسريب معلومات حساسة تمس خصوصية الأفراد.
أضف الى ذلك، تبرز التحديات في الخصوصية الرقمية، خاصة مع انتشار تقنيات التزييف العميق (Deepfake) التي تُمكّن من إنشاء صور أو فيديوهات مزيفة بشكل يبدو حقيقيا، مما قد يُستخدم في إنتاج محتوى مضلل أو غير موثوق.
وتشمل التحديات الأخرى:
• جمع البيانات الشخصية من دون إذن واضح.
• احتيال إلكتروني متقن باستخدام الذكاء الاصطناعي لتقليد الأصوات أو الرسائل.
• الاعتماد الزائد على الأدوات الذكية مما قد يؤثر على مهارات التفكير.
• انحياز بعض الخوارزميات بما قد يؤثر على قرارات تخص الأفراد. وهذا يرتبط بعملية تدريب البرمجيات واختيار البيانات المستخدمة وتجاهل أخرى طبقا لأهداف الشركة الموفرة للتطبيق أو الشخص المطور للخوارزميات.
لذا من المهم تعزيز الوعي الرقمي واستخدام هذه التقنيات بشكل مسؤول.
ومع ذلك، فإن الفرص التي يقدمها الذكاء الاصطناعي تبقى أكثر شيوعًا، والجوانب الإيجابية تفوق السلبية بشكل ملحوظ. فقد أسهم في تطوير مجالات حيوية مثل التعليم والصحة والكشف المبكر عن أمراض خطيرة مثل سرطان الثدي، مما يسهم في زيادة نسب الشفاء وتحسين جودة الحياة. وكذلك في مجال البيئة والاستدامة. كما ساعد على تعزيز وسائل التواصل بين الأفراد والمؤسسات، ما أسهم في بناء مجتمعات أكثر وعيًا وترابطًا وانفتاحًا على المعرفة.
** إلى أي مدى باتت الخصوصية منتهكة في ضل الذكاء الاصطناعي؟ وهل يمكن تجنب هذه المخاطر؟
في الواقع، انتهاك الخصوصية ليس أمراً جديداً، بل بدأ منذ أكثر من عقدين مع انتشار وسائل التواصل الاجتماعي، حيث بدأ الأفراد يشاركون بياناتهم الشخصية وصورهم بشكل يومي، مما مهّد الطريق لتآكل مفهوم الخصوصية تدريجياً. ومع تطور التكنولوجيا، دخلنا مرحلة جديدة أكثر تعقيداً مع ظهور الذكاء الاصطناعي التوليدي، الذي لا يعتمد فقط على البيانات المتاحة، بل يُدرب ويُطوّر من خلالها، مما يعني أن أي محتوى نشاركه – سواء كان نصاً، صورة، أو حتى صوتاً – يمكن أن يُستخدم لاحقاً لتوليد محتوى جديد دون علمنا أو موافقتنا.
وبالتالي، فإن الذكاء الاصطناعي لم يكن سبباً مباشراً لانتهاك الخصوصية، بل جاء كامتداد لتراكم البيانات التي وفرناها طواعية عبر الإنترنت، وزاد من تعقيد المشهد بقدرته على التحليل، التنبؤ، وإعادة الإنتاج. هذا يفرض علينا اليوم التفكير بشكل أكثر جدية حول ما نشاركه، وأهمية وجود تشريعات واضحة تحمي الأفراد وبياناتهم في هذا العصر المتسارع.
ويمكن تجنّب العديد من مخاطر الذكاء الاصطناعي من خلال الاستخدام الواعي، وسنّ تشريعات تنظم عمله وتحمي الخصوصية. كما أن كثرة التوعية ونشر الثقافة في المجتمع من خلال تقديم ورش عمل وندوات يسهم في رفع الوعي باستخدام الذكاء الاصطناعي، وتقليل فرص سوء الاستخدام أو الوقوع في المخاطر.
وما يجب تأكيده هنا الذكاء الاصطناعي ليس تهديداً، بل فرصة عظيمة إذا أحسنّا توجيهها. فبالتخطيط، والحوكمة، والتعليم المستمر، يمكننا الاستفادة من هذه التقنية لتطوير مجتمعاتنا، وتحسين جودة حياتنا، وبناء مستقبل أكثر عدلاً وأمانا.
** ما المقصود بمصطلح (تدريب النماذج) الذي أشرت اليه؟
التدريب هو مصطلح يستخدم في الذكاء الاصطناعي ويشير إلى طريقة تغذية الخوارزميات بالمعلومات والبيات المتعلقة بمجال أو تخصص معين. بمعنى أنها البيانات التي يتم بها تزويد البرنامج المتعلق بالذكاء الاصطناعي، وهو يختلف من مزود لآخر ويمر بمراحل وتقييم مستمر وتطوير متواصل واحتواء الأخطاء. لذلك قد نلمس فارقا واضحا بين نموذج ناشئ وآخر مدرب منذ عام أو عامين بالبيانات المحدثة والمطورة.
وهناك ما يسمى بهندسة التلقين، وهو طريقة توجيه الأوامر والطلبات لبرنامج الذكاء الاصطناعي. فقد تجد شخصين يسألان عن نفس الموضوع ولكن بأسلوب مختلف، وبالتالي تكون الردود مختلفة وفقا لطريقة التلقين وطرح المعلومة، لذلك هناك دورات تخصصية لهندسة التلقين وطريقة التعامل مع هذه البرامج بالشكل الصحيح.
ولا ننسى هنا ما يسمى بهلوسة الذكاء الاصطناعي، وهو توليد بيانات ليست غير دقيقة فقط، وإنما خلط البيانات لأن التدريب لم يكن بحرفية او دقة كافية. وبمجرد اكتشاف الشركة لهذه الهلوسة يتم تعديلها من خلال تطوير تدريب النماذج.
** ماذا عن مصطلح «التزييف العميق»؟
يرمز التزييف العميق (Deepfake) الى عمليات تزييف الصور والفيديوهات بشكل غير واقعي. كأن ترى شخصا ما يتحدث عن موضوع معين بشكل يبدو إلى حد كبير واقعي، ولكنه مزيف تماما. وهنا تكمن الخطورة، حيث يمكن ترويج الاشاعات والمعلومات الخاطئة.
وللتزييف العميق نوعان من الاستخدام، فبالرغم من أن هذه التقنية تُستخدم أحيانًا لتزوير الصور والفيديوهات، إلا أن لها أيضًا استخدامات إيجابية، مثل تحسين جودة الصور والفيديوهات أو تعديلها لأغراض فنية أو تعليمية.
** هل يمكن للفرد العادي أن يكتشف مثل هذا التزييف العميق؟
** يعتمد ذلك على طبيعة التطبيقات المستخدمة وجودة وعمق التزييف. وكلما كانت العملية بشكل احترافي كلما كان الأمر أصعب في اكتشافها على الشخص العادي، ولكن باتت هناك تطبيقات احترافية أيضا تكشف مثل هذا العمليات. وأبسط مثال على ذلك أنه في بداية استخدام الذكاء الاصطناعي واجه أساتذة الجامعة مشكلة إمكانية حصول الطلاب على بحوث علمية جاهزة من خلال التطبيقات المتخصصة. ولكن مع الأيام ظهرت تطبيقات تكشف مثل هذه البحوث ونسب الاقتباس.
** إجمالا.. هل يمكن القول ان الذكاء الاصطناعي ضاعف من احتمالات المخاطر التي يتعرض لها الفرد من خلال التقنيات؟ وهل تعود هذه المخاطر إلى الجوانب التقنية الخارجية أم إلى الفرد نفسه وأسلوب استخدامه؟
تعتمد مخاطر الذكاء الاصطناعي على عاملين رئيسيين: التقنية الخارجية والفرد نفسه. فمن الناحية التقنية، قد يتم تخزين المعلومات وتداولها عبر أنظمة لا تتمتع بمستويات الأمان الكافية، مما يجعلها عرضة للوصول أو الاستخدام بطرق غير مناسبة، مما يفتح المجال لاحتمالات تسريب أو إساءة استخدام البيانات. أما من جهة الفرد، فتظهر المخاطر في أسلوبه في التعامل مع الذكاء الاصطناعي، مثل طريقة طرحه للأسئلة أو المعلومات التي يشاركها، والتي قد تكون حساسة دون أن يدرك عواقب استخدامها لاحقًا.
والمشكلة ان «الهكرز» باتوا يستخدمون الذكاء الاصطناعي، وهو ما قد يطور أساليبهم. وبالمقابل بات الأمن السيبراني معتمدا بشكل كبير على تقنيات الذكاء الاصطناعي؛ أي انه أسهم في تقدم تقنيات الهجوم السيبراني، وبنفس الوقت تطوير الأسلحة الدفاعية السيبرانية.
** ولكن بعض التقارير تذهب إلى أبعد من ذلك وتشير إلى أن الذكاء الاصطناعي يؤثر حتى على الأمن والسلم الدوليين!
نعم، يشير عدد من التقارير إلى أن الذكاء الاصطناعي قد يُحدث تأثيرات كبيرة على الأمن السيبراني، مما ينعكس بشكل غير مباشر على الاستقرار العام للأفراد والمجتمعات.
فمع تطور أدوات الذكاء الاصطناعي، أصبحت الهجمات السيبرانية أكثر ذكاءً وتعقيدًا، وقادرة على اختراق أنظمة حساسة بطرق يصعب اكتشافها. كما تُستخدم تقنيات مثل «التزييف العميق» و«البوتات الذكية» لنشر الشائعات أو التضليل، وهو ما قد يؤثر على ثقة الأفراد في المعلومات الرقمية.
إضافة إلى ذلك، قد يؤدي الاستخدام غير المنظم لهذه التقنيات إلى اختراق الخصوصية، وسرقة البيانات، والتلاعب بالمحتوى الرقمي، مما يخلق حالة من الاضطراب الرقمي ويهدد سلامة الأفراد والمؤسسات.
** لا يزال النقاش متكررا حول تأثير الذكاء الاصطناعي على جوانب اجتماعية واقتصادية مثل فرص العمل وضعف المهارات البشرية والابداع والعلاقات وغيرها، ما رأيك بذلك؟
يؤثر الذكاء الاصطناعي بشكل كبير على عدة جوانب في حياتنا، منها فرص العمل، الأخلاقيات، والمهارات البشرية. فعلى مستوى الوظائف، لا يؤدي الذكاء الاصطناعي إلى إلغائها بقدر ما يغيّر طبيعتها، إذ يحل محل المهام المتكررة ويتيح للأفراد التركيز على مهارات أكثر إبداعًا وتحليلًا، بل ويسهم أيضًا في خلق وظائف جديدة مرتبطة بالتقنية. من جهة أخرى، يطرح الذكاء الاصطناعي تساؤلات أخلاقية حول التحيّز، والخصوصية، والمسؤولية، خصوصًا عند استخدام بيانات شخصية أو اتخاذ قرارات مؤثرة على الأفراد. أما من ناحية المهارات البشرية، فهناك مخاوف من الاتكال الزائد على التقنية مما قد يضعف التفكير النقدي والإبداعي، ولكن في المقابل، يشكّل الذكاء الاصطناعي حافزًا لتعلم مهارات جديدة ومواكبة التغيرات. وعليه، تبقى الاستفادة من الذكاء الاصطناعي مرهونة بكيفية استخدامه وتوجيهه بما يعزز التقدم من دون المساس بالقيم والقدرات الإنسانية.
لذلك، من الضروري أن تكون هناك ضوابط واضحة وحوكمة فعالة لاستخدام الذكاء الاصطناعي، لضمان أمن المعلومات الرقمية والحفاظ على الثقة والاستقرار في البيئة الإلكترونية.
** في خطاب وضعه موظفون في عملاق البحث «غوغل» و«OpenAI» t حذروا من المخاطر الناجمة عن الذكاء الاصطناعي غير المنظم، بدءا من انتشار المعلومات المضللة إلى فقدان أنظمة الذكاء الاصطناعي المستقلة وتعميق عدم المساواة القائمة، مما قد يؤدي إلى «انقراض البشرية»! وهذا ما يعود بنا الى فلم «ترمنيتر» الذي يصور هيمنة الروبوتات على البشرية!
رغم هذه التحذيرات، فإن الرسالة الأساسية لا تدعو للخوف، بل تؤكد أهمية العمل المشترك لتنظيم الذكاء الاصطناعي وتوجيهه نحو الخير العام.
فكما ذكرت، الذكاء الاصطناعي ليس تهديداً بحد ذاته، بل أداة قوية تعتمد نتائجها على كيفية استخدامها. فكما يمكن استخدامه لنشر معلومات مضللة، يمكن أيضًا توظيفه للكشف عنها. وكما قد يُساء استخدامه، يمكن أن يُستثمر في تطوير الصحة والتعليم والبيئة.
ثم ان التنبؤ بالمستقبل يبقى مجر تكهنات خيالية غير مبينة على أسس علمية أو تقنية.
لذلك المطلوب ليس إيقاف التطور، بل مرافقة هذا التطور بإطار تشريعي وأخلاقي يضمن الشفافية، العدالة، وحماية الخصوصية. وهذا ما تسعى إليه اليوم العديد من الحكومات والمؤسسات العالمية.
ومع وعي المجتمعات، وزيادة الاهتمام بالحوكمة الرقمية، أصبح من الممكن توجيه الذكاء الاصطناعي ليكون شريكا حقيقيا في بناء مستقبل أكثر أمانًا وإنصافًا، وليس تهديدا. فبدلاً من أن نعود إلى مشاهد Terminator، يمكن أن نرسم مستقبلًا أكثر تعاونا بين الإنسان والتقنية.
هل ترغب بالتعليق على الموضوع؟
لا تتردد في إعطاء تعليقك ومشاركة رأيك