أظهر بحث جديد نشره اتحاد الإذاعات الأوروبية وهيئة الإذاعة البريطانية (بي.بي.سي) أمس أن تطبيقات الذكاء الاصطناعي الرائدة تحرف محتوى الأخبار في نصف ردودها تقريبا.
ودرس البحث الدولي ثلاثة آلاف رد على أسئلة عن الأخبار من مساعدي الذكاء الاصطناعي، وهي تطبيقات برمجية تستخدم الذكاء الاصطناعي لفهم أوامر اللغة الطبيعية لإكمال المهام للمستخدم.
وقيمت الدراسة مساعدي الذكاء الاصطناعي بما يصل إلى 14 لغة من حيث الدقة والمصادر والقدرة على التمييز بين الرأي والحقيقة. ومن هذه التطبيقات المساعدة تشات جي.بي.تي وكوبايلوت وجيميناي وبربليكستي
وبشكل عام، أظهر البحث أن 45 بالمائة من ردود الذكاء الاصطناعي التي خضعت للدراسة احتوت على مشكلة واحدة كبرى على الأقل، و81 بالمائة منها تتضمن شكلا من أشكال المشكلات.
وأجرت رويترز اتصالات مع الشركات للحصول على تعليقها على النتائج. وقالت شركتا أوبن إيه.آي ومايكروسوفت في وقت سابق إنهما تسعيان لحل مشكلة الهلوسة، عندما يولد نموذج الذكاء الاصطناعي معلومات غير صحيحة أو مضللة، غالبا بسبب عوامل مثل عدم كفاية البيانات.
وتقول بربليكستي على موقعها الإلكتروني إن أحد أنماط «البحث العميق» لديها يتمتع بدقة 93.9 بالمائة من حيث الواقعية.
وأوضحت الدراسة أن ثلث إجابات مساعدي الذكاء الاصطناعي أظهرت أخطاء جسيمة في المصادر، مثل الإسناد المفقود أو المضلل أو غير الصحيح.
وقالت الدراسة إن نحو 72 بالمائة من ردود جيميناي، مساعد الذكاء الاصطناعي من جوجل، كانت بها مشكلات كبيرة في المصادر، مقارنة بأقل من 25 بالمائة لجميع المساعدين الآخرين.
وقالت الدراسة إنه تسنى العثور على مشكلات في الدقة في 20 بالمائة من ردود جميع مساعدي الذكاء الاصطناعي الذين خضعوا للدراسة، بما في ذلك المعلومات القديمة.
ومن الأمثلة التي ذكرتها الدراسة أن جيميناي ذكر على نحو غير صحيح التغييرات التي طرأت على قانون بشأن السجائر الإلكترونية التي تستخدم مرة واحدة، كما ذكر تشات جي.بي.تي أن البابا فرنسيس هو البابا الحالي بعد أشهر من وفاته.
شاركت في الدراسة 22 مؤسسة إعلامية للخدمة العامة من 18 دولة بينها فرنسا وألمانيا وإسبانيا وأوكرانيا وبريطانيا والولايات المتحدة.
هل ترغب بالتعليق على الموضوع؟
لا تتردد في إعطاء تعليقك ومشاركة رأيك