وضعت الهيئات التنظيمية المالية العالمية خططًا لمراقبة أوثق للمخاطر المرتبطة بالذكاء الاصطناعي، في ظل تزايد اعتماد البنوك وأجزاء أخرى من القطاع المالي على هذه التكنولوجيا، ورغم أن البنوك تبدي تفاؤلًا واسعًا بأن الذكاء الاصطناعي سيجعلها أكثر إنتاجية، فإن الجهات التنظيمية حول العالم أعربت عن مخاوفها بشأن تأثيره المحتمل على الاستقرار المالي.
قال مجلس الاستقرار المالي FSB، وهو هيئة مراقبة المخاطر التابعة لمجموعة العشرين G20، في تقرير، إنه إذا انتهى الأمر بعدد كبير من المؤسسات إلى استخدام النماذج نفسها من الذكاء الاصطناعي والأجهزة المتخصصة نفسها، فقد يؤدي ذلك إلى سلوك جماعي يشبه “سلوك القطيع”.
وأضاف المجلس أن هذا الاعتماد المفرط يمكن أن يخلق ثغرات إذا لم تتوفر بدائل كافية.
وفي دراسةٍ منفصلة نشرتها مجموعة بنك التسويات الدولية BIS، وهي المظلة التي تجمع البنوك المركزية، جاء أن هناك “حاجة ملحة” لأن تقوم البنوك المركزية والهيئات التنظيمية والرقابية بتعزيز قدراتها فيما يتعلق بالذكاء الاصطناعي.
وقالت المجموعة: “هناك حاجة لتطوير قدراتهم سواء كمراقبين مطّلعين على تأثير التقدم التكنولوجي، أو كمستخدمين فعّالين لهذه التكنولوجيا نفسها.”
اقرا ايضا: الذكاء الاصطناعي والنفط… تحالف المستقبل
وتتنافس حاليًا الولايات المتحدة والصين وعدة دول أخرى حول العالم على قيادة تطوير تقنيات التعلم الآلي الثورية.
وأشار تقرير مجلس الاستقرار المالي إلى أنه رغم أن الذكاء الاصطناعي قد يزيد من حدة الضغوط في الأسواق المالية، فإنه لا يوجد حتى الآن دليل تجريبي قوي على أن الارتباطات السوقية الناتجة عن الذكاء الاصطناعي تؤثر فعليًا في نتائج الأسواق.
كما أضاف التقرير أن المؤسسات المالية معرضة لمزيد من الهجمات الإلكترونية المرتبطة بالذكاء الاصطناعي، بالإضافة إلى الاحتيال المدعوم بالذكاء الاصطناعي.
وقد بدأت بعض المناطق بالفعل خطواتها الأولى لتنظيم الذكاء الاصطناعي، ومن بينها الاتحاد الأوروبي الذي دخل قانون المرونة التشغيلية الرقمية DORA حيز التنفيذ في شهر يناير الماضي.