كيف يعيد الذكاء الاصطناعي تشكيل مشهد التأمين التجاري؟
ذكرت شركة Lockton Re بالتعاون مع Lockton International وArmilla AI أن الاعتماد السريع على الذكاء الاصطناعي (AI) في جميع الصناعات يغيّر بشكل جذري مشهد المخاطر التجارية، ما يفرض الحاجة إلى تصنيف جديد خاص بالمخاطر الناجمة عن الذكاء الاصطناعي.
وقال أوليفر برو، أحد معدّي التقرير ورئيس مركز التميّز في الأمن السيبراني بـLockton Re: "لا يوجد قطاع اقتصادي محصّن من التأثير المحتمل للذكاء الاصطناعي. كصناعة، علينا الاستعداد لكيفية تغطية هذه المخاطر المتطورة بسرعة في التأمين التجاري، وفهم أنماط المطالبات الناشئة."
المخاطر السيبرانية
أوضح التقرير أن الذكاء الاصطناعي يُستخدم لتعزيز وتسريع الهجمات السيبرانية، مثل الاحتيال الإلكتروني المتطور والتزييف العميق (deepfake). وأشارت بعض شركات التأمين السيبراني إلى أنها تغطي مخاطر الذكاء الاصطناعي عندما يكون السبب الأساسي حادثًا سيبرانيًا تقليديًا، مثل تسريبات البيانات أو الهجمات الإلكترونية على البنية التحتية للذكاء الاصطناعي.
كما بدأ ظهور أنواع جديدة من التأمين لتغطية المخاطر التشغيلية للذكاء الاصطناعي، مثل الوصول غير المصرح به إلى بيئات النماذج الكبيرة (LLM)، بما في ذلك تعويض تكاليف إعادة تطوير النموذج بعد وقوع حادث.
أخطاء الذكاء الاصطناعي والمسؤولية المهنية (E&O)
أشار التقرير إلى أن نماذج الذكاء الاصطناعي تغير طبيعة مخاطر المسؤولية المهنية التكنولوجية، حيث كانت سياسات E&O التقليدية مصممة للتعامل مع أعطال البرمجيات المتوقعة مثل الأخطاء البرمجية أو انقطاع الخدمة أو الإخفاق في الالتزام بالعقود، بينما الطبيعة الاحتمالية للذكاء الاصطناعي تجعل توقع المخاطر أكثر صعوبة وتخلق سيناريوهات جديدة للمطالبات.
وقد ظهرت تعهدات محددة لتغطية أخطاء النماذج، مثل القرارات الخاطئة أو التحيز في البيانات، لكنها غالبًا ما تكون ضيقة ولا تغطي كل الاحتمالات.
المسؤولية القانونية للمديرين والموظفين (D&O) والمخاطر التشغيلية
مع دمج الذكاء الاصطناعي في استراتيجيات الشركات وعملياتها، يرتفع مستوى التعرض القانوني للمديرين، خاصة فيما يتعلق بالحوكمة والإفصاح عن مخاطر الذكاء الاصطناعي مثل التحيز أو الاعتماد على مورد محدد.
كما أن السياسات التقليدية لا تضمن تغطية أخطاء الذكاء الاصطناعي، وتستمر في تطبيق استثناءات الأنشطة المقصودة أو التصريحات المضللة حول قدرات الذكاء الاصطناعي.
مسؤولية الممارسات الوظيفية (EPL) والتحيز
أدى استخدام الذكاء الاصطناعي في التوظيف إلى زيادة مخاطر التحيز والتمييز، خصوصًا إذا كانت النماذج مدربة على بيانات متحيزة، في حين أن معظم سياسات التأمين لم تتطرق إلى تغطية مخرجات الذكاء الاصطناعي أو لم تدمجها ضمن أصحاب المصلحة المؤهلين.
التأمين الإيجابي (Affirmative Coverage)
بدأت تظهر فئة جديدة من التأمين لمعالجة الفجوات المحتملة في السياسات التجارية التقليدية، حيث تهدف إلى تغطية مسؤوليات الأخطاء الناتجة عن نماذج الذكاء الاصطناعي، بما في ذلك الحالات التي لا تنطوي على هجمات سيبرانية أو جهات خبيثة.
يعتمد هذا النوع من التأمين على تقييم كل نموذج بشكل فردي وفق الصناعة، وسياق المخرجات، والإصدار المستخدم، وحالة الاستخدام، ما يسمح بتسعير مخصص ويوضح نية التغطية بشكل أفضل.
المخاطر النظامية (Systemic Risk)
تطرّق التقرير إلى احتمالية حدوث مخاطر نظامية نتيجة اعتماد الشركات على البنية التحتية المشتركة ونماذج الذكاء الاصطناعي الأساسية.
"التحدي للصناعة التأمينية ليس ما إذا كان الذكاء الاصطناعي سيخلق مخاطر نظامية، بل متى، وهل يمكن أن تواكب ممارسات الاكتتاب هذا التغير"، قال بايجو ديفاني، أحد مؤلفي التقرير ورئيس التكنولوجيا في Armilla AI.
أوضح التقرير أن الإجراءات التقليدية للرقابة النظامية ليست فعّالة مع الذكاء الاصطناعي، حيث يمكن أن يؤدي خلل في نموذج شائع الاستخدام إلى وقوع خسائر متزامنة في عدة شركات، بغض النظر عن القطاع أو الموقع الجغرافي.
تعليقات الزوار