קרדיט תמונה: Zirat AI / AI
חברות ביטוח מבקשות להחריג אחריות AI: הסיכון גדול מדי
ענקיות ביטוח בארה"ב, בהן AIG, Great American ו-WR Berkley, פועלות מול רגולטורים כדי להוציא מהפוליסות המסחריות כיסוי לנזקי בינה מלאכותית. המניע המרכזי הוא סיכון מערכתי מתגלגל שקשה לכמת ולתמחר, לצד אירועי אמת שהגבירו את הדריכות. המהלך עלול להשפיע על כיסויי אחריות כללית, סייבר ו-E&O, ולזלוג במהירות לשווקים אחרים דרך חוזי משנה.
ענקיות ביטוח בארה"ב מבקשות מרגולטורים אישור להחריג אחריות הקשורה ל-AI מפוליסות עסקיות מרכזיות. לפי דיווח שסוקר ב־TechCrunch, שמבוסס על ה־Financial Times, AIG, Great American ו־WR Berkley מזהירות כי מודלי AI מתנהגים כקופסה שחורה, וכי שגיאה רוחבית במודלים נפוצים עלולה להצית בו זמנית אלפי תביעות.
דוגמאות מהשנה האחרונה מספקות קונטקסט: AI Overview של גוגל ייחס בטעות לחברת סולאר הסתבכות משפטית והוביל לתביעת דיבה של 110 מיליון דולר; ב־Air Canada נאלצה החברה לכבד הנחה שהומצאה על ידי צ'אטבוט; ובמקרה אחר הונאה באמצעות דיפפייק של מנהל בכיר הביאה לגניבת 25 מיליון דולר. אם מקרה כזה יתרחש על פני אלפי לקוחות בו זמנית, חברות הביטוח חוששות מגל תביעות שיחצה את יכולת הספיגה של השוק.
מבחינת מוצרי ביטוח, ההחרגות עשויות להופיע בכיסוי אחריות כללית מסחרית, פוליסות טעויות והשמטות E&O, ביטוחי סייבר ואף D&O כאשר הטענה היא כשל ניהולי בהטמעת AI. מנגנוני השלכה דרך חוזי משנה ורי־אינשורנס עלולים לגרום לכך שהחרגות בארה"ב יופיעו במהירות גם באירופה ובישראל.
מעבר לשיקולים מסחריים, הרגולציה מתהדקת: חוק הבינה המלאכותית של האיחוד האירופי נכנס בהדרגה בין 2025 ל־2027, ויצור חובות תאימות חדשות ליצרני ומפעילי מערכות בעלות סיכון גבוה. בארה"ב ה־NAIC פרסם ניירות עקרונות ומסמכי הנחיה לשימוש באלגוריתמים במבטח, וקולורדו כבר אימצה כללים המחייבים ניהול סיכוני אלגוריתמים ומניעת אפליה בלתי הוגנת מצד מבטחים. שילוב של סיכונים רגולטוריים, תביעות ייצוגיות וסיכון מערכתי מעלה את חוסר הוודאות האקטוארית.
לשוק הישראלי יש כאן שתי שכבות השפעה. ראשית, מרבית המבטחים המקומיים נשענים על רי־אינשורנס גלובלי. אם מבטחי המשנה ידרשו החרגות AI, הסבירות גבוהה שהחריגים יופיעו בפוליסות בישראל, במיוחד בכיסויי E&O וסייבר. שנית, סטארטאפים וחברות תוכנה ישראליות המוכרות בארה"ב כבר נדרשות לסעיפי שיפוי ואחריות חוזית סביב AI. ללא כיסוי ביטוחי מתאים, האחריות תישאר על המאזן או תצריך פתרונות חלופיים כמו Captive או פוליסות ייעודיות.
מה עושים עכשיו בחברות שמשיקות או מטמיעות AI בארגון:
- ממפים שימושים לפי רמת סיכון, מגדירים Kill Switch תפעולי ומסגרות Human-in-the-loop לתרחישים רגישים.
- מחייבים לוגים, Traceability וגרסאות מודל כדי לאפשר Forensics, חקירה והגנת אחריות.
- מנהלים חוזים חכמים מול ספקי מודלים ושירותי API, כולל שיפוי דו־צדדי וספי אחריות מוגדרים.
- בוחנים פוליסות ייעודיות ל־AI Liability או הרחבות בתוך סייבר ו־E&O, תוך תשומת לב להחרגות חדשות.
- מתאימים ממשל מודלים Model Governance ומדיניות Red Teaming לתקנים רגולטוריים מתהווים.
ככל שהשוק מתקשה לתמחר את הסיכון, צפויות לעלות חלופות כמו טריגרים פרמטריים, קרנות סיכון משותפות ורמות השתתפות עצמית גבוהות. היסטורית, בשווקים עם אי ודאות גבוהה הביטוח אינו נעלם אלא משתנה. עד שהאקטואריה תשיג את קצב החדשנות, האחריות תיפול יותר על ניהול סיכונים תפעולי, שקיפות מודלים והסכמים חוזיים הדוקים. עבור חברות ישראליות, זה הזמן לבחון מחדש את מפת הסיכונים, את תנאי ההסכמים עם לקוחות בארה"ב, ואת תקפות הכיסויים הקיימים מול תרחישי AI מודרניים.
