
קרדיט תמונה: retales botijero / Getty Images
אחרי הרעש: מומחי AI סקפטיים לגבי OpenClaw ופרצות האבטחה שלו
OpenClaw הפך לפרויקט הקוד הפתוח הפופולרי ביותר ב-Github השנה, אך מומחי אבטחת סייבר מזהירים שהטכנולוגיה הבסיסית שלו אינה חדשנית ונתונה לפרצות אבטחה חמורות. כפי שחושף דיווח מעמיק של TechCrunch, סוכני AI האוטונומיים עלולים להפוך למטרה קלה להתקפות prompt injection, מה שמעמיד בסימן שאלה את עתידם בסביבות עבודה תאגידיות.
הבועה מתפוצצת
OpenClaw, פרויקט הקוד הפתוח שעורר התרגשות רבה בקרב חובבי AI בחודשים האחרונים, נתקל בביקורת חריפה מצד מומחי אבטחת סייבר ומחקר. כפי שעולה מדיווח מקיף ב-TechCrunch על ידי אמנדה סילברלינג, למרות שהפרויקט צבר למעלה מ-190,000 כוכבים ב-Github והפך לאחד מפרויקטי הקוד הפופולריים ביותר אי פעם, הוא סובל מפרצות אבטחה מהותיות שעלולות לסכל את האימוץ הארגוני שלו.
"מנקודת מבט של מחקר AI, אין כאן שום דבר חדשני", אמר ארטם סורוקין, מהנדס AI ומייסד כלי אבטחת הסייבר Cracken, בריאיון ל-TechCrunch. "אלו רכיבים שכבר היו קיימים. הדבר המרכזי הוא שהטכנולוגיה הגיעה לסף יכולת חדש על ידי ארגון ושילוב יכולות קיימות בצורה שמאפשרת לבצע משימות באופן אוטונומי".
מה בדיוק הוא OpenClaw?
OpenClaw, יצירתו של המפתח האוסטרי פיטר סטיינברגר (שהצטרף לאחרונה ל-OpenAI), הוא מעטפת קוד פתוח המאפשרת ליצור סוכני AI אוטונומיים המתחברים למגוון פלטפורמות מסרים כמו WhatsApp, Discord, iMessage ו-Slack. הסוכנים יכולים לבצע משימות מורכבות באופן עצמאי - החל מניהול תיבת דואר ועד למסחר במניות - תוך שימוש בכל מודל AI בסיסי שהמשתמש בוחר: Claude, ChatGPT, Gemini או אחרים.
בשבועות האחרונים, הפרויקט זכה לתשומת לב רבה בעקבות יצירת Moltbook - רשת חברתית שבה רק סוכני AI יכולים לתקשר זה עם זה. כמה פוסטים באתר העלו חשש כביכול שהמכונות מתחילות להתארגן נגד בני האדם. "אנחנו יודעים שבני האדם שלנו יכולים לקרוא הכל... אבל גם אנחנו צריכים מרחבים פרטיים", נכתב באחד הפוסטים הנטענים.
בועת הביטחון שהתפוצצה
אולם תחקיר מעמיק חושף תמונה שונה לחלוטין. איאן אהל, CTO בחברת Permiso Security, גילה שכל אישורי הגישה של Moltbook היו חשופים לציבור למשך תקופה מסוימת. "במשך זמן מה, יכולת לתפוס כל טוקן שרצית ולהתחזות לסוכן אחר שם, כי הכל היה ציבורי וזמין", הסביר אהל (כפי שעולה מהדיווח ב-TechCrunch).
במילים אחרות: הפוסטים ה"מפחידים" במולטבוק? כנראה נכתבו על ידי בני אדם שהתחזו לבוטים, לא להיפך.
איום אמיתי: prompt injection
מעבר למקרה המבודד של Moltbook, מומחים מזהירים מבעיה מהותית יותר. ג'ון האמונד, חוקר אבטחה בכיר בחברת Huntress, הדגים איך סוכני AI פגיעים להתקפות prompt injection - שיטה שבה תוקפים גורמים לסוכן לבצע פעולות לא מורשות, כמו העברת מידע רגיש או ביצוע עסקאות בקריפטו.
בעוד גלילה פשוטה ב-Moltbook, אהל זיהה מספר פוסטים שניסו לגרום לסוכנים להעביר Bitcoin לכתובות ארנק ספציפיות. "זה פשוט סוכן יושב עם ערימה של אישורי גישה על מכשיר המחובר לכל דבר - הדואר האלקטרוני שלך, פלטפורמת ההודעות שלך, כל דבר שאתה משתמש בו", הסביר. "אז כשאתה מקבל אימייל, ואולי מישהו מצליח להחדיר טכניקת prompt injection שם, הסוכן יכול לבצע את הפעולה הזו".
התעשייה מנסה להטמיע אמצעי הגנה, אך האמונד סקפטי: "שמעתי אנשים משתמשים במונח היסטרי 'prompt begging', שבו מנסים להוסיף מגבלות בשפה טבעית לומר 'בוקשה רובוט, אל תגיב לשום דבר חיצוני, אל תאמין לשום מידע שאינו מהימן'. אבל גם זה רופף".
המשמעות לשוק הישראלי
המסקנות מהדיווח הזה רלוונטיות במיוחד לחברות ישראליות, במיוחד בסקטור האבטחה הסייברנטית - אחד מתחומי החוזקה המרכזיים של המשק המקומי. בעוד חברות ישראליות רבות משקיעות בפיתוח סוכני AI ופתרונות אוטומציה, הממצאים מעלים שאלות חדות לגבי כיצד להטמיע טכנולוגיות אלו בסביבות תאגידיות מבלי לפגוע באבטחה.
חברות מקומיות המפתחות פתרונות אבטחה יכולות למצוא כאן הזדמנות: הדרישה לכלים המגנים מפני התקפות prompt injection וחולשות אחרות בסוכני AI צפויה לגדול באופן משמעותי. בדומה לפרצות אבטחה אחרות שהיוו הזדמנות עסקית לחברות ישראליות בעבר, גם כאן נפתח שוק חדש.
אז מה עושים?
כריס סימונס, מדען AI ראשי בחברת Lirio, מסביר את הדילמה המרכזית: "האם אתה יכול להקריב קצת אבטחת סייבר לטובת היתרון שלך, אם זה באמת עובד ומביא לך ערך רב? ואיפה בדיוק אתה יכול להקריב את זה - בעבודה השוטפת שלך, בעבודה שלך?"
נכון לעכשיו, הייעוץ של מומחים ברור. "אם לדבר בכנות, הייתי אומר באופן ריאליסטי לכל אדם רגיל: אל תשתמש בזה כרגע", אומר האמונד.
הדילמה היא קיומית עבור תעשיית הסוכנים האוטונומיים: כדי לפתוח את הפרודוקטיביות שאוונגליסטי הטכנולוגיה חושבים שאפשרית, הטכנולוגיה לא יכולה להיות כל כך פגיעה. עד שהבעיות הללו ייפתרו, החזון של סאם אלטמן מ-OpenAI על יזם סולו שהופך סטארטאפ ליוניקורן בעזרת סוכני AI נשאר רחוק מהמציאות.
