חזרה למחקרים
סוכני תובנות (Insight Agents): מערכת רב־סוכנים מבוססת LLM להפקת תובנות מנתונים |
arXiv
מערכות מרובות-סוכנים ובינה קולקטיבית

סוכני תובנות (Insight Agents): מערכת רב־סוכנים מבוססת LLM להפקת תובנות מנתונים |

מחברים:Jincheng Bai, Zhenyu Zhang, Jennifer Zhang, Zhihuai Zhu
תאריך פרסום:26 בינואר 2026
סוג המחקר:ניסוי אמפירי
מקור:arXiv

יישומי המאמר

המחקר מדגים כיצד ניתן להפוך נתונים עסקיים מורכבים (למשל מכירות, מלאי, קמפיינים, ביצועי מוצרים) לתשובות ותובנות ברורות בשפה טבעית באמצעות מערכת “צוות” של סוכני AI. במקום שכל משתמש יצטרך לדעת באיזה דוח להשתמש או איך לנסח שאילתות מורכבות, IA מתכננת את הדרך לפתרון, שולפת נתונים דרך APIs, מציגה אותם בצורה מובנת ומסיקה מהם תובנות אופרטיביות. עבור מנהלים וצוותי איקומרס זה יכול לקצר משמעותית זמן קבלת החלטות (מה קרה ולמה), להפחית עומס על אנליסטים/BI, ולהגדיל אימוץ כלים ויישומים פנימיים באמצעות חוויית שיחה. בנוסף, מנגנוני ניתוב ושמירה על תחום (OOD) נועדו להקטין טעויות ושימוש לא נכון בכלים, ובכך לשפר אמינות ויציבות במוצר פרודקשן.

TL;DR

המאמר מציג את Insight Agents (IA) — מערכת רב־סוכנים מבוססת מודלי שפה גדולים שמטרתה להפיק תובנות נתונים שימושיות בשיחה עבור מוכרי איקומרס. המחברים מתארים ארכיטקטורה היררכית עם “סוכן מנהל” ושני “סוכני עבודה”: סוכן להצגת נתונים וסוכן להפקת תובנות. המערכת בנויה בפרדיגמת plan-and-execute ומיועדת לכיסוי רחב של שאלות עסקיות, דיוק גבוה וזמן תגובה נמוך. כדי לשפר ניתוב משימות ואמינות, סוכן המנהל משלב זיהוי Out-of-Domain (OOD) באמצעות מודל encoder–decoder קל משקל יחד עם סיווג מבוסס BERT לבחירת סוכן היעד. בצד ההפקה, IA משתמשת בתכנון אסטרטגי לשאילתות על מודל נתונים מבוסס API, פירוק שאלות לרכיבים גרנולריים והזרקת ידע דומייני דינמית לשיפור איכות התובנות. המערכת הושקה למוכרי Amazon בארה״ב והשיגה 90% דיוק לפי הערכה אנושית, עם השהיית P90 מתחת ל-15 שניות.

פירוט המאמר

תקציר ורקע

המאמר עוסק בקושי נפוץ בעולם האיקומרס: למוכרים יש שפע כלים, דוחות ומקורות נתונים, אך קשה להם (1) לגלות אילו תוכניות/כלים זמינים ורלוונטיים, (2) להבין את הנתונים העשירים שמתקבלים ממקורות שונים, ו-(3) לתרגם אותם במהירות להחלטות עסקיות. המחברים מציעים פתרון בדמות Insight Agents (IA) — מערכת רב־סוכנים שיחתית מבוססת LLM שמטרתה לספק “תובנות נתונים” מותאמות אישית דרך שליפה אוטומטית של מידע והסקת מסקנות. ההשערה המרכזית היא שמערכת כזו תשמש “מכפיל כוח” למוכרים ותגדיל אימוץ כלים על ידי הפחתת המאמץ הנדרש וקיצור הזמן עד לקבלת החלטות.

תרומת המחקר

התרומה היא תכנון של מערכת end-to-end לפרודקשן שמאזנת שלושה יעדים: כיסוי רחב (coverage) של שאילתות/תרחישים, דיוק גבוה (accuracy) וזמן תגובה נמוך (low latency). המאמר מתאר:

  1. מבנה היררכי רב־סוכנים (manager + workers).
  2. פרדיגמת עבודה Plan-and-Execute.
  3. רכיב ML לניהול ניתוב: זיהוי Out-of-Domain (OOD) + סיווג/ניתוב מבוסס BERT.
  4. תכנון שאילתות אסטרטגי על מודל נתונים מבוסס API, כולל פירוק שאלות לרכיבים גרנולריים והזרקת ידע דומייני דינמית לתשובות.

ארכיטקטורת המערכת (Hierarchical Multi-Agent)

המערכת כוללת שלושה סוכנים:

  • Manager Agent (סוכן מנהל): אחראי להבין את כוונת המשתמש, לוודא שהשאלה בתחום היכולת של המערכת, ולנתב למשימת המשך אצל אחד מסוכני העבודה.
  • Data Presentation Agent (סוכן הצגת נתונים): מתמקד בשליפת מידע והצגה ברורה של נתונים (למשל טבלאות/סיכומים), כך שהמשתמש יקבל “תמונת מצב” עובדתית.
  • Insight Generation Agent (סוכן יצירת תובנות): מוסיף שכבת פרשנות והסקה: זיהוי חריגות, הסברים אפשריים, נקודות פעולה וכד׳, מעבר להצגת מספרים בלבד.

הבחירה בארכיטקטורה היררכית נועדה לאפשר חלוקת עבודה ברורה, שליטה טובה יותר בזרימת העבודה, ושיפור יעילות (ביצועים וזמן תגובה) ביחס ל-“סוכן אחד שעושה הכל”.

פרדיגמת Plan-and-Execute

המערכת בנויה כך שהסוכן (בעיקר סוכני העבודה) קודם מתכנן סדר פעולות ואז מבצע: פירוק שאילתה, שליפה ממקורות הנתונים דרך APIs, ארגון והצגת התוצאות, ולבסוף הפקת תובנות. התכנון מאפשר:

  • להקטין טעויות של “קפיצה למסקנה” לפני שליפת נתונים.
  • לייצר תשובות עקביות יותר.
  • לפרק שאלות מורכבות לרכיבים שניתן לבדוק/לאמת.

ניתוב משימות וזיהוי OOD בסוכן המנהל

כדי לשמור על איכות ותזמון, המחברים מציעים פתרון ML “פשוט אך אפקטיבי” עבור סוכן המנהל:

  • זיהוי Out-of-Domain (OOD): שימוש במודל encoder–decoder קל משקל שמטרתו לזהות שאלות שאינן בתחום הידע/הכלים הזמינים למערכת (למשל בקשות שאינן קשורות לתובנות נתונים או מחוץ למוצרי הדאטה הנתמכים).
  • Agent Routing באמצעות מסווג מבוסס BERT: לאחר שהשאילתה מזוהה כ-in-domain, משתמשים במסווג BERT כדי לבחור את סוכן העבודה המתאים (הצגת נתונים מול יצירת תובנות), תוך אופטימיזציה משולבת של דיוק וזמן תגובה.

הדגש הוא על שילוב של רכיבי ML ממוקדים במקום להעמיס את כל ההחלטה על LLM בלבד, כדי לקבל עקביות ויעילות בפרודקשן.

תכנון שאילתות על מודל נתונים מבוסס API והזרקת ידע דומייני

בתוך סוכני העבודה מתוארת גישה של תכנון אסטרטגי מותאם ל-API-based data model:

  • המערכת מפרקת שאילתות לרכיבים גרנולריים (sub-queries) כדי להקטין עמימות ולהביא נתונים מדויקים יותר.
  • ידע דומייני מוזרק דינמית (domain knowledge injection) כדי לשפר את איכות התובנות, למשל בהקשר של מושגים עסקיים, הגדרות מדדים, או חוקים/הנחיות שימוש בכלים.

המטרה היא להגביר את “איכות ההסבר” ואת הרלוונטיות העסקית של התוצאה ולא להסתפק בסיכום טקסטואלי כללי.

פריסה במוצר והערכה

המאמר מציין כי IA הושקה למוכרי Amazon בארה״ב. ההישגים המרכזיים המדווחים:

  • דיוק (accuracy) של 90% על סמך הערכה אנושית.
  • Latency ברמת P90 מתחת ל-15 שניות (כלומר, 90% מהבקשות נענו בפחות מ-15 שניות).

המספרים הללו מוצגים כעדות לכך שניתן לבנות מערכת סוכנים מבוססת LLM שמגיעה לרמת איכות גבוהה יחסית תוך שמירה על ביצועים המתאימים למוצר אמיתי.

מגבלות והיקף

בהתבסס על דף ה-arXiv שסופק, עיקר הפרטים המוצגים הם ברמת תקציר ומטא-מידע על המאמר וההישגים. פרטים כמותיים נוספים (כמו גודל סט הערכה, חלוקת סוגי שאלות, השוואות לבייסליינים, או ניתוח שגיאות) אינם מופיעים בטקסט שסופק כאן, ולכן אינם מסוכמים.

סיכום ומסקנות

המחקר מציג תכנון מערכת רב־סוכנים שמתרגם שאלות עסקיות לשאילתות נתונים, מציג נתונים ומייצר תובנות באופן שיחתי. החידוש הוא בשילוב בין LLM כ”מנוע תכנון והפקה” לבין רכיבי ML קלים ל-OOD ולניתוב, ובתכנון שמכוון לפרודקשן (דיוק גבוה ו-latency נמוך). התוצאות המדווחות (90% דיוק, P90<15s) מצביעות על ישימות גבוהה ליישומים עסקיים, במיוחד בסביבות איקומרס עתירות נתונים.

✨ היילייטס

  • מערכת רב־סוכנים היררכית: סוכן מנהל + שני סוכני עבודה (הצגת נתונים והפקת תובנות) להפעלה יעילה של תהליך תובנות מקצה לקצה.
  • Plan-and-Execute מותאם לדאטה: פירוק שאלה לשלבים ושאילתות משנה על מודל נתונים מבוסס API כדי לשפר דיוק ורלוונטיות.
  • ניתוב מבוסס ML ולא רק LLM: שילוב זיהוי OOD עם מודל encoder–decoder קל משקל וניתוב באמצעות מסווג מבוסס BERT לשיפור עקביות, דיוק וזמן תגובה.
  • הזרקת ידע דומייני דינמית: הוספת הקשר עסקי ומושגים רלוונטיים בזמן יצירת התובנות כדי להגדיל ערך אופרטיבי.
  • תוצאות פרודקשן מדווחות: הושקה למוכרי Amazon בארה״ב עם 90% דיוק (הערכה אנושית) ו-P90 latency < 15 שניות.

חוקרים

Jincheng BaiZhenyu ZhangJennifer ZhangZhihuai Zhu

מילות מפתח

LLM agentsmulti-agent systemdata insightsagent routingout-of-domain detection

שאלות נפוצות