תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
× Send

מיפוי הסוכנים: MIT פרסמה את מסד הנתונים הראשון של סוכני ה-AI הפעילים בעולם

מדד סוכני AI
תוכן עניינים

כמה סוכני AI פועלים היום בעולם האמיתי? מי בנה אותם, לאיזה צורך, ועד כמה הם בטוחים לשימוש? אלו שאלות שעד לאחרונה לא היה להן תשובה מסודרת. חוקרים מ-MIT שמו לעצמם מטרה לשנות את זה, ופרסמו מחקר שעשוי להשפיע על כל מי שמשתמש, מפתח, או מתכנן לאמץ סוכני AI בעסק שלו. ה-AI Agent Index הוא מסד הנתונים הציבורי הראשון בעולם שמתעד מערכות AI אגנטיות (Agentic AI) שכבר פרוסות ועובדות בשוק. 67 מערכות, ניתוח מעמיק של כל אחת, ומסקנות שכדאי מאוד להכיר.

 

כמה סוכני AI פועלים היום בעולם האמיתי?

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

אז מהו בעצם "סוכן AI" לפי המחקר?

לפני שצוללים לממצאים, כדאי להבין מה המחקר מגדיר כ"סוכן AI" – כי זו לא מילה שיש לה הגדרה מוסכמת. החוקרים מ-MIT בחרו לא להמציא הגדרה חדשה, אלא להשתמש בקריטריונים מעשיים לכניסה למסד הנתונים:

חוסר פירוט (Underspecification): המשתמש נותן הוראה כללית, והסוכן מחליט בעצמו איך לבצע אותה.

השפעה ישירה (Directness of Impact): הסוכן פועל בעולם האמיתי, לא רק מייצר טקסט.

מוכוונות מטרה (Goal-Directedness): הוא שואף להשיג תוצאה ספציפית.

תכנון לטווח ארוך (Long-term Planning): הוא מסוגל לתכנן רצף של פעולות לאורך זמן.

לפי הגדרה זו, ChatGPT הרגיל למשל, לא נכנס לרשימה. הוא מייצר תשובות, אבל לא מבצע פעולות בעולם. לעומת זאת, מערכות כמו Devin (סוכן קוד), Claude Computer Use (שליטה במחשב), ו-AutoGPT, כן נכנסות, כי הן פועלות, מבצעות, ומשפיעות.

מה גילו? הממצאים המרכזיים

1. פריסת Agents מואצת – וחצי מהם הגיעו ב-2024

אחד הממצאים המעניינים ביותר הוא קצב הגדילה. למרות שחלק מה-agents במדד נפרסו עוד בתחילת 2023, כמחצית מ-67 המערכות הושקו רק במחצית השנייה של 2024. זה מחזק את מה שרבים מרגישים שהשוק עבר מ"ניסויים ומחקר" ל"פריסה בפועל" בקצב מסחרר.

 

AI Agents כ"טכנולוגיה עתידית" - קיימת כבר בהווה

 

המשמעות עבורנו: כשאנחנו מדברים על AI Agents כ"טכנולוגיה עתידית" – אנחנו כבר מפספסים. הם כאן, הם פועלים, וכמותם גדלה בקצב מהיר מאי פעם.




2. רוב ה-Agents מתמחים בפיתוח תוכנה ומחשב

המחקר חילק את 67 המערכות ל-6 קטגוריות:

תוכנה (Software): כתיבת קוד, בדיקות, פיתוח – זו הקטגוריה הגדולה ביותר.

שימוש במחשב (Computer Use): ניווט ממשקים גרפיים, גלישה, תפעול מחשב.

אוניברסלי: agents שמסוגלים לבצע מגוון רחב של משימות.

מחקר (Research): חיפוש מידע, סינתזה, ניתוח נתונים.

רובוטיקה (Robotics): מערכות גופניות בעולם הפיזי.

אחר (Other): כל מה שלא נכנס לקטגוריות הקודמות.

העובדה שהרוב הגדול מגיע מתחום פיתוח התוכנה לא מפתיעה, זה תחום שבו ה-ROI על אוטומציה ניתן למדידה ברורה, וגם תחום שבו המשתמשים (מפתחים) יכולים לאמת את הפלט ולתקן שגיאות. חברות כמו GitHub, Copilot Workspace, Cursor עם agent mode, ו-Cognition עם Devin ממחישות את הגל הזה.

3. הבעיה הגדולה: מידע מוגבל על בטיחות ואחריות

וכאן מגיעה ההפתעה הפחות נעימה של המחקר. כשהחוקרים ניסו לתעד את מדיניות הבטיחות של המערכות השונות, בדיקות פנימיות, בדיקות חיצוניות, הגבלות שימוש, מנגנוני פיקוח. הם גילו שהמידע הציבורי המצוי הוא מוגבל מאוד. בעוד שמרבית החברות מספקות תיאור כללי של מה המערכת עושה, מעטות מהן מפרסמות:

בדיקות red team בדיקות ניסיון פריצה ושימוש לרעה.

הגבלות ספציפיות על פעולות שהסוכן לא יכול לבצע.

מנגנוני עצירה במקרה של פעולה שגויה.

אחריות – מי אחראי כשהסוכן עושה טעות?

חשוב להבין שזה לא בהכרח אומר שהמערכות אינן בטוחות, אלא שהשקיפות לגביהן עדיין לוקה בחסר. בניגוד לתחום הרכב, שבו יש תקנים ברורים לדיווח על בטיחות, תחום ה-AI agents עדיין פועל ברובו ללא מסגרת דיווח מחייבת.

למה זה חשוב לעסקים בישראל?

אם אתם שוקלים לאמץ סוכני AI בארגון שלכם, המחקר הזה מציע כמה תובנות מעשיות:

שאלות שכדאי לשאול לפני אימוץ Agent:

שאלות על יכולות:

  • מהן הפעולות הספציפיות שהסוכן יכול לבצע? (קריאת מיילים? שליחת מיילים? גישה לקבצים? ביצוע תשלומים?)
  • האם יש רשימה ברורה של מה הסוכן אינו יכול לבצע?

שאלות על בטיחות:

  • האם הספק עבר בדיקות בטיחות חיצוניות?
  • מה קורה כשהסוכן נתקל במצב שלא הוגדר מראש?
  • מי אחראי על פעולות שגויות שהסוכן מבצע?

שאלות על שקיפות:

  • האם יש "כרטיס agent" שמתאר את המערכת בצורה שקופה?
  • האם הספק מתחייב לעדכן את התיעוד כשהמערכת משתנה?

ה-"Agent Cards": רעיון שכדאי לאמץ

אחד הכלים המעשיים שהמחקר מציע הוא מושג ה-Agent Card. מסמך סטנדרטי לתיאור מערכת אגנטית. בדומה ל"גיליון נתונים טכניים" של מוצר, ה-Agent Card אמור להכיל:

תיאור המערכת: מה היא עושה ולמה היא מיועדת

רכיבים טכניים: אילו מודלי AI היא משתמשת, אילו כלים יש לה גישה אליהם

תחומי שימוש מיועדים: אילו מקרי שימוש היא תוכננה עבורם

הגבלות ומגבלות: מה היא לא עושה, ומה עלול לגרום לה לפעול בצורה שגויה

מדיניות בטיחות: איך מטפלים בניסיונות שימוש לרעה

כרגע, רוב החברות לא מפרסמות מסמך כזה בצורה מסודרת. המחקר מציע שזה צריך להשתנות.

מה עושות החברות המובילות?

מתוך 67 המערכות שנבדקו, הנה כמה דוגמאות בולטות ומה אפשר ללמוד מהן:

Devin Cognition: הסוכן שנחשב לפריצת הדרך הגדולה בפיתוח תוכנה אוטונומי. הוא מסוגל לבצע משימות פיתוח מורכבות לאורך שעות ללא התערבות אנושית. Cognition פירסמה מדדי ביצוע אבל מידע על מנגנוני הבטיחות שלה עדיין מוגבל.

Computer Use של Anthropic Claude: אחת המערכות הבודדות שפרסמו תיעוד יחסית מפורט על מדיניות הבטיחות, כולל הגבלות מפורשות על פעולות שהסוכן ימנע מלבצע (כמו אישור פעולות בלתי הפיכות ללא אישור אנושי).

AutoGPT: אחד ה-agents הראשונים שהפכו לוויראליים ב-2023, ודוגמה מעניינת לכיצד מערכות שנבנו כ"ניסוי" הפכו לכלי שאנשים משתמשים בהם ביומיום לעיתים ללא הבנה מלאה של היכולות והמגבלות שלהן.

הפער שהמחקר חושף: בין קצב האימוץ לבין מסגרות האחריות

הפער המסוכן בין שני מהירויות:

אחד הנושאים המרכזיים שעולים מהמחקר, גם אם לא נאמר במפורש, הוא הפער המסוכן בין שני מהירויות:

מהירות 1: קצב הפריסה של agents – גבוה ומואץ, כפי שראינו בנתונים.

מהירות 2: קצב פיתוח מסגרות אחריות ובטיחות – הרבה יותר איטי.

כשחצי מ-67 ה-agents הגדולים בעולם הושקו תוך 6 חודשים, ובאותה תקופה לא נוצרו תקנים ומסגרות דיווח מוסכמות, אנחנו עלולים למצוא את עצמנו בסיטואציה שבה הטכנולוגיה רצה קדימה מהר ממה שאנחנו מבינים את ההשלכות שלה.

זה לא קריאה להאטה. זו קריאה לשקיפות.

מה הלאה? לאן הולך תחום ה-Agents

בהסתכלות קדימה, המחקר מרמז על כמה כיוונים שכדאי לעקוב אחריהם:

תקינה ורגולציה: סביר להניח שנראה יותר לחץ ממשלתי ורגולטורי לדיווח שקוף על יכולות ובטיחות agents. ה-EU AI Act כבר מתחיל לגעת בנושאים הללו.

סטנדרטיזציה של Agent Cards: ניתן לצפות שארגונים כמו IEEE, ISO, או גופים מקצועיים יפתחו תקן מוסכם לתיאור מערכות אגנטיות, בדומה לתקנים קיימים בתחומים אחרים.

כלי הערכה (Benchmarks): יותר חברות ייצרו כלי בנצ'מארק (Benchmark) שמודדים לא רק ביצועים אלא גם בטיחות ואמינות.

מומחי AI Audit: ממש כפי שיש היום מומחי סייבר וביקורת פיננסית, צפוי שיצמח שוק של מומחים שמתמחים בהערכה ואישור של מערכות אגנטיות לפני פריסה ארגונית.

לסיכום: המפה הראשונה של עולם ה-Agents

המפה הראשונה של עולם ה-Agents




המחקר של MIT הוא לא רק עבודה אקדמית מעניינת הוא מסמך תקדימי שיוצר שפה משותפת לתחום שגדל מהר מדי בלי מסגרת מסודרת. הממצאים העיקריים שכדאי לקחת איתכם:

  • סוכני AI הם כבר לא טכנולוגיה עתידנית 67 מערכות פעילות, ומחציתן הושקו ב-2024 בלבד.
  • רוב ה-agents מתמחים בפיתוח תוכנה ושימוש במחשב אבל הקטגוריות מתרחבות.
  • הפער הגדול ביותר בתחום הוא שקיפות על בטיחות ועל זה חברות ורגולטורים צריכים לעבוד.

השורה התחתונה: אם אתם אנשי עסקים, מנהלים, או סתם אנשים שרוצים לאמץ AI בצורה חכמה, הזמן לשאול שאלות על שקיפות, אחריות, ובטיחות של כלי ה-AI שאתם משתמשים בהם הוא עכשיו, לא אחרי שמשהו משתבש.

 

את מסד הנתונים המלא, עם כל 67 ה-agent cards, אפשר למצוא באתר aiagentindex.mit.edu.

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

רוצים הרצאה או ייעוץ של חגי (ראיין) פן שרון?
השאירו פרטים ונשמח לחזור אליכם עם המידע הרלוונטי
אולי יעניין אותך גם...
guest
0 תגובות
Inline Feedbacks
צפה בכל התגובות
Let's update

רוצים לקבל עדכונים על כל מה שחדש ומעניין בעולם ה-AI? הרשמו לניוזלטר שלנו!

אירועי AI קרובים

תפריט נגישות

תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
וובינר הטמעת AI בארגונים וחברות
רוצים להטמיע AI בארגון או בחברה שלכם ולא בטוחים מאיפה להתחיל? הוויבנר הזה הוא בשבילכם!
22/02/2026 - בשעה 20:00