שבוע מרתק בעולם הבינה המלאכותית: התפתחויות, התחייבויות ושיתופי פעולה
השבוע האחרון הביא עמו שורה של התפתחויות משמעותיות בתחום הבינה המלאכותית, מהכרזות על מודלים חדשים ועד להתחייבויות בינלאומיות לפיתוח אחראי. למרות שלא היו בו אירועים מרעישי עולם, חשיבותו של שבוע זה לעתיד התעשייה אינה מוטלת בספק.
1. מודלים חדשים מבית Stability AI ו-CarperAI
השבוע נפתח בהכרזה מסקרנת מצד Stability AI ומעבדת CarperAI על שני מודלי שפה חדשים בקוד פתוח: FreeWilly1 ו-FreeWilly2. לפי הנתונים שפורסמו ותגובות ברשתות החברתיות, נראה כי מודלים אלה מתחרים ביכולותיהם ב-GPT-3.5 במשימות מסוימות.
הגישה הייחודית באימון המודלים הללו מעוררת סקרנות לגבי השפעתם העתידית על התעשייה. עם זאת, בשלב זה, ההכרזה על עוד מודל LLM נראית כהתפתחות צפויה בנוף הבינה המלאכותית העכשווי. למרות זאת, חשוב לזכור כי הצפיות שלנו לגבי ההתפתחויות בתחום זה לעיתים קרובות מתבדות, ורק הזמן יגיד כיצד מודלים אלה ישתלבו וישפיעו על הנוף הטכנולוגי.
2. התחייבויות וולונטריות מצד ענקיות הטכנולוגיה
במהלך משמעותי לקידום בינה מלאכותית אחראית, הצליח ממשל ביידן-האריס להשיג התחייבויות וולונטריות משבע מהחברות המובילות בתחום הבינה המלאכותית: אמזון, אנתרופיק, גוגל, Inflection, מטה, מיקרוסופט ו-OpenAI. התחייבויות אלו מהוות צעד חשוב לקראת פיתוח ויישום בטוח ואחראי של טכנולוגיות בינה מלאכותית.
על פי המסמך שפורסם על ידי הבית הלבן, החברות התחייבו לבצע בדיקות מקיפות לפני שחרור המודלים שלהן, במטרה להבטיח שאינם מסכנים את הביטחון הביולוגי, אבטחת הסייבר או היציבות החברתית. כדי לבסס את אמון הציבור, הן הבטיחו שקיפות מלאה, כולל יידוע משתמשים כאשר תוכן נוצר על ידי בינה מלאכותית, פרסום דוחות על יכולות ומגבלות המערכות שלהן, וביצוע מחקרים על סיכונים חברתיים פוטנציאליים.
צעדים אלה מדגימים מחויבות רחבה להגנה מפני נזקים ואפליה בתחום הבינה המלאכותית. נקודת השיא של היוזמה היא התוכנית ליצירת מגילת זכויות בינה מלאכותית, המתמקדת במניעת הטיה אלגוריתמית. התוכנית מגובה בהשקעה משמעותית של 140 מיליון דולר, שיחולקו בין שבעה מכוני מחקר לאומיים חדשים.
3. התחייבויות OpenAI לבטיחות ואמינות
בעקבות הפרסום מהבית הלבן, OpenAI פרסמה בבלוג שלה סדרת התחייבויות וולונטריות לחיזוק הבטיחות, האבטחה והאמינות של טכנולוגיות AI ו-AGI. התחייבויות אלו כוללות:
- שילוב הערכות סיכונים פנימיות וחיצוניות, כולל סיכונים ביולוגיים, סייבר וחברתיים.
- התחייבות לשיתוף מידע בין חברות וממשלות.
- שיפור אבטחת הסייבר ועידוד גילוי פגיעויות על ידי צד שלישי.
- פיתוח מנגנונים לזיהוי תוכן שנוצר באמצעות בינה מלאכותית.
- דיווח פומבי על יכולות המערכת, מגבלותיה וסיכונים חברתיים.
- מחקר מעמיק בנושא סיכונים חברתיים, כולל הטיות ובעיות פרטיות.
- פיתוח מערכות נוספות להתמודדות עם אתגרים חברתיים דחופים.
OpenAI הדגישה כי התחייבויות אלו יישארו בתוקף עד ליישום תקנות רשמיות המכסות את אותם תחומים.
4. ביטול ה-AI Classifier של OpenAI
במהלך מפתיע, OpenAI הודיעה על ביטול ה-AI Classifier שלה, כלי שהושק בינואר 2023 במטרה לסייע למורים בזיהוי תוכן שנוצר על ידי בינה מלאכותית. הכלי הוסר בשקט בשבוע שעבר, ללא הודעה רשמית מצד החברה.
OpenAI הוסיפה הערה לפוסט המקורי בבלוג, בה הודתה כי ה-AI Classifier “אינו אמין לחלוטין”. הערכות הראו כי הכלי זיהה נכון רק 26% מהטקסטים שנכתבו על ידי בינה מלאכותית כ”סביר שנכתבו על ידי בינה מלאכותית”, ובמקביל סיווג בטעות 9% מהטקסטים שנכתבו על ידי בני אדם ככאלה שנכתבו על ידי בינה מלאכותית.
לאור ההתחייבויות החדשות שנחתמו, יש לקוות כי OpenAI תפתח בעתיד כלי מדויק ואמין יותר, שיסייע למשתמשים לזהות תוכן שנוצר על ידי בינה מלאכותית, כולל תוכן אודיו וויזואלי.
5. Anthropic מדגישה את חשיבות אבטחת המודלים
חברת Anthropic, שגם היא השתתפה במפגש הפסגה בבית הלבן, פרסמה בבלוג שלה את עמדתה לגבי חשיבות אבטחת מודלים מתקדמים והציעה רעיונות והנחיות ליצירת סביבת פיתוח בטוחה.
החברה קוראת לשיתוף פעולה בין המגזר הציבורי והפרטי לשיפור ההגנה מפני איומי סייבר. תוך התחייבות למגוון פרקטיקות, Anthropic מדגישה את הצורך בגישה מאוזנת שאינה פוגעת בפרודוקטיביות, ומביעה את מחויבותה לפיתוח בינה מלאכותית בטוחה, מאובטחת ומותאמת לערכים אנושיים.
6. גוגל ואלפבית מקדמות פיתוח אחראי של בינה מלאכותית
גוגל ואלפבית הצטרפו גם הן להתחייבות לקידום שיטות אחראיות בפיתוח בינה מלאכותית בפני הנשיא. בנוסף, הן הביעו תמיכה במאמצים של ה-G7, ה-OECD וממשלות לאומיות נוספות למקסם את היתרונות של AI ולמזער את הסיכונים הכרוכים בה.
גוגל, המשתמשת בבינה מלאכותית כבר למעלה מעשור, משלבת כעת טכנולוגיות AI ברבים משירותיה כמו חיפוש, תרגום ומפות. החברה אף מנסה לפתור בעיות חברתיות כמו חיזוי שיטפונות, הפחתת פליטת פחמן ושיפור שירותי בריאות באמצעות בינה מלאכותית.
כדי להבטיח את בטיחות ואבטחת ה-AI, גוגל הציגה את Secure AI Framework (SAIF) ותוכניות נוספות לעיצוב מערכות אתיות והוגנות יותר. החברה מכירה בכך שבינה מלאכותית עשויה להגביר אתגרים חברתיים, ולכן כבר ב-2018 פרסמה את “עקרונות הבינה המלאכותית” שלה והקימה צוות ממשל ליישומם.
גוגל מדגישה כי השגת בינה מלאכותית אחראית דורשת שיתוף פעולה ושיתוף שיטות עבודה מומלצות בין חברות AI מובילות.
7. הקמת Frontier Model Forum
במהלך משמעותי לקידום שיתוף הפעולה בתעשייה, ארבע מהחברות המובילות בתחום הבינה המלאכותית – Anthropic, Google, Microsoft ו-OpenAI – הכריזו על הקמת קבוצה חדשה בשם Frontier Model Forum.
הפורום החדש יוקדש לפיתוח בטוח ואחראי של מערכות בינה מלאכותית מתקדמות. מטרותיו העיקריות כוללות:
- קידום מחקר בטיחות בתחום הבינה המלאכותית
- זיהוי וקידום שיטות עבודה מומלצות לבטיחות
- שיתוף מידע עם קובעי מדיניות והתעשייה
- טיפוח מאמצים לשימוש בבינה מלאכותית להתמודדות עם אתגרים חברתיים מרכזיים
הארגונים החברים בפורום יוגדרו כמי שמפתחים ומפרסמים מודלים חזקים, מפגינים מחויבות לבטיחות המודל, ומוכנים להשתתף ביוזמות משותפות. הפורום מתכנן להקים ועדה מייעצת שתספק הכוונה אסטרטגית.
בשנה הקרובה, הפורום יתמקד בזיהוי שיטות עבודה מומלצות, קידום מחקר בטיחות בבינה מלאכותית, והקלה על שיתוף מידע בין חברות וממשלות.
8. Alibaba Cloud מאמצת את מודל הבינה המלאכותית של Meta
בהתפתחות מעניינת בזירה הבינלאומית, Alibaba Cloud, חטיבת מחשוב הענן של ענקית הטכנולוגיה הסינית Alibaba, הכריזה כי היא הארגון הסיני הראשון שיתמוך במודל הבינה המלאכותית של Meta – Llama.
המהלך נועד לספק למשתמשים העסקיים של Alibaba Cloud בסין את היכולת לפתח יישומים מבוססי Llama. זאת בעקבות השקת Llama2, גרסה מסחרית של Llama, המוצעת כחלופה חינמית למודלים קנייניים אחרים.
שיתוף הפעולה בין Alibaba ל-Meta מצביע על התהדקות הקשרים בין חברות טכנולוגיה מערביות לשוק הסיני, למרות ההגבלות האמריקאיות על הגישה של חברות סיניות לטכנולוגיות בינה מלאכותית שפותחו בארה”ב.
התפתחות זו מעלה שאלות מעניינות לגבי עתיד שיתופי הפעולה הבינלאומיים בתחום הבינה המלאכותית, ועל האופן בו יתמודדו חברות וממשלות עם האתגרים.