סיכום AI שבועי – 27.7.23

סיכום AI שבועי - 27.7.23
תוכן עניינים

אז השבוע הזה היה לדעתי קצת פחות מרגש ואם זאת בעל חשיבות עליונה!

 

1. השבוע בגדול התחיל בהכרזה של Stability AI ומעבדת CarperAI על FreeWilly1 ו-FreeWilly2, דגמי שפה באופן סורס (LLMs ציבורי) 

לפי הטבלאות שלהם וכמה פוסטים בטוויטר, המודלים האלה לא פחות טובים מ GPT-3.5 במשימות מסוימות.

הם אומנו קצת אחרת ויהיה מעניין לראות איך הם יבואו לידי ביטוי בתקופה הקרובה.

אבל נכון לעכשיו, בואו פשוט נגיד שהרעיון הזה שעוד חברה מוציאה עוד מודל LLM, הוא אחלה אבל גם קצת צפוי.

 

2. זה שזה צפוי לא אומר שלמישהו יש מושג מה יקרה עם זה בהמשך. 

אז במסע לאלף את העולם הפראי אך המבטיח הזה של הבינה המלאכותית, מנהלת ביידן-האריס הצליחה להבטיח התחייבויות וולונטריות משבעת מעצמות הבינה המלאכותית: 

אמזון, אנתרופיק, גוגל, Inflection, מטה, מיקרוסופט ו-OpenAI. 

התחייבויות אלו הן מאמץ לשמור על בטיחות, אבטחה ואמון, ומסמנות צעד מכריע לקראת בינה מלאכותית אחראית. 

על פי האמור במסמך שיצא ישירות מהבית הלבן, החברות מתחייבות לבצע בדיקות קפדניות לפני שחרור של המודלים שלהן, כדי להבטיח שהן לא מאיימות על אבטחה ביולוגית, אבטחת סייבר או איזון חברתי. 

כדי לזכות באמון הציבור, הם התחייבו לשקיפות מלאה על ידי יידוע משתמשים כאשר תוכן נוצר בבינה מלאכותית, דיווח פומבי על יכולות ומגבלות המערכות שלהם, ומחקר סיכונים חברתיים פוטנציאליים. 

יאמר לזכותן שפעולות אלו אכן מציגות מחויבות רחבה להגנה מפני פגיעה ואפליה בנוף הבינה המלאכותית. 

אך גולת הכותרת של הצעדים הללו כוללת תוכנית ליצירת מגילת זכויות בינה מלאכותית, המתמקדת במניעת הטיה אלגוריתמית, ומגובה בהשקעה משמעותית של 140 מיליון דולר שתחולק בין שבעה מכוני מחקר לאומיים חדשים.

 

3. אז כמו שאמרנו, אחרי שהפרסום יצא מהבית הלבן, OpenAI, סיפרה אצלה בבלוג כי קיבלה על עצמה שורה של התחייבויות וולונטריות לחיזוק הבטיחות, האבטחה והאמינות של טכנולוגיות AI ו-AGI. 

ההתחייבויות מצידם כוללות שילוב פנימי וחיצוני של מודלים לסיכונים, ביו, סייבר וסיכונים חברתיים, והתחייבות לשיתוף מידע בין חברות וממשלות. 

הם גם ישימו דגש על שיפור אבטחת הסייבר, יתמרצו גילוי פגיעות של צד שלישי, פריסת מנגנונים לזיהוי תוכן שנוצר דרך בינה מלאכותית, ודיווח פומבי על יכולות מערכת, מגבלות וסיכונים חברתיים. 

יש גם התמקדות בחקר סיכונים חברתיים, כולל הטיות ובעיות פרטיות, ופיתוח מערכות נוספות כדי להתמודד עם האתגרים הדוחקים של החברה. 

הם גם דאגו לציין כי התחייבויות אלו יישארו בתוקף עד ליישום התקנות המכסות את אותם תחומים.

 

4. כל זה כנראה הזכיר ל OpenAI שה AI Classifier שלה לא באמת שווה הרבה כי היא ביטלה אותו ממש בעל הדרך, ״בשל הדיוק הנמוך שלו״. 

הכלי הושק בינואר עם הבטחה לעזור למורים על ידי זיהוי תוכן שנוצר דרך בינה מלאכותית, אך הכלי נותק בשקט בשבוע שעבר.

ו OpenAI לא פרסמה שום הודעה חדשה אך הוסיפה הערה לפוסט בבלוג שהכריז תחילה על הכלי. 

הארגון הודה שה AI Classifier “לא אמין לחלוטין”, עם הערכות שהוכיחו שהוא זיהה נכון רק 26% מהטקסט שנכתב בבינה מלאכותית כ”סביר שנכתב בבינה מלאכותית” ותייג באופן שגוי 9% מהטקסט שנכתב על ידי אדם ככתוב בינה מלאכותית.

אני רוצה להאמין שעכשיו אחרי החתימה, הם ייצרו משהו באמת טוב שיעזור למשתמשים להבין אם תוכן (כל תוכן, גם אודיו, חזותי וכו׳) אכן נוצר מבינה מלאכותית.

 

5. חברת Anthropic שגם היא היתה במפגש הפסגה, הדגישה בבלוג שלה את החשיבות של אבטחת מודלים מתקדמים והציעה גם היא שורה של רעיונות והנחות ליצירת סביבה בטוחה.

אנתרופיק גם קוראת לשיתוף פעולה ציבורי-פרטי כדי לשפר את ההגנה מפני איומי סייבר. 

תוך התחייבות לפרקטיקות שונות, החברה מדגישה את הצורך בגישה מאוזנת שאינה מפריעה לפרודוקטיביות ושומרת על מסירותה לפיתוח בינה מלאכותית בטוחה, מאובטחת ומותאמת לערך אנושי.

 

6. גוגל ואלפבית כזכור גם הם התחייבו לקדם שיטות אחראיות בפיתוח בינה מלאכותית בפני הנשיא, אך גם הביאו תמיכה במאמצים של G7, OECD וממשלות לאומיות נוספות למקסם את היתרונות של AI ולמזער את הסיכונים שלה. 

כידוע, גוגל ממנפת את הבינה המלאכותית כבר יותר מעשור, ומתדלקת כעת רבים מהשירותים שלה כמו חיפוש, תרגום, מפות, ואפילו מנסה לפתור בעיות חברתיות כמו חיזוי שיטפונות, הפחתת פליטת פחמן ושיפור שירותי הבריאות. 

כדי להבטיח שה-AI בטוח ומאובטח, Google הציגה את Secure AI Framework) SAIF) ותוכניות נוספות בשביל לעצב מערכות אתיות והוגנות יותר. 

האמת היא שמתוך הכרה בכך שבינה מלאכותית עשויה להגביר את האתגרים החברתיים, כבר ב-2018, גוגל פרסמה את ״עקרונות הבינה המלאכותית״ והקימה צוות ממשל שיוציא אותם לפועל. 

ככה שעבורם זה הגיע ממש במקום והם גם מדגישים שהשגת בינה מלאכותית אחראית דורשת שיתוף פעולה ושיתוף שיטות עבודה מומלצות בין חברות בינה מלאכותית מובילות.

 

7. וממש כך, כמו בפרק של הפאוור ריינג׳רס, אנתרופיק, גוגל, מיקרוסופט ו-OpenAI מתאחדות יחד ומקימות קבוצה בשם Frontier Model Forum. 

הגוף החדש הזה יוקדש כולו לפיתוח בטוח ואחראי של מערכות בינה מלאכותית מתקדמות. 

הפורום יתמקד בקידום מחקר בטיחות בינה מלאכותית, זיהוי שיטות עבודה מומלצות לבטיחות, שיתוף מידע עם קובעי מדיניות והתעשייה, וטיפוח מאמצים נוספים להשתמש בבינה מלאכותית כדי להתמודד עם האתגרים העיקריים של החברה.

הארגונים החברים בה יוגדרו כמי שמפתחים ומפרסמים מודלים חזותיים, מפגינים מחויבות לבטיחות המודל, ומוכנים להשתתף ביוזמות משותפות. 

*הפורום יבנה גם ועדה מייעצת להכוונה אסטרטגית עבור כל מי שצריך. 

בשנה הקרובה הפורום יתרכז בזיהוי שיטות עבודה מומלצות, קידום מחקר בטיחות בינה מלאכותית והקלה על שיתוף מידע בין חברות וממשלות.

 

8. ובזמן שבצד אחד של הכדור מתפתח לו ייצור חדש באור, Alibaba Cloud, חטיבת מחשוב הענן של עליבאבא (שדי שולטת בצד השני של הכדור…), הודיעה כי הם הארגון הסיני הראשון שתומך במודל הבינה המלאכותית של לא אחרת מאשר Meta! 

כן, Llama, שמתכוונת לספק למשתמשים העסקיים שלה בסין את היכולת לפתח מחוץ למודל. 

המהלך הזה מגיע לאחר שחרורו של Llama2, גרסה מסחרית של Llama, כחלופה חינמית לדגמים קנייניים אחרים.

נראה ש- Meta מטפחת קשרים הדוקים יותר ויותר עם סין, הכלכלה השנייה בגודלה בעולם.

השילוב של עליבאבא עם Llama2 הגיע למרות ההגבלות האמריקאיות על הגישה של חברות סיניות לטכנולוגיות בינה מלאכותית שפותחו בתוך גבולותיה. 

ועכשיו כשאופטימוס פריים מתחבר לו שם בארה״ב בשביל להציל את העולם, מעניין לראות לאן זה יוביל את חברינו בארץ השמש העולה…

 

זהו להפעם חברים,

נשתמע שוב בשבוע הבא

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

רוצים הרצאה או ייעוץ של עומר הררי?
השאירו פרטים ונשמח לחזור אליכם עם המידע הרלוונטי
אולי יעניין אותך גם...

תפריט נגישות

letsAI - בינה מלאכותית