× Send

סיכום AI שבועי – 11.8.23

סיכום AI שבועי - 11.8.23
תוכן עניינים

היי חברים שישי שמח לכולם!

 

1.אז OpenAI חשפה בוט סריקת אינטרנט חדש, GPTBot, שנועד לאסוף נתונים זמינים לציבור כדי להכשיר את מערכות הבינה המלאכותית שלה, (כולל ה-GPT-5?).

הסורק אמור להימנע מתוכן עם חומת תשלום, תוכן רגיש ו או אסור.

אך כברירת מחדל, הוא יניח שכל עוד המידע נגיש, זה סבבה אלא אם בעל אתר יגיד בפרוש ש- “אסור”. 

החברה מבטיחה ש-GPTBot יסרוק ויסיר מידע אישי מזהה ותוכן שמפר את המדיניות שלה.

שחרורו של GPTBot באה בעקבות ביקורת קודמת על OpenAI על גירוד נתונים מרחבי הרשת ללא רשות, והכיוון החדש של החברה עשוי לאותת על שינוי מההתמקדות הקודמת שלה בשקיפות ובבטיחות בינה מלאכותית.

המהלך גם מדגיש עוד יותר את האתגר והקושי המתמשך של איזון בין אתיקה לשקיפות.

 

2. ממשלת ארה”ב ״נוקטת בצעדים״ משמעותיים בעיצוב מדיניות ותקנות AI.

אני מזכיר שהמאמצים האחרונים כוללים את הכרזת הבית הלבן על מדיניות בינה מלאכותית שתגיע בקרוב,

את ההתחייבויות על ״בטיחות מרצון״ מכלל חברות הבינה המלאכותית המובילות, ואת הבטחת מנהיג הרוב בסנאט לחקיקה מהירה.

אבל כפי שאנו יודעים, נוף הרגולציה של ה- AI הוא מורכב, וכרגע נראה שהרעיונות מתחלקים לארבע קטגוריות: כללים, מוסדות, כסף ואנשים.

הוויכוח כולל גם נקודות מבט של טכנו-ליברטריאנים שמתנגדים למנדטים ממשלתיים ולבעלי עניין הדוגלים בתקנון נרחב.

ככה או ככה יהיה דרוש להגדיר את האיזון בין חדשנות לשיקולים אתיים, פרטיות, זכויות יוצרים, הטיה אלגוריתמית וביטחון לאומי.

וכנראה שעד שמישהו לא ירים את הכפפה, נמשיך פעם בשבועיים לשמוע את ״המנהיגים״ מברברים בנושא.

(אני בכל מקרה, אעדכן בפעם הבאה על זה רק כשתהיה החלטה כזו או אחרת).

 

3. מעבדת המחקר של חיל האוויר האמריקאי (AFRL) ערכה ניסוי עם מזל”ט XQ-58A Valkyrie בבסיס חיל האוויר Eglin בפלורידה, והדגימה טיסה אוטונומית מבוקרת בינה מלאכותית. 

במהלך המבחן בן שלוש השעות, המל”ט פתר בהצלחה “בעיית אתגר” רלוונטית מבחינה טקטית באמצעות אלגוריתמים של בינה מלאכותית ולמידת מכונה שפותחו על ידי צוות התוכנית למבצעי קרבות אוויר אוטונומיים (AACO).

חיל האוויר האמריקאי מתכנן לרכוש לפחות 1,000 כלים כאלו ועובד באופן פעיל על שילוב יכולות מונעות בינה מלאכותית בפלטפורמות מבצעיות.

המבחן האחרון מתבסס על ארבע שנים של שותפות ופיתוח בתוכניות מטוסים אוטונומיים, המשקפים את המחויבות של הצבא לקדם AI ופעולות אוטונומיות בלוחמה עתידית.

אז שיהיה לכולנו בהצלחה עם זה…

 

4. חברת IBM ונאס”א הכריזו על שיתוף פעולה מעודד ליצירת קוד פתוח של מודל הבסיס הגיאו-מרחבי הגדול ביותר על גבי לא אחרת מ-Hugging Face.

המודל, ששמו watsonx.ai, משתמש בנתוני הלוויין של נאס”א ומטרתו להרחיב את הגישה לנתוני מדעי כדור הארץ למודיעין גיאו-מרחבי ובכך להאיץ גילויים הקשורים לאקלים. 

שיתוף הפעולה של יבמ עם נאס”א, במסגרת הסכם חוק החלל, שואף להתגבר על מכשולים רבים על ידי הפיכת מודל הבסיס הגיאו-מרחבי לזמין וגלוי לכולם.

המודל כבר הראה שיפור של 15% בהשוואה לטכניקות ישנות יותר במשימות כמו מיפוי אזורי הצפה או מעקב אחר כריתת יערות או חיזוי יבולים וכו׳.

בהתחשב בכך שהפעלת מחשב על זוללת כמויות משוגעות של אנרגיה, מעניין יהיה אם הבינה תצליח למצוא דרך להפעיל את עצמה בדרך פחות מזהמת בעתיד.

 

5. מנכ”ל אפל, טים קוק, הדגיש כי בינה מלאכותית (AI) ולמידת מכונה (ML) “מוטמעות כמעט בכל מוצר” שהחברה בונה. 

הוא הצהיר כי אפל בוחנת בינה מלאכותית “במשך שנים” ומגדילה את ההשקעה שלה בטכנולוגיה ללא הפסקה. למרות הצניחה האחרונה במכירות של רבים ממוצריה, החברה רואה ב-AI ו-ML טכנולוגיות ליבה בסיסיות שהן מרכזיות בעיצוב המוצר שלה.

דבריו של קוק הדגישו גם את ההתמקדות של אפל בקידום אחראי של מוצריה עם הטכנולוגיות הללו כדי להעשיר את חייהם של אנשים, המשקפת עלייה בהוצאות על מחקר ופיתוח בעתיד הקרוב.

 

6. אז כבר שבועיים שלא דיברנו עליה, אבל הינה היא חזרה.

במהלך הנאום המיוחד של NVIDIA ב-SIGGRAPH 2023, המנכ”ל Jensen Huang חשף התקדמות משמעותית נוספת בתחום הבינה המלאכותית הגנרטיבית והגרפיקה הממוחשבת. 

ועם דגש ענק על חוסר ההפרדה של גרפיקה ובינה מלאכותית, הוא הכריז על הדור הבא של פלטפורמת ה-GH200 Grace Hopper Superchip, NVIDIA AI Workbench, ושדרוג גדול ל-NVIDIA Omniverse עם AI גנראטיבי ו-OpenUSD. 

ועכשיו בעברית, הצ׳יפ -GH200, מיועד לעומסי עבודה מורכבים, מציעה ביצועים יוצאי דופן שתואמים את הצרכים החדשים של הטכנולוגיה. NVIDIA AI Workbench מפשט את היצירה והפריסה של דגמי AI גנרטיביים, ו-Omniverse מספקת פלטפורמת פיתוח עבור תלת מימד ועולמות וירטואליים. 

הונג גם הכריז על שותפות חדשה עם Hugging Face (שיאמר לזכותה שבשקט בשקט משתלטת על העולם). 

 

7. Stability AI הציגה השבוע את StableCode, שנועד לסייע למתכנתים.

ה StableCode משפר את היעילות של מפתחים על ידי שימוש בשלושה מודלים שונים המסייעים בקידוד. מודל הבסיס, שהוכשר בתחילה על קבוצה מגוונת של שפות תכנות, כולל Python, Go, Java, Javascript, C, markdown ו-C++, שוכלל עם הוראות ספציפיות לפתרון משימות תכנות מורכבות. 

בסך הכל, הדגמים אומנו על 560 מיליארד טוקנים של קוד. StableCode יכול ליצור תגובות להוראות שניתנו ולהשלים קבצי Python מורכבים, כגון אלה המשתמשים בספריית דיפלרנינג של Pytorch.

הכלי החדש הזה לא רק מסייע למפתחים מנוסים אלא גם משמש כמשאב למידה רב ערך עבור אלה החדשים בתחום, ומסמן צעד משמעותי בשילוב של AI בפרקטיקות קידוד ועוד צעד ענק למקום בוא כל אחד יוכל להיות מקודד על ממש בקלות.

 

8. הרבה מדברים על זה, אבל לא הרבה עושים את זה,

הניו יורק טיימס, נקט צעד משמעותי כדי להגן על התוכן שלו על ידי עדכון תנאי השירות.

תוך איסור מפורש על סקריפינג (בעברית ״גרידה״ שזה אומר כאילו לגרד את המידע שבאתר החוצה, כמו עתק הדבק אבל קצת אחרת) של התוכן שלו כדי להכשיר למידת מכונה או מערכות בינה מלאכותית.

איסור זה כולל צורות שונות של תוכן, לרבות טקסט, תצלומים, תמונות, איורים, עיצובים, קטעי אודיו, קטעי וידאו ומטא נתונים.

התנאים המעודכנים מגבילים גם לסורקי אתרים (גוגל נגיד) להשתמש בתוכן כדי להכשיר מודלים של שפה (LLM) או מערכות בינה מלאכותית.

המהלך הזה מגיע בעיקבות כל מה שקורה עם אימון מודלים כמו LLaMAa של Meta ו-T5 של גוגל, והוא משקף דאגה גוברת בקרב ספקי תוכן לגבי שימוש בלתי מורשה בקניין הרוחני שלהם.

אם זאת, בעדכון האחרון של גוגל, הם הודיעו שכל מה שיהיה מאונדקס אצליהם ישמש לאימון המודלים, אז מעניין יהיה לראות לאן הטנגו הזה ילך…

 

9. וכמו שאמרתי קודם, הרבה מדברים על זה.

בזמן שהניו יורק טיימס כבר עם רגל בדלת, כמה ארגוני מדיה בולטים נוספים התאחדו כדי לקרוא לתקנות המגנות על זכויות יוצרים בכל מה שקשור להכשרת מודלים של בינה מלאכותית.

במכתב פתוח, הם קראו למחוקקים עולמיים לשקול כללים המחייבים שקיפות במערך הנתונים של הדרכה והסכמה מבעלי הזכויות לפני השימוש בנתונים .

החותמים, כולל סוכנות הידיעות הצרפתית, Getty Images ו-Associated Press, הביעו דאגה שהמודלים מפיצים מידע ללא התחשבות ביוצרים המקוריים, ומערערים את המודלים העסקיים ואת הליבה של תעשיית המדיה.

הם מעוניינים לנהל משא ומתן עם מפעילי המודלים של הבינה המלאכותית, לזהות תוכן שנוצר מבינה ולחייב חברות לתקן ולהוריד הטיה ומידע שגוי.

המכתב לגמרי מדגיש את המתח הגובר בין ההיתרונות הפוטנציאליים של בינה מלאכותית גנרטיבית לבין הצורך לכבד את זכויות חברות המדיה, וממשיך לשקף את הדאגות שצצים מכל מקום.

 

זהו להפעם חברים,

נשתמע שוב בשבוע הבא

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

רוצים הרצאה או ייעוץ של עומר הררי?
השאירו פרטים ונשמח לחזור אליכם עם המידע הרלוונטי
אולי יעניין אותך גם...
guest
0 תגובות
Inline Feedbacks
צפה בכל התגובות

תפריט נגישות

letsAI - בינה מלאכותית

סיכום AI שבועי – 11.8.23