כשהבינה המלאכותית ממשיכה להתפתח בקצב מסחרר, גדלים גם החששות לגבי הסיכונים שהיא טומנת בחובה. במאמר מ-31.10.24 שעלה בבלוג של חברת אנטרופיק (Anthropic), נפרשת קריאה דחופה להסדרת רגולציה ממוקדת על מערכות AI מתקדמות. המאמר מעלה את הצורך ברגולציה שתאפשר לתעשייה להמשיך להתפתח בצורה מבוקרת ומיטיבה תוך צמצום סיכונים חמורים שעלולים להיגרם. החברה מציעה מתווה למקבלי ההחלטות המסביר מדוע דווקא עכשיו יש לפעול, ומפרטת את העקרונות המרכזיים שיכולים לסייע בבניית רגולציה חכמה ופרגמטית, שתאזן בין ההזדמנויות העצומות לחדשנות לבין מניעת פוטנציאל להשלכות הרסניות.
רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.
אפשר גם להרשם לניוזלטר שלנו
חשיבות הרגולציה הממוקדת בבינה מלאכותית
עם ההתקדמות המהירה של מערכות AI בעלות יכולות מתקדמות בתחומי המדע, המתמטיקה והתכנות, אנו עדים לפוטנציאל משמעותי לשימושים חיוביים ב-AI, אך גם לסיכונים הולכים וגוברים. מערכות ה-AI החדשות מאפשרות לא רק פיתוח של יישומים חדשניים ורווחיים, אלא גם פתיחה אפשרית לשימושים הרסניים – בין אם מדובר במתקפות סייבר או בהשגת ידע מתקדם בתחומי הכימיה והביולוגיה, שעלול להיות מנוצל לרעה. לפיכך, מציעה אנטרופיק רגולציה חכמה שתוכל לשמור על איזון עדין: מיצוי הפוטנציאל של הבינה המלאכותית ומזעור הסיכונים הכרוכים בה.
עקרונות מפתח ברגולציה אחראית:
לפי המאמר, הסיכון שבמערכות AI דורשות פעולה מהירה ושקולה. ישנם שלושה עקרונות מרכזיים שעשויים לסייע ביצירת רגולציה יעילה:
-
שקיפות: יש לאפשר לציבור ולמחוקקים לבדוק אם החברות עומדות בהתחייבויותיהן בתחום הבטיחות. לשם כך, מומלץ לחייב חברות לפרסם מסמך מדיניות בטיחות, כגון מדיניות ההתרחבות האחראית (RSP) של אנטרופיק, שיציין את הסיכונים ואת אמצעי המניעה שיינקטו כאשר המודלים מגיעים לרמת יכולת מסוימת. בנוסף, יש לאפשר מנגנון בדיקה חיצוני של הצהרות אלה.
-
תמריץ לשיפור בטיחות: שקיפות בלבד אינה מספיקה. יש לעודד חברות לפתח מדיניות בטיחות אפקטיבית על ידי שימוש במודלים לאיום, תוך הגדרת תקנים ומנגנונים גמישים. גמישות זו תאפשר למידה והסתגלות לשינויים מהירים בטכנולוגיה.
-
פשטות ומיקוד: הרגולציה צריכה להיות ממוקדת ומותאמת לבעיות הספציפיות, כדי למנוע עומס מיותר על החברות ועל מערכות האכיפה. חוקים פשוטים וברורים יקלו על הבנתם ועל יישומם.
מדיניות ההתרחבות האחראית (RSP) של אנטרופיק
כחלק מהתמודדות עם הסיכונים הפוטנציאליים, פיתחה אנטרופיק את מדיניות ה-RSP שלה, שמטרתה לזהות, להעריך ולמנוע סיכונים קטסטרופליים. מדיניות זו מבוססת על עקרון של יחסיות: רמת האבטחה הנדרשת עולה ככל שהמודלים מראים יכולות מתקדמות יותר. תהליך זה נעשה באופן הדרגתי, ובוחן את כישורי המודל באופן רציף כדי לעדכן את אמצעי הבטיחות. אנטרופיק מציינת כי מדיניות זו אינה מושלמת ודורשת עדכונים שוטפים, אך היא נחשבת כפתרון מעשי שיכול לעזור להבטיח את ביטחון הציבור.
יותר משאבים לאבטחה והערכת סיכונים
המדיניות כוללת פעולות כמו הגברת השקעה באבטחת מידע וגיוס צוותים ייעודיים להערכת סיכונים, תוך מתן דגש על תקנים מחמירים ופעולות יזומות. בנוסף, המדיניות דורשת מהחברות להיות שקופות לגבי פעולות האבטחה שנקטו, תהליך המקל על עמידה בהתחייבויות חיצוניות כגון אלו שנחתמו בפסגת בטיחות ה-AI בפארק בלצ’לי (Bletchley Park) ובמסגרת התחייבויות מול הבית הלבן.
היתרונות והחסרונות של רגולציה על מודלים של AI
אנטרופיק מצביעה על כך שרגולציה ממוקדת במאפיינים בסיסיים של המודל (ולא בשימושים הספציפיים שלו) היא הכרחית לאור אופיין הרחב של המערכות המוצעות כיום בשוק. אם ננסה לפקח על כל שימוש במערכת בנפרד, אנו עלולים לפספס את היכולת לפקח על השימוש הכוללני של המודל. בהתאם לכך, קובעת אנטרופיק כי עדיף להסדיר את אמצעי הבטיחות הבסיסיים ואת כללי ההתנהלות הבסיסיים של המודלים עצמם.
האם רגולציה תאט את קצב הקדמה?
המאמר משיב לשאלות מרכזיות שעלו בנוגע לרגולציה הצפויה, כמו ההשפעה האפשרית שלה על החדשנות. התשובה של אנטרופיק היא שרגולציה לא חייבת להאט את קצב החדשנות אם היא מתבצעת בצורה חכמה ומותאמת, ואף יכולה להוות בסיס לשיפור תהליך הפיתוח הטכנולוגי. כך למשל, תהליך הבדיקה הנדרש במסגרת מדיניות ה-RSP עשוי להוביל לפיתוחים בלתי צפויים בתחומי מדעי המחשב והבינה המלאכותית. בנוסף, מציינת החברה כי הרגולציה חייבת להיות ניטרלית ואינה צריכה להעדיף מודלים פתוחים או סגורים, אלא לפקח על הסיכונים הפוטנציאליים שלהם על פי סטנדרטים אחידים.
בשל מורכבות האתגרים הקשורים לבינה המלאכותית, אנטרופיק מדגישה כי יש צורך בשיתוף פעולה הדוק בין קובעי מדיניות, חברות טכנולוגיה, ארגוני בטיחות וגורמי החברה האזרחית. בארצות הברית, למשל, יש יתרון לחקיקה פדרלית אחידה, אך קיים גם מקום לחקיקה מדינתית מהירה במקביל, שתפעל כגיבוי במידה והחקיקה הפדרלית תתעכב. מדינות אחרות, כמו האיחוד האירופי, אף הן מתחילות לבחון את האפשרות לרגולציה ייעודית, ואנטרופיק מאמינה כי עקרונות המדיניות האחראית יכולים לשמש בסיס לשיתוף פעולה עולמי.
רגולציה אפקטיבית ומיטיבה. האמנם?
אנטרופיק מציגה גישה פרגמטית וממוקדת לרגולציה בתחום הבינה המלאכותית, גישה השואפת לשלב בין פיקוח קפדני ושקיפות מצד אחד, לבין שמירה על גמישות והתפתחות טכנולוגית מצד שני. עקרונות הרגולציה המוצעת כוללים פשטות, גמישות ושקיפות, מה שאמור לסייע בבניית מערכת רגולטורית שתהיה יעילה אך לא מעיקה מדי על התעשייה. על פי חזונה של אנטרופיק, עקרונות אלו יהפכו את הרגולציה לכלי שמסייע לתעשייה לצמוח תוך צמצום הסיכונים לציבור.
עם זאת, יש להטיל ספק בהנחה שהרגולציה הזו תהיה יעילה באמת במניעת סיכונים חמורים, ולא תהפוך בסופו של דבר לכלי שתורם להרחבת יכולותיהם של המודלים ולא להגבלתם. מודל הפרגמטיות שמציעה אנטרופיק עשוי, לכאורה, לסייע באיזון הדרוש בין קידום החדשנות לבין הפחתת סיכונים, אך עולה השאלה האם אמצעים גמישים אלו מספיקים למניעת שימושים מסוכנים בטכנולוגיה זו. חובת ההוכחה עדיין מוטלת על התעשייה עצמה, שתצטרך להראות לאורך זמן שהגבלות אלו אכן משפיעות, ושאינן רק מערך סדיר של התחייבויות שאינן נאכפות. בנוסף, ההנחה כי חברות נוספות יאמצו עקרונות דומים אינה ודאית כלל. בעוד שחברות מסוימות עשויות לאמץ את עקרונות אנטרופיק בשל הלחץ הציבורי או רגולציה חיצונית, חברות אחרות עשויות לראות בהם מכשול כלכלי ולעקוף את הרגולציה בדרכים שונות. לכן, הצלחת המתווה תלויה גם בשיתוף פעולה רחב בתעשייה, דבר שמסובך במיוחד בתחום שבו יש אינטרסים כלכליים משמעותיים ותחרות גלובלית חריפה.
השאלה שנותרת פתוחה היא עד כמה ניתן יהיה לבסס מנגנוני פיקוח יעילים בתחום כה דינמי ומתפתח במהירות. אם גישת אנטרופיק תצליח להביא לאיזון המיוחל, הרי שהיא עשויה להוות דוגמה חשובה לאופן בו אפשר להסדיר תעשיות טכנולוגיות נוספות בעתיד. אך כל עוד הפיקוח אפקטיבי רק בצורה מוגבלת, ייתכן שהעקרונות המוצעים יתגלו כלא מספקים אל מול פוטנציאל הסיכונים וההשלכות הבלתי צפויות של המודלים העתידיים.