בינה מלאכותית כבר כאן – וגם במגזר הציבורי מרגישים את זה. פתאום, כל עובד ציבור יכול לשוחח עם צ’אטבוט שיעזור לו לנסח מכתב רשמי, לנתח נתונים או לסכם פגישה. אבל איך עושים את זה נכון, בטוח ובהתאם לחוק? המדריך הממשלתי החדש לשימוש אחראי בבינה מלאכותית במגזר הציבורי – הראשון מסוגו בישראל – מנסה לענות בדיוק על השאלה הזו. מדובר במסמך פורץ דרך שמתווה את הכללים החדשים למשחק שכולנו כבר משחקים בו.
רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.
אפשר גם להרשם לניוזלטר שלנו
החזון: יותר חדשנות, פחות סיכונים
“בטכנולוגיות הבינה המלאכותית טמון פוטנציאל רב לצמיחת המשק, לשיפור הפריון, להעלאת רמת החיים ולייעול המערכת הציבורית”, קובע המדריך בפתיחתו. המסר ברור: הממשלה לא מתכוונת לעמוד מהצד בעוד העולם מאמץ כלי AI מתקדמים. היא רוצה להוביל – אבל באופן חכם ואחראי.
החתימה על המדריך מגיעה שנתיים וחצי לאחר השקת ChatGPT, שהפכה בין לילה את הבינה המלאכותית מנושא אקדמי לכלי עבודה יומיומי. “זהו המסמך הממשלתי המקצועי הראשון שמציע שיטות עבודה מומלצות לגופים ציבוריים המבקשים לשלב מערכות בינה מלאכותית”, מדגיש המדריך, שנכתב במשותף על ידי מערך הדיגיטל הלאומי, משרד המשפטים ומשרד החדשנות.
חמשת עקרונות הזהב לשימוש אחראי
המדריך מאמץ את העקרונות שפיתח ארגון ה-OECD ומתאים אותם למציאות הישראלית. חמשת עקרונות היסוד הם:
1. צמיחה ורווחת הכלל: AI צריכה להביא תועלת אמיתית – קיצור זמני המתנה, שיפור איכות השירותים, הפחתת נטל בירוקרטי. לא רק טכנולוגיה לשם הטכנולוגיה.
2. כיבוד החוק וזכויות האדם: כל שימוש ב-AI חייב להתבצע תוך שמירה על הערכים הדמוקרטיים – כבוד האדם, שוויון, פרטיות ואוטונומיה. אין פשרות על זה.
3. שקיפות והסברתיות: הציבור זכאי לדעת מתי הוא מקבל שירות המסתמך על AI, איך המערכת פועלת ומה המגבלות שלה.
4. ביטחון ובטיחות: המערכות חייבות להיות אמינות וחסינות בפני התקפות או שימוש לרעה.
5. אחריותיות: תמיד יש כתובת אנושית אחראית. AI הוא כלי – הוא לא מקבל החלטות עצמאי.
ארבע השכבות של הממשל החדש
המדריך מציע מודל ממשל ברור עם ארבע שכבות של אחריות:
הנהלת הארגון מספקת את המעטפת התקציבית והתפעולית וממנה את הגורמים האחראים.
אחראי משילות בינה מלאכותית – דמות חדשה בארגון הציבורי, שתפקידה לקבוע את המדיניות הארגונית. במקרים רבים זה יהיה מנהל הדאטה הארגוני (CDO), אבל יכול להיות גם גורם אחר בעל הכישורים הרלוונטיים.
אחראי יישום עסקי – הגורם העסקי שמוביל פרויקט AI ספציפי. זה יכול להיות מנהל אגף, יו”ר ועדה או גורם מקצועי אחר.
משתמשי קצה – העובדים שמשתמשים בכלי AI בפועל ועליהם לפעול באופן אחראי ושקול.
כללי אצבע לעובד המדינה
החלק הכי פרקטי במדריך מוקדש לעובדים שמשתמשים בכלי AI בעבודתם היומיומית. הנחיות הליבה ברורות ומחייבות:
מה אסור להזין למערכות חיצוניות?
כל מידע מוגן – פרטים אישיים, מידע רגיש, סודיות מסחרית, מידע מסווג או כל דבר שמוגן על ידי חוק חופש המידע. הכלל הפשוט: אם לא הייתם מוכנים לפרסם את זה בעיתון, אל תזינו את זה לצ’אטבוט.
בדיקת מהימנות חובה
“אין להניח שהתוכן נכון מבלי לבדוק אותו”, מדגיש המדריך. מערכות AI יכולות לייצר מידע שגוי, ציטוטים מומצאים או אפילו “הזיות” – מידע שנראה אמין אבל אינו נכון.
תמיכה בהחלטה, לא החלטה
זה אולי העיקרון הכי חשוב. AI צריך לשמש כעוזר לקבלת החלטות, לא כמקבל החלטות. “יש להתייחס לתוצאות המתקבלות כתומכות החלטה אנושית, ולא כמקור יחיד לקבלת מידע או כהחלטה סופית”, קובע המדריך.
תיעוד ושקיפות
כשעושים שימוש משמעותי ב-AI בגיבוש תוצרים, מומלץ לציין זאת. אין להציג תוכן שנוצר על ידי בינה מלאכותית כאילו הוא פרי יצירה אנושית מקורית.
הענן הממשלתי כאלטרנטיבה מאובטחת
אחד המסרים המרכזיים במדריך הוא הדחיפה לשימוש בפרויקט “נימבוס” – הענן הממשלתי. במקום להשתמש בכלי מדף חיצוניים כמו ChatGPT, הממשלה מציעה שירותי AI מתקדמים בסביבה מאובטחת שנרכשה תוך הקפדה על הדין הישראלי.
“לממשלת ישראל יש היצע שירותים רחב מאוד של כלי בינה מלאכותית, הזמין הן ישירות על ידי ספקיות הענן והן על ידי ארגונים נוספים המספקים מוצרים המותקנים בסביבות של ספקיות הענן”, מציין המדריך. זו אמירה חשובה: הממשלה לא רק מסדירה את השוק, אלא גם מציעה אלטרנטיבה ממשלתית מובנית.
ניהול סיכונים הלכה למעשה
המדריך מקדיש פרק נרחב למתודולוגיה מקיפה לניהול סיכונים – אולי החלק הכי טכני אבל גם הכי חיוני. התהליך מתחלק לארבעה שלבים:
שלב 1: ניתוח והערכת תועלות וסיכונים – מיפוי מקיף של מה יכול להשתבש ומה התועלת הצפויה.
שלב 2: תכנון פעולות הפחתה – איך מצמצמים את הסיכונים בעזרת אמצעים טכניים וארגוניים.
שלב 3: קבלת החלטה – האם להתקדם עם הפרויקט, תוך שקלול של כל השיקולים.
שלב 4: יישום ומעקב – הפעלת המערכת תוך מעקב שוטף ובקרה.
המדריך מפרט סוגי סיכונים שונים: תפעוליים (כשלים טכניים), כלכליים (הפסדים כספיים), בריאותיים ובטיחותיים (פגיעה ממשית באנשים), סביבתיים, סיכוני אבטחת מידע ופגיעה באמון הציבור.
התמודדות עם הטיות והפליה
נושא מרכזי שמקבל התייחסות מיוחדת הוא מניעת הטיות ואפליה. “מערכות מבוססות בינה מלאכותית הוא הסיכונים לאפליה ולהטיות על ידי המערכות, שעשויים לנבוע מטעמים שונים, בהם למשל שימוש במאגרי מידע מוטים שאינם מייצגים מספיק”, מזהיר המדריך.
זהו חשש לגיטימי: אלגוריתמים יכולים להנציח או להגביר הטיות קיימות בחברה, במיוחד כלפי מיעוטים או אוכלוסיות מוחלשות. המדריך קורא לגורמים המקצועיים לשים לב מיוחד לנושא הזה ולנקוט אמצעי הגנה.
השפה הנבונה של הזהירות
מה שמרשים במדריך הוא הטון המאוזן שלו. הוא לא מנסה להפחיד מ-AI אבל גם לא מטפח אופטימיות נאיבית. “שימוש אחראי במערכות בינה מלאכותית אין משמעותו הימנעות מוחלטת מסיכונים כלשהם”, קובע המדריך. “המדריך מציע גישת ניהול סיכונים דיפרנציאלית: ככל שהסיכונים גבוהים יותר, כך גם נדרשים אמצעי הפחתת סיכונים ותהליכי בקרה מקיפים יותר.”
זוהי גישה מבוגרת שמכירה בכך שחדשנות דורשת נטילת סיכונים מחושבים. המטרה היא לא לבטל סיכונים אלא לנהל אותם בצורה חכמה.
קריאה להשתתפות ציבורית
המדריך מדגיש שהוא נמצא כרגע בשלב של “גרסה להערות ציבור”. זו הזדמנות חשובה לכל מי שמתעניין בנושא – עובדי ציבור, אקדמאים, אזרחים מודאגים או תומכי חדשנות – להשפיע על עיצוב המדיניות הממשלתית.
“ניתן לפנות אלינו בכל התייחסות, הערה ושאלה לתיבת הדואר האלקטרוני responsibleAI@digital.gov.il“, כותבים מחברי המדריך. זו לא רק נימוס פורמלי – זו הזדמנות אמיתית להשפיע על המסמך הסופי.
התמונה הגדולה
המדריך הישראלי מתבסס על תקינה בינלאומית מובילה – עקרונות OECD, האמנה של מועצת אירופה לבינה מלאכותית, הנחיות מארה”ב, בריטניה וקנדה. זה מעיד על רצון לשתף פעולה עם הקהילה הבינלאומית ולא להמציא את הגלגל מחדש. אבל יש כאן גם התאמה למציאות הישראלית המיוחדת – שיקולי אבטחה, צרכים ייחודיים של המגזר הציבורי בישראל, והדגש על הענן הממשלתי כאלטרנטיבה לכלי חיצוניים.
המדריך מבטיח שהוא יתעדכן באופן תקופתי “בהתאם לצרכים של גופים ציבוריים, להתפתחויות הטכנולוגיות ולשינויים במסגרת הנורמטיבית בישראל ובעולם”. זוהי הכרה חשובה בכך שהתחום מתפתח במהירות והמדיניות חייבת להישאר רלוונטית.
שורה תחתונה: ישראל עושה צעד משמעותי לעבר השילוב החכם של בינה מלאכותית במגזר הציבורי. המדריך הזה הוא רק התחלה של שיח ציבורי חשוב על איך אנחנו רוצים שהטכנולוגיה הכי משמעותית של עידן שלנו תשמש את האינטרס הציבורי. עכשיו זה הזמן להגיד את שלכם.
כתיבת תגובה