תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
× Send

איך להפוך AI לכלי עבודה בטוח: המדריך הרשמי לעובדי המדינה

המדריך הממשלתי החדש לשימוש אחראי בבינה מלאכותית במגזר הציבורי
תוכן עניינים

בינה מלאכותית כבר כאן – וגם במגזר הציבורי מרגישים את זה. פתאום, כל עובד ציבור יכול לשוחח עם צ’אטבוט שיעזור לו לנסח מכתב רשמי, לנתח נתונים או לסכם פגישה. אבל איך עושים את זה נכון, בטוח ובהתאם לחוק? המדריך הממשלתי החדש לשימוש אחראי בבינה מלאכותית במגזר הציבורי – הראשון מסוגו בישראל – מנסה לענות בדיוק על השאלה הזו. מדובר במסמך פורץ דרך שמתווה את הכללים החדשים למשחק שכולנו כבר משחקים בו.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

החזון: יותר חדשנות, פחות סיכונים

“בטכנולוגיות הבינה המלאכותית טמון פוטנציאל רב לצמיחת המשק, לשיפור הפריון, להעלאת רמת החיים ולייעול המערכת הציבורית”, קובע המדריך בפתיחתו. המסר ברור: הממשלה לא מתכוונת לעמוד מהצד בעוד העולם מאמץ כלי AI מתקדמים. היא רוצה להוביל – אבל באופן חכם ואחראי.

 

החתימה על המדריך מגיעה שנתיים וחצי לאחר השקת ChatGPT, שהפכה בין לילה את הבינה המלאכותית מנושא אקדמי לכלי עבודה יומיומי. “זהו המסמך הממשלתי המקצועי הראשון שמציע שיטות עבודה מומלצות לגופים ציבוריים המבקשים לשלב מערכות בינה מלאכותית”, מדגיש המדריך, שנכתב במשותף על ידי מערך הדיגיטל הלאומי, משרד המשפטים ומשרד החדשנות.

חמשת עקרונות הזהב לשימוש אחראי

המדריך מאמץ את העקרונות שפיתח ארגון ה-OECD ומתאים אותם למציאות הישראלית. חמשת עקרונות היסוד הם:

1. צמיחה ורווחת הכלל: AI צריכה להביא תועלת אמיתית – קיצור זמני המתנה, שיפור איכות השירותים, הפחתת נטל בירוקרטי. לא רק טכנולוגיה לשם הטכנולוגיה.

2. כיבוד החוק וזכויות האדם: כל שימוש ב-AI חייב להתבצע תוך שמירה על הערכים הדמוקרטיים – כבוד האדם, שוויון, פרטיות ואוטונומיה. אין פשרות על זה.

3. שקיפות והסברתיות: הציבור זכאי לדעת מתי הוא מקבל שירות המסתמך על AI, איך המערכת פועלת ומה המגבלות שלה.

4. ביטחון ובטיחות: המערכות חייבות להיות אמינות וחסינות בפני התקפות או שימוש לרעה.

5. אחריותיות: תמיד יש כתובת אנושית אחראית. AI הוא כלי – הוא לא מקבל החלטות עצמאי.

 

חמשת עקרונות הזהב
לשימוש אחראי בבינה מלאכותית במגזר הציבורי

חמשת עקרונות הזהב לשימוש אחראי בבינה מלאכותית במגזר הציבורי

ארבע השכבות של הממשל החדש

המדריך מציע מודל ממשל ברור עם ארבע שכבות של אחריות:

הנהלת הארגון מספקת את המעטפת התקציבית והתפעולית וממנה את הגורמים האחראים.

אחראי משילות בינה מלאכותית – דמות חדשה בארגון הציבורי, שתפקידה לקבוע את המדיניות הארגונית. במקרים רבים זה יהיה מנהל הדאטה הארגוני (CDO), אבל יכול להיות גם גורם אחר בעל הכישורים הרלוונטיים.

אחראי יישום עסקי – הגורם העסקי שמוביל פרויקט AI ספציפי. זה יכול להיות מנהל אגף, יו”ר ועדה או גורם מקצועי אחר.

משתמשי קצה – העובדים שמשתמשים בכלי AI בפועל ועליהם לפעול באופן אחראי ושקול.

כללי אצבע לעובד המדינה

החלק הכי פרקטי במדריך מוקדש לעובדים שמשתמשים בכלי AI בעבודתם היומיומית. הנחיות הליבה ברורות ומחייבות:

מה אסור להזין למערכות חיצוניות?

כל מידע מוגן – פרטים אישיים, מידע רגיש, סודיות מסחרית, מידע מסווג או כל דבר שמוגן על ידי חוק חופש המידע. הכלל הפשוט: אם לא הייתם מוכנים לפרסם את זה בעיתון, אל תזינו את זה לצ’אטבוט.

בדיקת מהימנות חובה

“אין להניח שהתוכן נכון מבלי לבדוק אותו”, מדגיש המדריך. מערכות AI יכולות לייצר מידע שגוי, ציטוטים מומצאים או אפילו “הזיות” – מידע שנראה אמין אבל אינו נכון.

תמיכה בהחלטה, לא החלטה

זה אולי העיקרון הכי חשוב. AI צריך לשמש כעוזר לקבלת החלטות, לא כמקבל החלטות. “יש להתייחס לתוצאות המתקבלות כתומכות החלטה אנושית, ולא כמקור יחיד לקבלת מידע או כהחלטה סופית”, קובע המדריך.

תיעוד ושקיפות

כשעושים שימוש משמעותי ב-AI בגיבוש תוצרים, מומלץ לציין זאת. אין להציג תוכן שנוצר על ידי בינה מלאכותית כאילו הוא פרי יצירה אנושית מקורית.

הענן הממשלתי כאלטרנטיבה מאובטחת

אחד המסרים המרכזיים במדריך הוא הדחיפה לשימוש בפרויקט “נימבוס” – הענן הממשלתי. במקום להשתמש בכלי מדף חיצוניים כמו ChatGPT, הממשלה מציעה שירותי AI מתקדמים בסביבה מאובטחת שנרכשה תוך הקפדה על הדין הישראלי.

 

“לממשלת ישראל יש היצע שירותים רחב מאוד של כלי בינה מלאכותית, הזמין הן ישירות על ידי ספקיות הענן והן על ידי ארגונים נוספים המספקים מוצרים המותקנים בסביבות של ספקיות הענן”, מציין המדריך. זו אמירה חשובה: הממשלה לא רק מסדירה את השוק, אלא גם מציעה אלטרנטיבה ממשלתית מובנית.

ניהול סיכונים הלכה למעשה

המדריך מקדיש פרק נרחב למתודולוגיה מקיפה לניהול סיכונים – אולי החלק הכי טכני אבל גם הכי חיוני. התהליך מתחלק לארבעה שלבים:

שלב 1: ניתוח והערכת תועלות וסיכונים – מיפוי מקיף של מה יכול להשתבש ומה התועלת הצפויה.

שלב 2: תכנון פעולות הפחתה – איך מצמצמים את הסיכונים בעזרת אמצעים טכניים וארגוניים.

שלב 3: קבלת החלטה – האם להתקדם עם הפרויקט, תוך שקלול של כל השיקולים.

שלב 4: יישום ומעקב – הפעלת המערכת תוך מעקב שוטף ובקרה.

 

מתודולוגיה מקיפה להטמעה בטוחה ואחראית של AI במגזר הציבורי

מתודולוגיה מקיפה להטמעה בטוחה ואחראית של AI במגזר הציבורי

 

המדריך מפרט סוגי סיכונים שונים: תפעוליים (כשלים טכניים), כלכליים (הפסדים כספיים), בריאותיים ובטיחותיים (פגיעה ממשית באנשים), סביבתיים, סיכוני אבטחת מידע ופגיעה באמון הציבור.

התמודדות עם הטיות והפליה

נושא מרכזי שמקבל התייחסות מיוחדת הוא מניעת הטיות ואפליה. “מערכות מבוססות בינה מלאכותית הוא הסיכונים לאפליה ולהטיות על ידי המערכות, שעשויים לנבוע מטעמים שונים, בהם למשל שימוש במאגרי מידע מוטים שאינם מייצגים מספיק”, מזהיר המדריך.

 

זהו חשש לגיטימי: אלגוריתמים יכולים להנציח או להגביר הטיות קיימות בחברה, במיוחד כלפי מיעוטים או אוכלוסיות מוחלשות. המדריך קורא לגורמים המקצועיים לשים לב מיוחד לנושא הזה ולנקוט אמצעי הגנה.

השפה הנבונה של הזהירות

מה שמרשים במדריך הוא הטון המאוזן שלו. הוא לא מנסה להפחיד מ-AI אבל גם לא מטפח אופטימיות נאיבית. “שימוש אחראי במערכות בינה מלאכותית אין משמעותו הימנעות מוחלטת מסיכונים כלשהם”, קובע המדריך. “המדריך מציע גישת ניהול סיכונים דיפרנציאלית: ככל שהסיכונים גבוהים יותר, כך גם נדרשים אמצעי הפחתת סיכונים ותהליכי בקרה מקיפים יותר.”

 

זוהי גישה מבוגרת שמכירה בכך שחדשנות דורשת נטילת סיכונים מחושבים. המטרה היא לא לבטל סיכונים אלא לנהל אותם בצורה חכמה.

קריאה להשתתפות ציבורית

המדריך מדגיש שהוא נמצא כרגע בשלב של “גרסה להערות ציבור”. זו הזדמנות חשובה לכל מי שמתעניין בנושא – עובדי ציבור, אקדמאים, אזרחים מודאגים או תומכי חדשנות – להשפיע על עיצוב המדיניות הממשלתית.

 

“ניתן לפנות אלינו בכל התייחסות, הערה ושאלה לתיבת הדואר האלקטרוני responsibleAI@digital.gov.il“, כותבים מחברי המדריך. זו לא רק נימוס פורמלי – זו הזדמנות אמיתית להשפיע על המסמך הסופי.

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

התמונה הגדולה

המדריך הישראלי מתבסס על תקינה בינלאומית מובילה – עקרונות OECD, האמנה של מועצת אירופה לבינה מלאכותית, הנחיות מארה”ב, בריטניה וקנדה. זה מעיד על רצון לשתף פעולה עם הקהילה הבינלאומית ולא להמציא את הגלגל מחדש. אבל יש כאן גם התאמה למציאות הישראלית המיוחדת – שיקולי אבטחה, צרכים ייחודיים של המגזר הציבורי בישראל, והדגש על הענן הממשלתי כאלטרנטיבה לכלי חיצוניים.

 

המדריך מבטיח שהוא יתעדכן באופן תקופתי “בהתאם לצרכים של גופים ציבוריים, להתפתחויות הטכנולוגיות ולשינויים במסגרת הנורמטיבית בישראל ובעולם”. זוהי הכרה חשובה בכך שהתחום מתפתח במהירות והמדיניות חייבת להישאר רלוונטית.

 

שורה תחתונה: ישראל עושה צעד משמעותי לעבר השילוב החכם של בינה מלאכותית במגזר הציבורי. המדריך הזה הוא רק התחלה של שיח ציבורי חשוב על איך אנחנו רוצים שהטכנולוגיה הכי משמעותית של עידן שלנו תשמש את האינטרס הציבורי. עכשיו זה הזמן להגיד את שלכם.

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

רוצים הרצאה או ייעוץ של רון גולד?
השאירו פרטים ונשמח לחזור אליכם עם המידע הרלוונטי
אולי יעניין אותך גם...

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

Let's update

רוצים לקבל עדכונים על כל מה שחדש ומעניין בעולם ה-AI? הרשמו לניוזלטר שלנו!

אירועי AI קרובים

תפריט נגישות

תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
וובינר אוטומציות עסקיות ובינה מלאכותית
21/10/2025 - בשעה 20:00