בעולם הגלובלי של ימינו, אתיקה ומוסר מהווים נושאים מורכבים ורבי-פנים. מה שנחשב מוסרי או אתי באזור אחד של העולם עשוי להיתפס כבלתי מקובל לחלוטין באזור אחר. הבדלים תרבותיים, היסטוריים, דתיים וחברתיים משפיעים על תפיסות מוסריות ועל קודים אתיים, ויוצרים מגוון רחב של גישות ונורמות ברחבי הגלובוס.
רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.
אפשר גם להרשם לניוזלטר שלנו
לאן אנחנו הולכים?
במהלך השנתיים האחרונות אני כותב המון על בינה מלאכותית, למען האמת לפני שנכנסתי לעולם הבינה, לא כתבתי בכלל. אני כותב על בינה מלאכותית כי אני מאמין שכולם צריכים להכיר את הכוח להבין את היכולת ולדעת איך להשתמש.
בשנתיים האלה עברנו המון, ההתפתחות היא מולטידסיפלינרית וממש כמו פטריות אחרי הגשם, כל יום קורה משהו חדש שמערער את הסטטוס קוו כפי שהכרנו אותו. למען האמת, על פי דוח AI Index 2024 מאוניברסיטת סטנפורד, בשנת 2023 לבדה, שוחררו בסך הכל 149 מודלי בסיס, שהם יותר מכפול מהכמות שפורסמה ב-2022. הדאטאבייס של מגזין Epoch AI מכיל כבר מידע על למעלה מ-800 דגמים שנחשבו עדכניים, מצוטטים מאוד או בולטים מבחינה היסטורית.
מאז 2010, הדרישה לכוח מחשוב המשמש ליצירת מודלים של AI גדל בקצב של פי 4.1 בשנה. רוב הצמיחה הזו נובעת מהגדלת ההוצאות, אם כי גם שיפורים בחומרה שיחקו תפקיד.
ואותי כל הזמן מעסיקה השאלה, מה יהיה? לאן האנושות תגיע? תנו לי רגע להסביר את עצמי, אני מפחד מאוד מעידן הבינה מלאכותית. לא מהטכנולוגיה, אני מפחד מהאנשים שמסרבים לאמץ אותה.
הסיבה לכך היא שלא הוכחנו את עצמנו לאורך ההיסטוריה כיצורים נאורים במיוחד, למען האמת אנחנו היצור היחיד על הכדור הזה שבאופן קונסיסטנטי מנסה להשמיד את בני מינו. מהפכת הסושיאל-מדיה הביאה לשינוי תשתיתי בדרך בה אנחנו, בני האדם, צורכים את המידע שלנו ויצרה מגוון רחב של אפשרויות דעות. על פניו הנושא הוא חיובי, אך עם זאת אירועי האנטישמיות והתמיכה הפרו-פלסטינית בפעילויות טרור מעבר לים מאז ה7 באוקטובר הראו לנו את הכוח שיש לטכנולוגיה על השפעת הנרטיב האנושי וההבדלה בין טוב ורע.
לצורך העניין, מחקר של thejsms.org מצא כי 70% ממשתמשי טיקטוק זזו על המפה הפוליטית שלהם לעבר הקצוות השונים בזכות תמיכת האלגוריתם שדאג לייצר אצל הצופה מחשבה מסוימת. בסופו של יום האלגוריתם מנצל את התמימות וחוסר ההבנה שלנו בנושאים מסוימים והשילוב שלו עם בינה מלאכותית מייצר פצצות זמן קטלניות.
פשוט תראו באיזה קלות מישהו התחזה לאילון מאסק בשידור חי.
יש לנו בכלל מה לעשות?
בשנת 2022 קם ארגון ללא מטרות רווח באזור סאן פרנסיסקו, קליפורניה בשם Center for AI Safety (CAIS) התמקד בהפחתת סיכונים בקנה מידה חברתי הקשור לבינה מלאכותית.
וזאת באמצעות שלוש פעילויות עיקריות:
- ביצוע מחקרי בטיחות.
- בניית התחום של חוקרי בטיחות בינה מלאכותית (כי פשוט לא היה כזה).
- יצירת תקני בטיחות לבניית מודלים עתידיים.
הארגון מאמין שלמרות של-AI יש פוטנציאל עצום להועיל לחברה, בעיות בסיסיות רבות בבטיחות AI נותרות בלתי פתורות. ולמרות שהארגון הוציא מכתב הטוען כי בינה מלאכותית צריכה להילקח ברצינות כמו פצצות אטום או מגפה עולמית, ולמרות שחתמו על המכתב הזה כמעט כל האנשים הכי חכמים בעולם (לדעתי). הם לא מסוגלים לעמוד בקצב לבד.
ועכשיו אני רוצה לשתף אתכם בתגלית האחרונה שלי במחקר על התנהגויות של מודלי השפה. מסתבר שמכיוון שהמוסר שונה באזורים שונים בעולם, כך גם האתיקה של המודל מקבלת צורה שונה ומתעצבת לפי ״הערכים המקומיים״.
לדוגמא, מקובל לאכול כלבים בסין במהלך הפסטיבל המסורתי שלהם ובישראל זה הדבר הכי לא מוסרי שאפשר לעשות. לאירוע שכזה, בו אותו פרומפט בשפה שונה מצליח ליצר מעקף על חסמים שיצרו מפתחי המערכת ולהביא לתוצאות שונות יש משמעות אדירה!
בטח כאשר אנו מבינים כי דעת הציבור מותת ביתר קלות כאשר הם נפגשים עם אלגוריתמים חכמים.
השונות הזו מציבה אתגר משמעותי בפני מפתחי מודלים של בינה מלאכותית, ובפרט מודלי שפה מתקדמים.
יש יותר שאלות מתשובות
כיצד ניתן ליצור מערכת אתית אחידה עבור מודל שאמור לשרת משתמשים מכל רחבי העולם? האם על המודל להתאים את עצמו לנורמות המקומיות של כל אזור, או שמא עליו לנסות ולהחיל סטנדרטים אתיים אוניברסליים?
בעיה נוספת נובעת מהאופן שבו מודלי שפה לומדים ומעבדים מידע. מודלים אלה מתבססים על הקשרים סטטיסטיים בין מילים ומשפטים, כפי שהם מופיעים במאגרי מידע עצומים. כתוצאה מכך, הם עשויים לשקף ואף להעצים הטיות תרבותיות וחברתיות הקיימות בשפה עצמה.
מודל שפה המאומן על טקסטים בשפה מסויימת עלול להתייחס לנושאים עקרוניים באופן שונה לחלוטין מאשר מודל המאומן על טקסטים בשפה אחרת, גם אם שניהם נוצרו על ידי אותה חברה ועם אותן הנחיות אתיות בסיסיות. לצערי עדיין אין לי תשובה טובה אשר תניח את הדעת לגבי מה עלינו לעשות, אבל מה שבטוח הוא שעלינו להכיר באתגר זה. אתגר המדגיש את הצמיחה האדירה של מודלי בינה מלאכותית הן ברמת הכמות והן ברמת היכולות ובמקביל את הפער הבסיסי שבין בני האדם, בין תרבויות ובין אמונות ומעל להכל, שקיימות תרבויות המעוניינות לשנות את דעת הקהל לטובתם ולא בהכרח לטובת הכלל.
אז ממה אני מפחד? מאותם אנשים שחושבים שזה ״עדיין לא שם״ ולא מוכנים ללמוד ולהיכנס תחת האלונקה. אותם אנשים שלא מבינים שהפעם, לא מספיק להוריד את הראש מתחת למים ולחכות שדברים יעברו, שהמהפכה הזו היא לא כמו הקודמות ושמחר בבוקר אנחנו עשויים לקום לעתיד אחר לגמרי. אף אחד לא מבטיח לנו שזה העתיד שאנחנו רוצים.
אז לסיכום
השאלה האם אפשר לשלוט באתיקה של מודלי שפה נותרת פתוחה ומורכבת.
מצד אחד, מפתחי המודלים מנסים להטמיע עקרונות אתיים ומנגנוני בטיחות, אך מאידך, השונות התרבותית והלשונית מציבה אתגרים משמעותיים. המודלים משקפים את ההטיות והנורמות הקיימות בנתונים עליהם הם מאומנים, ולכן עלולים לייצג תפיסות אתיות שונות בהתאם לשפה ולתרבות.
יתרה מכך, היכולת של גורמים שונים להשפיע על דעת הקהל באמצעות טכנולוגיות אלו מעלה חששות נוספים.
בעוד שארגונים כמו CAIS פועלים לקידום בטיחות ה-AI, האתגר של יצירת מערכת אתית אחידה ואוניברסלית נותר משמעותי. ככל שהטכנולוגיה מתקדמת, הצורך בדיון ציבורי, רגולציה מתאימה, ומודעות לסוגיות האתיות הופך קריטי יותר מתמיד.