תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
× Send

המדען התימני שמטשטש את הגבולות בין אמיתי למלאכותי

המאמר שלפניכם צולל אל אחת הסוגיות הבוערות של עידן הבינה המלאכותית - דרך סיפורו של המדען ומשפיען הרשת התימני, חשם א-גלילי
תוכן עניינים

המאמר שלפניכם צולל לאחת הסוגיות הבוערות של עידן הבינה המלאכותית – דרך סיפורו של המדען ומשפיען הרשת התימני, חשם א-גלילי. הוא בוחן כיצד סרטוני ה-AI הוויראליים שא-גלילי יוצר, המציגים קונספטים עתידניים באופן ריאליסטי להפליא, מטשטשים את הגבולות בין מציאות לבדיון ומעוררים שאלות נוקבות. המאמר מדגיש את האחריות הכבדה המוטלת על יוצרי תוכן בעלי השפעה רחבה, את הסכנה המוחשית של “קריסת אמון דיגיטלית” הנובעת מחשיפה חוזרת לזיופים משכנעים – ואת הקו הדק שבין כוונה לגיטימית לפתוח דיון על טכנולוגיות חדשות, לבין יצירת בלבול או בהלה בקרב קהלים רחבים.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

בינה מלאכותית שיודעת שהיא בינה מלאכותית

אתם יושבים בבית, גוללים ברשתות החברתיות, ופתאום רואים סרטון שנראה כמו סצנה מסרט אקשן. איש מדמם, בן ערובה על הברכיים, ואיש אחר מכוון אקדח לראשו. אבל משהו מוזר קורה – הגבר עם האקדח אומר למצלמה: “תראה, אני לא רוצה לכוון עליך את האקדח, אבל אני חייב לעקוב אחרי הפרומפט”. זה לא סרט. זו לא מציאות. זו בינה מלאכותית שיודעת שהיא כזו. האיש מאחורי הקונספט הזה הוא חשם א-גלילי – מדען תימני בן 34 שהפך לאחד מכוכבי הרשת המשפיעים בעולם. באחרונה הוא הציף את האינטרנט בסרטונים שמראים דמויות AI מתוחכמות שמתמודדות עם העובדה שהן…לא קיימות באמת. 

 

 

מהחווה למיליארדי צפיות

הסיפור מתחיל בצפון תימן, בחווה לגידול קאת (צמח ממריץ טבעי, בדומה לקפאין, שגדל בתימן ומהווה מקור פרנסה מסורתי למשפחות רבות). חשם נולד ב-1990 כילד עשירי מתוך 12 אחים ואחיות. אביו רצה שיעבוד בחווה המשפחתית, אבל חשם חלם על משהו אחר. בגיל 16 הוא סיים תיכון ובלי ליידע את אביו, הגיש מועמדות למלגת ממשלה ללימודים בחו”ל.

 

המלגה הובילה אותו לפקיסטן ללימודי ביוטכנולוגיה, ומשם לגרמניה לתואר שני בביולוגיה מולקולרית. אבל האמת? הכל התחיל הרבה יותר מוקדם – ב-2008, כשיצר דף פייסבוק בשם “Science Nature Page”. היום, הדף הזה מגיע לכ-32 מיליון עוקבים וסרטונים שלו צוברים מיליארדי צפיות. מחקר של Pew Research Center מ-2018 דירג אותו כאחד ממתקשרי המדע המשפיעים ביותר בעולם. זה כח עצום. השאלה היא – איך הוא משתמש בו?

 

 

הכוח המטריד של האשליה המושלמת

א-גלילי יוצר “קונספטים עתידניים” – סרטונים שמראים טכנולוגיות שעוד לא קיימות, אבל נראות כל כך אמיתיות שאנשים מאמינים להן. ב-2022 הוא יצר סרטון על “EctoLife” – מתקן רחם מלאכותי שיכול לגדל תינוקות מחוץ לגוף האישה. הסרטון נראה כל כך אמיתי שכמה פוליטיקאים אמריקאים, כולל קנדיס אוונס (פעילה פוליטית, פרשנית וסופרת המזוהה עם הימין השמרני), חשבו שזה קיים באמת והזהירו מפני “עתיד דיסטופי”.

 

תגובת השרשרת הייתה מיידית ומסיבית – מיליוני אנשים חשבו שהטכנולוגיה הזו כבר פותחה. “המטרה הייתה להתחיל דיון על טכנולוגיה מתפתחת,” הסביר א-גלילי לאחר מכן. אבל זה בדיוק הבעיה – כשיש לך 32 מיליון עוקבים, אתה לא יכול פשוט “להתחיל דיון” בלי לחשוב על ההשלכות. באותה תקופה, נוצר תקדים מסוכן: מדען מכובד יוצר תוכן מזויף שנראה אמיתי, התוכן מתפשט כמו אש בשדה קוצים, והוא מתנצל בדיעבד על “אי ההבנה”. קשה לקרוא לזה אי הבנה – זו תוצאה כמעט בלתי נמנעת במציאות של היום.

 

 

פרומפט עם תודעה

אבל מה שקורה עכשיו עם VEO3 – מחולל הוידאו החדש של גוגל – זה משהו אחר לגמרי. VEO3 יכול ליצור קול מסונכרן, אפקטים קוליים ואפילו דיאלוגים מפרומפט טקסטואלי אחד. א-גלילי יצר סדרת סרטונים שמעלה שאלות עמוקות על טבע המציאות והתודעה.

 

הסרטון הראשון: “מה אם דמויות AI מסרבות להאמין שהן נוצרו על ידי בינה מלאכותית?” הסרטון השני: “תדמיינו אם דמויות AI היו מתוודעות לכך שהן חיות בסימולציה!” התוצאות מטרידות לכל כיוון שתסתכלו עליהן. הסרטון צבר 3.8 מיליון צפיות עם תגובות כמו “יש פרק ב-Black Mirror על זה”. אבל מאחורי ההתלהבות הטכנולוגית (בצדק!) מסתתרת בעיה רצינית: רבים מרגישים שזה הרגע שבו “אנחנו מפסיקים להבדיל בין אמיתי ומלאכותי”.

 

 

הפילוסופיה מאחורי הכאוס

זה לא מקרה שא-גלילי בחר בנושא הזה. כבר ב-2019 הוא ביים סרט קצר בשם “Simulation” שעוסק בתיאוריית הסימולציה. ב-2023 הוא פרסם רומן מדע בדיוני בשם “Simulation: The Great Escape” שחוקר שאלות פילוסופיות עמוקות על טבע המציאות.

 

אבל יש הבדל בין לחקור שאלות פילוסופיות במעגל אקדמי לבין לייצר תוכן ויראלי שמגיע למיליוני אנשים שלא מצופה מהם לדעת שזה פילוסופיה. “אני מקווה שהמין שלנו ילמד ויבין את המטרה שלנו כאן,” אמר א-גלילי בראיון על הסרט שלו. השאלה היא – האם הדרך שלו לעורר דיון היא גם הדרך לעורר אמון?

קריסת אמון דיגיטלית

זה לא רק פחד מטכנולוגיה – זה פחד מקריסת האמון שלנו במציאות עצמה. כשמומחה מכובד יוצר תוכן שאי אפשר להבחין אם הוא אמיתי או מזויף, מה זה אומר על היכולת שלנו לסמוך על מה שאנחנו רואים? התופעה הזו מכונה “Deepfake Trust Collapse” – מונח מוכר בפסיכולוגיה של המדיה, המתאר מצב שבו חשיפה חוזרת לתוכן מזויף גורמת לאובדן אמון כללי, גם בתוכן האמיתי. מחקרים מראים שזה לא רק פוגע בזיהוי של זיופים, אלא מערער את עצם ההנחה שמה שנראה אמיתי – אכן אמיתי.

 

“פרופגנדה זכתה לעדכון חדש,” כתב אחד הצופים על הסרטונים של א-גלילי. וזה לא סתם גימיק – כשטכנולוגיה כמו VEO3 נופלת לידיים הלא נכונות, היא יכולה לייצר תעמולה שלא ניתנת להפרכה.

 

 

הצד האפל של הגאונות

א-גלילי מתמודד עם ביקורת הולכת וגוברת. הוא מודה: “אני לא יכול לסנן מאות אלפי תגובות,” וגם “לא אקרא תגובות אישיות, אבל לא אתן להם להפיץ דיסאינפורמציה.” ופה בדיוק הבעיה, כשאתה יוצר תוכן ויראלי שמטשטש את הגבול בין אמת לבדיה, אי אפשר פשוט להרים ידיים ולומר: “אני לא אחראי למה שאנשים עושים עם זה.” זה כמו להדליק מדורה – ואז להצהיר שאתה לא אחראי לשריפה.

 

וזו השאלה החדה שנשארת תלויה באוויר: איפה עובר הגבול לאחריות, כשיש לך השפעה על עשרות מיליוני בני אדם? ושאלה נוספת – לא פחות חשובה:

האם גם לפלטפורמה שמאפשרת את זה (במקרה הזה, גוגל) יש אחריות?

מה עושים?

זה הרגע לעצור ולחשוב. א-גלילי ממשיך לעבוד על הסרט הקולנועי הראשון שלו, Orbital, שיעסוק בנסיעות בחלל ובחיים מחוץ לכדור הארץ. אבל אנחנו, הקהל, צריכים להיות חכמים יותר. הנה כמה דברים שאתם יכולים לעשות כבר עכשיו:

1. אל תשתפו תוכן לפני שבדקתם אותו. אם זה נראה מדהים מדי כדי להיות אמיתי – ייתכן שזה לא אמיתי.

2. למדו לזהות תוכן שנוצר על ידי AI. חפשו סימנים כמו טקסטים מעוותים ברקע, תנועות גוף או שפתיים לא טבעיות, ודיבור שלא מסתנכרן.

3. תשאלו שאלות. מי יצר את הסרטון? למה? איך הוא הגיע אליכם? מי מרוויח מהתפוצה שלו?

4. דרשו שקיפות. יוצר שמפרסם “קונספט עתידני” – ראוי שיציין בבירור שזה בדיוני.

5. והכי חשוב: אל תתנו לפחד מבינה מלאכותית להפוך אתכם לציניים או אדישים. יש הבדל עצום בין יצירתיות וחשיבה ביקורתית – לבין פרנויה משתקת.

 

 

העתיד נכתב עכשיו

בעולם שבו בינה מלאכותית כבר נראית אמיתית לגמרי – אנחנו צריכים לבחור: האם נהיה צרכנים פסיביים של תוכן מטריד, או משתתפים פעילים בעיצוב העתיד הדיגיטלי שלנו? א-גלילי אמר פעם: “אתם לא חייבים להיות מדענים כדי להבין את העולם סביבכם. אתם פשוט צריכים לדעת איך לחפש מידע בצורה נכונה.” זה נכון, אבל בעידן של VEO3 ו-deepfakes, זה כבר לא מספיק.

 

אנחנו צריכים לדעת לא רק איך לחפש מידע, אלא איך לזהות מידע מזויף. לא רק איך לצרוך תוכן, אלא איך להעריך אותו באופן ביקורתי. לא רק איך להתרגש מטכנולוגיה, אלא איך לדרוש אחריות ממי שמפעיל אותה. כי בסוף, בעתיד שבו המציאות עצמה ניתנת לעריכה – האחריות להבין אותה, שייכת לכולנו.

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

אולי יעניין אותך גם...
guest
0 תגובות
Inline Feedbacks
צפה בכל התגובות
Let's update

רוצים לקבל עדכונים על כל מה שחדש ומעניין בעולם ה-AI? הרשמו לניוזלטר שלנו!

אירועי AI קרובים
שיעור התנסות חינם

תפריט נגישות

תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
וובינר הגברת פרודקטיביות עם AI
21.4.25 (יום שני הקרוב) ב-20:00

המדען התימני שמטשטש את הגבולות בין אמיתי למלאכותי