תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
× Send

כיצד רשתות דיסאינפורמציה חודרות למודלי בינה מלאכותית

איך LLM Grooming עובד בפועל
תוכן עניינים

מחקר חדש חושף שאחת מכל שלוש תשובות של מודלי ה-AI המובילים בעולם מכילות דיסאינפורמציה רוסית על מלחמת אוקראינה. הדו”ח, שפורסם במרץ 2025 על ידי NewsGuard וה-American Sunlight Project, מציב סימן שאלה מטריד – אם אפילו הכלים שאנחנו סומכים עליהם כמקור ידע אמין חוזרים על נרטיבים כוזבים, איך אפשר להבחין בין אמת לשקר בעידן של בינה מלאכותית? במאמר הזה נפרק את הממצאים – נסביר איך התופעה התגלתה, איך פועלת הרשת שמאחוריה, מהו בדיוק LLM Grooming, ולמה חשוב שכל אחד מאיתנו ידע איך להתמודד עם זה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מבצע השפעה דיגיטלי רחב־היקף

החוקרים חשפו רשת פרו-קרמלינית בשם Pravda network, שהפיצה כ-3.6 מיליון כתבות במהלך 2024 בלבד. המטרה של הרשת שונה מהתעמולה המסורתית, היא לא נועדה לשכנע קוראים אנושיים, אלא להציף את האינטרנט בתוכן כך שייאסף על ידי זחלני הרשת (web crawlers) שמשמשים לאימון מודלי בינה מלאכותית.

איך פועלת רשת Pravda

הרשת מורכבת ממאות אתרים ביותר מ-40 שפות כולל עברית, עם שמות שמדמים אתרי חדשות לגיטימיים כמו News-Kiev.ru או Kherson-News.ru. האתרים עצמם נראים לעיתים מגושמים, עם תרגומים שבורים ועיצוב בסיסי, משום שהמטרה אינה למשוך קוראים אנושיים אלא להיתפס בעיני האלגוריתמים כאתרי חדשות אותנטיים. רוב התוכן אינו מקורי אלא ממוחזר מכלי תקשורת רוסיים, והאסטרטגיה כולה נועדה להציף את האינטרנט בכמות עצומה של תוכן כך שייאסף לאימון מודלי AI.

איך LLM Grooming עובד בפועל

התהליך שמכונה LLM Grooming מתרחש בכמה שלבים. קודם כל, רשתות הדיסאינפורמציה מפיצות מיליוני דפי תוכן חדשים בזמן קצר – הצפה שנראית מתוכננת מראש. לאחר מכן, זחלני הרשת של חברות הבינה המלאכותית סורקים את הדפים ומוסיפים אותם למאגרי הנתונים שמשמשים לאימון המודלים.

 

כשהמידע הזה נכנס למאגרי האימון, הוא מתחיל לזהם אותם והאלגוריתם לומד נרטיבים כוזבים לצד מידע אמיתי. התוצאה היא שהמודלים מתחילים לייצר תשובות שחוזרות על אותם נרטיבים, למשל הטענה שזלנסקי אסר על Truth Social (רשת חברתית שהוקמה בידי דונלד טראמפ), טענה שלא התרחשה בפועל.

 

המצב מסתבך עוד יותר כאשר תשובות שגויות שנוצרו על ידי AI מתפרסמות מחדש ברשת, נאספות שוב על ידי אותם זחלנים, ומאומנות בדור הבא של המודלים. כך נוצרת לולאת משוב, תופעה שמומחים מכנים Model Collapse, שמעצימה את הזיהום עם כל מחזור אימון נוסף.

 

אבל איך יודעים שהתהליך הזה באמת משפיע? כאן נכנסים לתמונה הממצאים מהבדיקות שביצעו החוקרים.

מה היו הממצאים?

הבדיקות הראו שהחשש לא תאורטי וההשפעה בפועל משמעותית:

  • 33% מהתשובות שנבדקו הכילו דיסאינפורמציה שמקורה ברשת Pravda.

  • 7 מתוך 10 צ’אטבוטים ציינו אתרי הרשת כמקורות אמינים, ללא כל הסתייגות.

  • זוהו 207 נרטיבים כוזבים שונים, שחוזרים שוב ושוב במודלים שונים.

מחקר נוסף של אוניברסיטת הרווארד חיזק את הממצאים ומצא כי בין 27% ל-44% מהתשובות לשאלות על המלחמה באוקראינה הכילו מידע לא מדויק או חלקי.

 

למרות שמוקד המחקר היה רשת פרו-קרמלינית, מומחים מציינים שהתופעה אינה ייחודית לרוסיה בלבד. קיימים סימנים לכך שגורמים ממדינות ואזורים נוספים, בהם סין, קטאר ואחרים, עושים שימוש בטקטיקות דומות של הצפת תוכן, גם אם בהיקפים או במטרות שונות.

 

עם זאת, לא כל החוקרים מסכימים עם התמונה הזו. רשת Al Jazeera טוענת כי שיעורי הדיסאינפורמציה בפועל נמוכים יותר, וכי חלק מהבדיקות נעשו באמצעות שאלות מכוונות במיוחד כדי “להפיל” את המודלים. יש חוקרים שמזהירים כי חלק מהביקורות עלולות להיות מושפעות משיקולים פוליטיים או אידיאולוגיים, ולכן חשוב לבחון גם את הביקורת באופן ביקורתי.

 

כך או כך, עצם קיומה של מחלוקת מדגיש עד כמה קשה למדוד את ההשפעה באופן אובייקטיבי, וכמה חשוב להמשיך לחקור את התופעה כדי להבין את היקפה האמיתי.

המשמעות הרחבה

הגילויים האלו מסמנים שינוי מהותי במלחמת המידע. במקום לנסות לשכנע אנשים אחד-אחד, מבצעי דיסאינפורמציה פונים ישירות אל מערכות המידע עצמן. פרופ’ נינה יאנקוביץ’ מה-American Sunlight Project מתארת זאת כ”הסלמה משמעותית” ומזהירה כי כאשר מודלים של בינה מלאכותית מתחילים לשחזר נרטיבים פרו-קרמליניים, כל משתמש במערכות הללו עלול להיחשף לתוכן מוטה גם בלי לדעת.

 

החשש אינו רק תיאורטי. מומחים מזהירים שעם הזמן עלולה להיווצר פגיעה באמון הציבורי בבינה מלאכותית, מה שיפגע ביכולת להשתמש בה ככלי עבודה מהימן בתחומים כמו חינוך, עיתונות, ואפילו קבלת החלטות ממשלתיות.

 

הבעיה מחריפה לנוכח פערי הרגולציה. באיחוד האירופי חוק ה-AI Act עדיין לא כולל סעיפים שמטפלים ב-LLM Grooming, ובארה”ב הדיונים בקונגרס מתקדמים לאט מהקצב שבו מתפתחת הטכנולוגיה.

מה אפשר לעשות בפועל

לחברות הטכנולוגיה – אחריות בנתוני האימון

חברות ה-AI חייבות להתחיל להתייחס למקורות האימון שלהן כמו שרשרת אספקה קריטית. המשמעות היא סינון אקטיבי של אתרים שמזוהים כמפיצי דיסאינפורמציה, פרסום שקוף של מאגרי הנתונים שבהם השתמשו, ופיתוח אלגוריתמים שמזהים הצפות חשודות בזמן אמת. בלי מהלכים כאלה, מערכות הבינה המלאכותית ימשיכו להיות פגיעות להשפעות זדוניות.

למשתמשים – אחריות אישית באימות מידע

גם לנו יש תפקיד. לפני שמסתמכים על תשובה של צ’אטבוט, במיוחד בנושאים פוליטיים או ביטחוניים, כדאי לעצור ולבדוק את המקור. כלים כמו NewsGuard ו-FactCheck.org מאפשרים לבדוק את אמינות האתר. סימנים כמו דומיינים מוזרים, עיצוב בסיסי או תרגום שבור צריכים להדליק נורה אדומה. השוואה מהירה מול מקור חדשות מרכזי יכולה למנוע הפצה לא מודעת של מידע שגוי.

לרגולטורים – סגירת פערי ההגנה

ברמה המדינית, נדרש עדכון רגולציה. חוקי ה-AI באירופה ובארה”ב צריכים לכלול סעיפים שמתייחסים במפורש ל-LLM Grooming ולחייב חברות לפרסם את מקורות האימון. בנוסף, השקעה בתוכניות לאוריינות דיגיטלית ושיתופי פעולה בינלאומיים תעזור לבלום את ההשפעה של רשתות דיסאינפורמציה חוצות גבולות.

 

 

המדריכים תמיד חינמיים, אבל אם בא לכם להתמקצע - יש גם קורס מקיף לבינה מלאכותית - GenAI Master
קורס מאסטר בבינה מלאכותית Master GenAI

 

הסיפור של LLM Grooming הוא לא סוגיה טכנית שולית – הוא שאלה של אמון. בכל פעם שאנחנו פונים למודל AI כדי לקבל תשובה, אנחנו מניחים שהמידע שמוצג לנו מבוסס ועובדתי. אם המודלים עצמם מתחילים לשחזר נרטיבים כוזבים, אנחנו עלולים לקבל החלטות אישיות או ציבוריות על בסיס מציאות מעוותת.

 

השאלה האמיתית היא לא אם מבצעי דיסאינפורמציה ימשיכו להשתמש בשיטה הזו, אלא האם נצליח, כחברות טכנולוגיה, כרגולטורים וכמשתמשים, לפתח מנגנוני הגנה מספיק מהר. זה מאבק משותף – השקיפות של החברות, האחריות האישית של המשתמשים והחוק שמגדיר כללים – כולם חלק מהפתרון.

 

המודעות היא הצעד הראשון. ככל שיותר אנשים יבינו את הסיכון ויאמצו הרגלים של בדיקת מקורות ואימות מידע, כך נצמצם את ההשפעה של דיסאינפורמציה ונחזק את האמון במערכות הבינה המלאכותית שאנחנו מסתמכים עליהן.

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

רוצים הרצאה או ייעוץ של רון גולד?
השאירו פרטים ונשמח לחזור אליכם עם המידע הרלוונטי
אולי יעניין אותך גם...
guest
0 תגובות
Inline Feedbacks
צפה בכל התגובות
Let's update

רוצים לקבל עדכונים על כל מה שחדש ומעניין בעולם ה-AI? הרשמו לניוזלטר שלנו!

אירועי AI קרובים
וובינר הטמעת AI בארגונים

תפריט נגישות

תוצאות נוספות...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
איך להפוך לתותח אוטומציות וסוכנים תוך 3 חודשים
09/09/2025 - בשעה 20:00