בינה מלאכותית ועולם המשפט | Let's AI בינה מלאכותית https://letsai.co.il/articles/law-ai/ בינה מלאכותית Wed, 07 Jan 2026 10:35:54 +0000 he-IL hourly 1 https://wordpress.org/?v=6.8.3 https://letsai.co.il/wp-content/uploads/2024/03/cropped-logo-lets-ai-32x32.webp בינה מלאכותית ועולם המשפט | Let's AI בינה מלאכותית https://letsai.co.il/articles/law-ai/ 32 32 לקראת אוגוסט 2026: כך ישפיע חוק ה-AI האירופי על חברות וארגונים מישראל https://letsai.co.il/eu-ai-act-preparation/ https://letsai.co.il/eu-ai-act-preparation/#respond Wed, 07 Jan 2026 07:50:04 +0000 https://letsai.co.il/?p=67787 אוגוסט 2026 נשמע רחוק, אבל עבור ארגונים שעובדים עם בינה מלאכותית, השעון כבר רץ. חוק הבינה המלאכותית של האיחוד האירופי נכנס ליישום מדורג, וחלקים ממנו כבר חלים בפועל. עבור חברות ישראליות שפועלות באירופה, או כאלה שמשתמשות ב-AI כחלק מהמוצר או התפעול, זו כבר לא שאלה תיאורטית אלא החלטה עסקית עם השלכות מיידיות. במאמר הזה נציג […]

הפוסט לקראת אוגוסט 2026: כך ישפיע חוק ה-AI האירופי על חברות וארגונים מישראל הופיע ראשון בLet's AI בינה מלאכותית

]]>
אוגוסט 2026 נשמע רחוק, אבל עבור ארגונים שעובדים עם בינה מלאכותית, השעון כבר רץ. חוק הבינה המלאכותית של האיחוד האירופי נכנס ליישום מדורג, וחלקים ממנו כבר חלים בפועל. עבור חברות ישראליות שפועלות באירופה, או כאלה שמשתמשות ב-AI כחלק מהמוצר או התפעול, זו כבר לא שאלה תיאורטית אלא החלטה עסקית עם השלכות מיידיות. במאמר הזה נציג סקירה ברורה ומעשית של עיקרי החוק, ציר הזמן הרלוונטי, והצעדים שארגונים בישראל צריכים להכיר כבר עכשיו לקראת התחולה המלאה באוגוסט 2026.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

בין רעש רגולטורי למציאות משפטית

בפברואר 2025 עסקנו כאן לראשונה בחוק הבינה המלאכותית של האיחוד האירופי (AI Act) כרגולציה המקיפה הראשונה בעולם שמנסה להסדיר את השימוש בבינה מלאכותית בקנה מידה רחב. כבר אז היה ברור שמדובר בחוק שאינו נשאר בגבולות אירופה בלבד, אלא צפוי להשפיע גם על חברות ישראליות שמפתחות, מטמיעות או מוכרות פתרונות AI לשוק האירופי. בדומה ל-GDPR, המחוקק האירופי סימן כיוון: בטיחות, אחריות ושקיפות, גם במחיר של חובות רגולטוריות חדשות לארגונים.

 

שנת 2025 עצמה הייתה שנה מבלבלת בשיח סביב החוק. מצד אחד, דיווחים חוזרים על לחץ מצד התעשייה ומדינות באירופה לדחות את היישום, בעיקר סביב החובות על מודלים כלליים (General-Purpose AI – GPAI) והעיכוב בפרסום קוד הפרקטיקה שאמור להנחות את השוק. מצד שני, עמדת הנציבות האירופית נותרה עקבית – אין “עצירת שעון”, והחוק מתקדם לפי לוח הזמנים שנקבע.

 

נכון לתחילת 2026, החוק עצמו לא שונה. קיימות הצעות לתיקונים ולדחיות נקודתיות, בעיקר בכל הנוגע למערכות בסיכון גבוה, אך אלה מצריכות תהליך חקיקה מלא שטרם הושלם. עבור ארגונים, המשמעות ברורה: מתכננים לפי החוק הקיים, ומנהלים מעקב שוטף אחר שינויים, לא להפך.

ציר הזמן שכל ארגון צריך להכיר

היישום של חוק ה-AI אינו אירוע חד-פעמי אלא תהליך מדורג. בפברואר 2025 נכנסו לתוקף האיסורים על פרקטיקות מסוימות, כמו מערכות דירוג חברתי, לצד חובת אוריינות בינה מלאכותית שמחייבת ארגונים לוודא שהעובדים מבינים כיצד להשתמש ב-AI בצורה אחראית. באוגוסט 2025 החלו לחול חובות ייעודיות על ספקי מודלים כלליים, במקביל להקמת מנגנוני ממשל ואכיפה ברמת האיחוד.

 

נקודת הייחוס המרכזית עבור מרבית הארגונים היא אוגוסט 2026, אז נכנסת לתוקף התחולה הכללית של החוק. המשמעות הניהולית היא שאין יותר מדי “זמן חסד”. חלק מהחובות כבר כאן, והיערכות מוקדמת היא הדרך היחידה לצמצם סיכון רגולטורי ולהימנע מהפתעות לא נעימות בהמשך.

החוק חל גם על חברות ישראליות

אחת הנקודות שממשיכות להפתיע מנהלים בישראל היא התחולה האקס-טריטוריאלית של חוק ה-AI. בניגוד לאינטואיציה, מיקום החברה כמעט ואינו רלוונטי. אם המוצר שלכם מוצב בשוק האירופי, או אם יש לכם משתמשים, לקוחות או שותפים באיחוד, אתם נמצאים בתחום התחולה של החוק. זה נכון לחברות SaaS, לפלטפורמות B2B, וגם לארגונים שמספקים פתרונות מבוססי בינה מלאכותית כחלק משירות רחב יותר.

 

עבור ארגונים ישראלים שפועלים בזירה גלובלית, המשמעות היא שחוק ה-AI אינו “בעיה אירופית”, אלא שיקול תפעולי ועסקי שצריך להיכנס לשולחן ההנהלה.

ספקים מול משתמשים: מי אחראי ועל מה

אחרי שמבינים שהחוק חל גם עליכם, השאלה הבאה היא איזה תפקיד רגולטורי אתם ממלאים. החוק מבצע הבחנה ברורה בין שני תפקידים מרכזיים. ספק (Provider) הוא מי שמפתח או משווק מערכת בינה מלאכותית תחת שמו. משתמש או מפעיל (Deployer) הוא מי שמטמיע מערכת כזו בתוך הארגון או כחלק משירות שהוא מספק.

 

ההבחנה הזו אינה סמנטית. ספקים נושאים באחריות רחבה יותר, במיוחד כאשר מדובר במערכות בסיכון גבוה, ונתבעים להוכיח תיעוד, ניהול סיכונים וממשל טכנולוגי. משתמשים נדרשים בעיקר לשימוש אחראי, שקיפות והכשרת עובדים. בפועל, לא מעט חברות הן גם ספק וגם משתמש, ולכן נדרשות לבחון כל מערכת בינה מלאכותית בנפרד ולא להסתפק בהגדרה אחת גורפת.

סיווג הסיכון והשלכות עסקיות

לב ליבה של רגולציית ה-AI האירופית הוא סיווג סיכון. החוק אינו שואל רק “האם יש כאן בינה מלאכותית”, אלא עד כמה השימוש בה עלול להשפיע על זכויות, בטיחות והזדמנויות של אנשים. מערכות שמעורבות בקבלת עובדים, מתן אשראי, תמחור ביטוח או קבלת החלטות רפואיות עשויות להיחשב כמערכות “בסיכון גבוה”.

 

חשוב להדגיש, סיווג כזה אינו אוסר על השימוש במערכת, אלא מגדיר רף גבוה יותר של אחריות. ארגונים נדרשים לעמוד בדרישות מחמירות יותר של תיעוד, ניהול סיכונים, פיקוח אנושי ושקיפות. בפועל, זה משפיע ישירות על אופן הפיתוח, ההטמעה והתחזוקה של המערכת לאורך זמן.

 

גם מערכות שאינן מסווגות כ”סיכון גבוה” אינן פטורות מחובות. צ’אטבוטים, מערכות ג׳נרטיביות וממשקים שבהם משתמש עלול לחשוב שהוא מתקשר עם בן אדם מחויבים בשקיפות בסיסית. עבור ארגונים רבים, אלו בדיוק המקומות שבהם נדרש שינוי קטן בממשק או בניסוח, אך כזה שיש לו משמעות רגולטורית ברורה.

 

החוק כולל מנגנוני אכיפה וקנסות משמעותיים, עם תקרות שיכולות להגיע עד 35 מיליון אירו או עד 7% מהמחזור העולמי של החברה, הגבוה מביניהם, בהתאם לסוג ההפרה. עבור הפרות אחרות, החוק קובע תקרות נמוכות יותר אך עדיין משמעותיות. עם זאת, האכיפה אינה פועלת ככפתור אדום שסוגר שווקים בן לילה.

 

לרשויות יש סל כלים רחב, החל מדרישות תיקון והגבלות שיווק, ועד קנסות מנהליים במקרים חמורים. עבור הנהלות, המשמעות היא סיכון תפעולי ומסחרי מתמשך, ולא רק שאלה משפטית נקודתית.

GPAI וקוד הפרקטיקה כשכבת רגולציה נפרדת

ארגונים שמפתחים מודלים כלליים, כמו מודלי שפה או תמונה, נכנסים לשכבה רגולטורית ייעודית בחוק. מדובר במודלים רב-שימושיים שיכולים לשמש כבסיס למגוון רחב של יישומים, ולכן המחוקק האירופי בחר להתייחס אליהם בנפרד. כאן נכנס לתמונה קוד הפרקטיקה, שנועד לשמש מסלול וולונטרי שיסייע להדגים עמידה בדרישות החוק.

 

במהלך 2025 נרשמה אי ודאות סביב לוחות הזמנים של הקוד, והלחץ לדחייה נבע בעיקר מהמורכבות הטכנית והארגונית הכרוכה ביישום החובות על מודלי GPAI. חשוב להבין, החובות עצמן כבר מעוגנות בחוק. קוד הפרקטיקה נועד להקל על היישום ולהציע מסגרת עבודה מוסכמת, אך הוא אינו תנאי לקיומן של החובות ואינו מחליף אותן. עבור מפתחי מודלים, המשמעות היא צורך להיערך גם אם המסגרת הוולונטרית עדיין מתגבשת.

AI literacy

אחד הסעיפים הפחות דרמטיים אך המשמעותיים ביותר בחוק הוא חובת אוריינות הבינה המלאכותית. כל ארגון שמשתמש ב-AI נדרש לנקוט צעדים סבירים כדי לוודא שהעובדים מבינים מה הם עושים, מה מותר ומה אסור, ואילו סיכונים קיימים בשימוש במערכות כאלה. החובה הזו חלה כבר מפברואר 2025, ולא נדחתה לשלב מאוחר יותר.

 

עבור מנהלים, מדובר ב-Quick win מובהק. הדרכה קצרה, נהלים ברורים ותיעוד בסיסי לא רק מספקים מענה רגולטורי, אלא גם משמשים כלי ניהולי שמקטין טעויות, מחדד אחריות ומעלה את רמת המקצועיות בארגון. זהו אחד המקרים הנדירים שבהם ציות ויעילות הולכים יד ביד.

תקצוב חכם

אחת הטעויות הנפוצות בשיח סביב חוק ה-AI היא ניסיון להצמיד לו תג מחיר אחיד. בפועל, הגישה הנכונה היא מודל תקצוב ולא סכום קבוע. העלות תלויה בשלושה גורמים עיקריים: היבטים רגולטוריים ומשפטיים, בדיקות ואבטחת איכות טכנית, ותיעוד וממשל פנימי.

 

ארגון עם מספר מערכות פשוטות ושימושים מוגבלים יידרש להיערכות שונה לחלוטין מארגון שמפתח מודלים קריטיים לשוק הפיננסי או הרפואי. ההבנה הזו מאפשרת תכנון ריאלי, הדרגתי ושקול, במקום תגובה בלחץ לרגולציה שנתפסת כמאיימת.

מה עושים עכשיו

הצעד הראשון שאינו תלוי בדחיות, תיקונים או פרשנויות עתידיות הוא מיפוי. לדעת אילו מערכות בינה מלאכותית קיימות בארגון, מי משתמש בהן, לאילו שימושים, והאם יש להן נגיעה לשוק האירופי. במקביל, חשוב להתחיל בשקיפות בסיסית מול משתמשים ובהכשרת עובדים. אלה צעדים פשוטים יחסית, אך כאלה שמייצרים שליטה, סדר והפחתת סיכון, גם אם לוח הזמנים הרגולטורי עוד ישתנה.

 

חוק הבינה המלאכותית האירופי הוא לא עוד רגולציה חולפת. בדומה ל-GDPR, הוא צפוי להפוך לסטנדרט ייחוס עולמי שישפיע גם מעבר לגבולות האיחוד. עבור ארגונים ישראלים, ההיערכות אינה רק עניין של ציות, אלא הזדמנות לבנות תשתית AI אחראית, שקופה ובוגרת יותר. מי שיתחיל עכשיו, יגיע לאוגוסט 2026 ללא לחץ וללא הפתעות, עם הבנה, שליטה ויתרון תפעולי ברור.

 

האמור במאמר זה הוא סקירה כללית ואינו מהווה ייעוץ משפטי. יישום חוק ה-AI בפועל תלוי בנסיבות הספציפיות של כל ארגון, ולכן מומלץ להיעזר בייעוץ משפטי או רגולטורי המתמחה בחוק הבינה המלאכותית האירופי.

הפוסט לקראת אוגוסט 2026: כך ישפיע חוק ה-AI האירופי על חברות וארגונים מישראל הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/eu-ai-act-preparation/feed/ 0
המדריך ל-NotebookLM לעו”ד בתיקי ליטיגציה https://letsai.co.il/litigation-notebooklm-guide/ https://letsai.co.il/litigation-notebooklm-guide/#respond Sat, 27 Dec 2025 13:51:23 +0000 https://letsai.co.il/?p=66998 איך להפוך תיק של אלפי עמודים לתובנות משפטיות מזוקקות בתוך דקות – בבטחה וביעילות? דמיינו את התרחיש הבא (אתם כנראה לא צריכים לדמיין, אתם חיים אותו): יום חמישי בערב, הצד שכנגד מגיש באיחור “תיק מוצגים” שכולל מאות עמודי PDF סרוקים, תדפיסי בנק וקבלות. ביום ראשון בבוקר יש לכם דיון קדם משפט, ואתם חייבים לשלוט בחומר […]

הפוסט המדריך ל-NotebookLM לעו”ד בתיקי ליטיגציה הופיע ראשון בLet's AI בינה מלאכותית

]]>
איך להפוך תיק של אלפי עמודים לתובנות משפטיות מזוקקות בתוך דקות – בבטחה וביעילות? דמיינו את התרחיש הבא (אתם כנראה לא צריכים לדמיין, אתם חיים אותו): יום חמישי בערב, הצד שכנגד מגיש באיחור “תיק מוצגים” שכולל מאות עמודי PDF סרוקים, תדפיסי בנק וקבלות. ביום ראשון בבוקר יש לכם דיון קדם משפט, ואתם חייבים לשלוט בחומר ברמת הפסיק. עד היום, האפשרויות היו: לילות לבנים של קריאה רפרופית, או הסתמכות על מתמחה עייף שעלול לפספס פרטים. היום, יש אפשרות שלישית שמשנה את כללי המשחק: NotebookLM. מדריך זה נכתב במיוחד עבורכם, על ידי עורכת דין שעוסקת בליטיגציה כבר למעלה מ-20 שנה. אני כותבת מתוך השטח, כמי שחיה את בתי המשפט, מכירה את הלחץ שלפני דיון הוכחות, ומשתמשת בכלי הזה ביום-יום (Walk the Talk) כדי להגיע מוכנה יותר, חדה יותר ויעילה יותר.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

מה זה בעצם NotebookLM?

NotebookLM הוא כלי מחקר ושיתוף פעולה מבוסס בינה מלאכותית מבית גוגל. בשונה ממודלים “כלליים” כמו ChatGPT, Claude או Gemini, שאומנו על כל האינטרנט ועשויים “להזות” עובדות, NotebookLM הוא מודל שפה “מקורקע” (Grounded AI).

תחשבו עליו כעל “מתמחה-על” סופר-אינטליגנט, שקרא אך ורק את המסמכים שנתתם לו עבור התיק הספציפי. כשאתם שואלים אותו שאלה, הוא לא ממציא תשובה מהאוויר, אלא סורק את המסמכים שהעליתם, מוצא את המידע הרלוונטי, ומנגיש לכם אותו עם הפניות מדויקות למקור (ציטוטים).

מה הוא עושה בשטח עבור עו”ד ליטיגטור?

סיכום מהיר וניתוח פסיקה: לא רק סיכום מסמכים, אלא היכולת להזין פסקי דין רלוונטיים ולבקש מהכלי לחלץ תובנות משפטיות שיתאימו בדיוק לנסיבות התיק שלכם.

איתור סתירות (“האקדח המעשן”): השוואה כירורגית בין גרסאות – למשל, בין הנאמר בתצהירים לבין חקירה במשטרה, פרוטוקולים מדיונים קודמים או כתבי טענות.

סיוע בכתיבת סיכומים: זיקוק מטרות התיק, הגדרת יסודות העילה שנדרש להוכיח, וריכוז הנקודות העיקריות והראיות התומכות לכל טענה כדי לבנות שלד לסיכומים מנצחים.

מפת חשיבה ובניית ציר זמן

מפת חשיבה (Bird’s-eye view): קבלת תמונת מבט מלמעלה על התיק, מיפוי הדמויות המרכזיות והקשרים ביניהן.

בניית ציר זמן: חילוץ תאריכים ואירועים מתוך ערימות של נספחים ליצירת כרונולוגיה מסודרת.

הכנה לחקירה: איתור נקודות תורפה בטיעוני הצד שכנגד.

כלל הברזל: אבטחת מידע, חיסיון והתממה

לפני שצוללים לפרקטיקה, זהו הסעיף החשוב ביותר. עבודתנו כוללת מידע רגיש, פרטים מזהים (PII) וסודות לקוח.

עבודה בסביבה סגורה והתממה

ההמלצה המקצועית היא לעבוד דרך חשבון ארגוני מאובטח – Google Workspace (חשבון עסקי בתשלום). גוגל מצהירה כי בגרסאות אלו, המידע שאתם מעלים אינו משמש לאימון המודלים הכלליים שלהם ונשאר ב”סילו” סגור שלכם.

גם בסביבה מאובטחת, עלינו לנקוט משנה זהירות. לפני העלאת מסמכים הכוללים פרטים רגישים (שמות קטינים, מספרי ת.ז, חשבונות בנק), יש לבצע התממה:

דיגיטלית: שימוש בכלי עריכת PDF למחיקת הטקסט (Redaction).

פיזית: השחרה עם טוש שחור וסריקה מחדש.

המדריך המעשי: הכנת תיק ליטיגציה (דוגמת תביעת מזונות)

כדי להמחיש את היכולות, ניקח דוגמה מעשית מהשטח: תביעת מזונות ילדים ומדור. התיק עמוס בדפי חשבון, תלושי שכר, הרצאות פרטים וכתבי טענות סותרים.

שלב 1: הקמת ה”מחברת” (Notebook)

נכנסים ל-NotebookLM דרך החשבון המאובטח. יוצרים מחברת חדשה ובקצה ימני עליון של הממשק נחליף את שם המחברת, למשל: “תיק משפחה פלוני – מזונות”.

העלאת מקורות: מעלים את המסמכים המותממים, למשל: כתב התביעה, כתב ההגנה, הרצאת פרטים של שני הצדדים, תלושי שכר (מקובצים ל-PDF אחד), דפי חשבון בנק, ופרוטוקול קדם משפט ראשון.

 

מסך העלאת מקורות

מסך העלאת מקורות

שלב 2: ניתוח ראשוני והכנה לקדם משפט

המטרה: להבין את הפערים הכלכליים ואת צרכי הקטינים כפי שהם משתקפים מכתבי הטענות, ולהגיע לדיון עם רשימת נושאים סגורה, אסטרטגית ומסודרת.

 

פרומפט מומלץ להכנת התיק:

"אני מתכונן לדיון קדם משפט. בהתבסס על כל המסמכים בתיק, צור עבורי מסמך הכנה לדיון הכולל:

פרטי הצדדים בתיק (שמות מלאים, ת.ז, גילאים כפי שמופיעים במסמכים).

סכם את הנקודות שיש לגביהן הסכמה וניתן לקדם לגביהן הסכמה פורמלית בדיון. לגבי הנקודות שאין לגביהן הסכמה (הפלוגתאות) - פרט מה טענות הצדדים ומה הטענה שניתן להעלות בפני ביהמ"ש בנקודה זו לטובת הלקוח שלי.

רשימת מסמכים חסרים שעליי לדרוש מהצד השני במסגרת גילוי מסמכים ספציפי או בדיון קדם משפט.

טבלה משווה בין צרכי הקטינים הנטענים על ידי התובעת לבין הסכומים שהנתבע מודה בהם."

 

פרומפט נוסף לניתוח כלכלי:

"נתח את הרצאת הפרטים של הנתבע אל מול דפי החשבון שצירף. האם ישנן הוצאות קבועות או הכנסות המופיעות בדפי החשבון אך לא דווחו בהרצאת הפרטים?"

שלב 3: שלב ההוכחות והחקירות (הכסף הגדול)

כאן אנחנו מחפשים את הסתירות הקטנות שמפילות תיקים. נשווה בין מה שנאמר בתצהיר לבין מה שנאמר בעל-פה בדיונים קודמים או במסמכים אחרים.

 

פרומפט לאיתור סתירות:

"עבור על כל החומר בתיק: תצהירי עדות ראשית, כתב ההגנה, ופרוטוקול הדיון מיום 10.2.23. השווה את גרסאות הנתבע בנוגע להכנסתו הנוספת מעבודות פרטיות. הצג כל סתירה בין הגרסאות, כולל הפניה מדויקת (ציטוט) למסמך ולעמוד בו מופיעה כל גרסה."

 

פרומפט להכנת חקירה נגדית:

"אני מכין חקירה נגדית לאם (התובעת). היא טוענת בתצהיר להוצאות מדור גבוהות. בדוק את הסכם השכירות שצורף ואת דפי הבנק שלה - האם ישנן ראיות לכך שהיא חולקת את הדירה עם צד ג' או שהסכומים המשולמים בפועל נמוכים מהנטען? צטט את הממצאים."

פרומפט לסקירת על (מפת חשיבה)

"צור מפת חשיבה (סקירה מושגית) של התיק: מי הן הדמויות המעורבות (כולל סבים/סבתות אם הוזכרו כגורם מממן), ומהם מקורות ההכנסה השונים שהוזכרו לאורך כל המסמכים בתיק."

שלב 4: הכנת סיכומים

בסוף ההליך, הניירת עצומה. אנחנו צריכים לזקק את הטיעונים המשפטיים ולבסס אותם על ראיות בצורה שתקל על כתיבת הסיכומים.

 

פרומפט שלב א’ – הגדרת המטרות:

"רכז עבורי בנקודות ברורות מהן מטרות התיק שעלינו להוכיח בסיכומים כדי לזכות במזונות המקסימליים, ומהם יסודות העילה שנדרש לבסס בהתבסס על כתבי הטענות שלנו."

 

פרומפט שלב ב’ – איתור הראיות לסיכומים:

"כעת, עבור כל נקודה שציינת למעלה, מצא את הראיות התומכות מתוך פרוטוקולי ההוכחות והמוצגים. צור טבלה: בעמודה אחת הטענה, ובעמודה השנייה הציטוט המדויק מהעדויות או המסמכים שמוכיח אותה."

 

הכנה לקראת חקירות

הכנה לקראת חקירות

בונוס לזמן פקקים: הפודקאסט האישי שלכם (עכשיו גם בעברית!)

זהו אחד הפיצ’רים המרשימים והשימושיים ביותר עבור עורכי דין עמוסים. NotebookLM מציע פיצ’ר שנקרא Audio Overview, שמייצר מעין “פודקאסט” בו שני מנחי AI משוחחים על החומרים שהעליתם.

החדשות הטובות? זה עובד מעולה גם בעברית. אתם יכולים לשמוע דיון אינטליגנטי על התיק שלכם, שמציף זוויות ראייה חדשות וקשרים שלא תמיד רואים בקריאה רגילה.

טיפ זהב לעבודה מהנייד האישי

לכלי יש גם ממשק מותאם לנייד, מה שאומר שאתם יכולים להעלות מסמכים (למשל, בקשה דחופה שנחתה לכם במייל) ישירות מהטלפון הנייד. כך שרגע לפני הנסיעה לבית המשפט, אתם יכולים להעלות את החומר, להפעיל את ה-Audio Overview, ולהגיע לדיון אחרי ש”שמעתם את התיק” במהלך הפקקים.

לסיכום

כעורכת דין, אני יכולה להעיד ש-NotebookLM הוא מכפיל כוח אמיתי. הוא לא מחליף את שיקול הדעת המשפטי שלנו, אבל הוא חוסך לנו את העבודה הטכנית הסיזיפית ומאפשר לנו להגיע לדיון כשכל העובדות פרושות לפנינו.

התחילו בקטן: קחו תיק שכבר הסתיים, בצעו התממה, העלו אותו למערכת ונסו לאתגר אותה. התוצאות ידברו בעד עצמן.

הפוסט המדריך ל-NotebookLM לעו”ד בתיקי ליטיגציה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/litigation-notebooklm-guide/feed/ 0
ה-AI הישראלי שיחסוך לכם עו”ד בתביעות קטנות https://letsai.co.il/flash-justice/ https://letsai.co.il/flash-justice/#respond Wed, 17 Sep 2025 07:42:44 +0000 https://letsai.co.il/?p=59074 סטארטאפ ישראלי בשם Flash Justice מנסה לעשות מהפכה בבתי המשפט ומשיק כלי בינה מלאכותית חדש בשם “התובע”, שמטרתו להפוך את הליך התביעות הקטנות לנגיש ופשוט לכל אחד, גם בלי עורך דין או ידע משפטי מקדים. המערכת יודעת לנסח בתוך דקות כתב תביעה תקני להגשה בבית המשפט, ובכך להתמודד עם אחת הבעיות המרכזיות שמרתיעות אזרחים מהגשת […]

הפוסט ה-AI הישראלי שיחסוך לכם עו”ד בתביעות קטנות הופיע ראשון בLet's AI בינה מלאכותית

]]>
סטארטאפ ישראלי בשם Flash Justice מנסה לעשות מהפכה בבתי המשפט ומשיק כלי בינה מלאכותית חדש בשם “התובע”, שמטרתו להפוך את הליך התביעות הקטנות לנגיש ופשוט לכל אחד, גם בלי עורך דין או ידע משפטי מקדים. המערכת יודעת לנסח בתוך דקות כתב תביעה תקני להגשה בבית המשפט, ובכך להתמודד עם אחת הבעיות המרכזיות שמרתיעות אזרחים מהגשת תביעה – טעויות טכניות שמובילות לפסילה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

טעויות שמחסלות תביעות

לכאורה, בתי המשפט לתביעות קטנות נועדו לאפשר לכל אזרח להגן על זכויותיו בקלות, בלי ייצוג משפטי יקר. בפועל, מדי שנה נזרקות לפח תביעות בהיקף של כ־100 מיליון שקלים, רק בגלל פגמים טכניים בהגשה. זו לא רק בעיה כספית אלא גם חברתית – אנשים מוותרים על מימוש זכויותיהם בגלל הבירוקרטיה.

כתב תביעה מדויק בדקות

כאן נכנס לתמונה “התובע” – מערכת שמבטיחה להקטין את שיעור הפסילות, ולהגיש כתב תביעה ברמה שמחזקת את עמדת התובע בדיון או בפשרה. לדברי היזמים, הכלי עבר אימון ייעודי על אלפי תיקים אמיתיים מבתי משפט בישראל. הוא מחובר ישירות למידע הרשמי של מערכת המשפט כדי להבטיח עדכניות ולמנוע “הזיות” – אחת הבעיות הידועות של מודלי שפה כמו ChatGPT.

כמה זה עולה?

Flash Justice מציעה שלושה מסלולים:

  • טיוטה בלבד: ניסוח כתב תביעה בפורמט עריכה, ב־149 ש”ח.
  • טיוטה + הגשה: ניסוח התביעה והגשה לבית המשפט, ב־399 ש”ח.
  • מודל הצלחה בלבד: תשלום של אגרת בית המשפט ו־20% מהסכום שייפסק לטובתכם. אם מפסידים – לא משלמים בכלל.

ומה אומרים הנתונים?

על פי דיווחי החברה, במסגרת פיילוט ראשוני הוגשו באמצעות הכלי כ־300 תביעות קטנות. אף אחת מהן לא נפסלה מסיבות טכניות, ו־85% מהמשתמשים דיווחו כי ניצחו בתביעה או הגיעו להסדר פשרה. ההצלחה הזו חיזקה את אמון הצוות במוצר והייתה נקודת המפנה שהובילה אותם לתכנן את הצעד הבא – התרחבות לשוק הבינלאומי.

 

תחום התביעות הקטנות בישראל מוערך בכחצי מיליארד שקלים בשנה. אבל הפוטנציאל הגדול באמת נמצא מעבר לים – בארה”ב, שם מדובר בשוק של כ-4 מיליארד דולר. 

ומה עם הסיכונים?

לצד ההבטחה הגדולה, יש שאלות שעדיין פתוחות: מה קורה אם המערכת תפיק כתב תביעה שגוי מהותית – האם החברה נושאת באחריות? ומה עמדת לשכת עורכי הדין כלפי כלים כאלה, שמייתרים בחלק מהמקרים את הצורך בעורכי דין? וגם, האם קלות השימוש לא תוביל להצפה של תביעות סרק, שתכביד עוד יותר על מערכת המשפט? שאלות כאלה עשויות להעסיק בקרוב את הרגולטור ולבחון את גבולות השימוש בבינה מלאכותית במערכת המשפט.

 

 

בין בירוקרטיה לצדק נגיש

בימים שבהם ההליך המשפטי נתפס כיקר, איטי ומתיש, Flash Justice מנסה להנמיך את אחד החסמים המשמעותיים ביותר בהגנה על זכויות בסיסיות. אם תוצאות הפיילוט יישמרו לאורך זמן, “התובע” עשוי להיות לא רק כלי טכנולוגי חדשני, אלא סמל למאבק על נגישות הצדק בעידן הדיגיטלי.

הפוסט ה-AI הישראלי שיחסוך לכם עו”ד בתביעות קטנות הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/flash-justice/feed/ 0
הקרב הגדול של הסופרים נגד אנטרופיק מגיע לבית המשפט https://letsai.co.il/anthropic-copyright-roadblock/ https://letsai.co.il/anthropic-copyright-roadblock/#respond Tue, 09 Sep 2025 13:10:28 +0000 https://letsai.co.il/?p=58415 ביום שני שעבר בסן-פרנסיסקו, שופט פדרלי בשם וויליאם אלסאפ (William Alsup) עצר את מה שנחשב להסדר הפיצוי הגדול בהיסטוריה של זכויות יוצרים בארה”ב – 1.5 מיליארד דולר. לא מדובר בדחייה סופית, אלא בעצירה משמעותית שמעלה שאלות לא רק על גורל מאות אלפי ספרים שנעשה בהם שימוש, אלא גם על העתיד של יחסי AI וזכויות יוצרים. […]

הפוסט הקרב הגדול של הסופרים נגד אנטרופיק מגיע לבית המשפט הופיע ראשון בLet's AI בינה מלאכותית

]]>
ביום שני שעבר בסן-פרנסיסקו, שופט פדרלי בשם וויליאם אלסאפ (William Alsup) עצר את מה שנחשב להסדר הפיצוי הגדול בהיסטוריה של זכויות יוצרים בארה”ב – 1.5 מיליארד דולר. לא מדובר בדחייה סופית, אלא בעצירה משמעותית שמעלה שאלות לא רק על גורל מאות אלפי ספרים שנעשה בהם שימוש, אלא גם על העתיד של יחסי AI וזכויות יוצרים. אז מה קרה כאן, ולמה זה סיפור שכל מי שמתעניין בטכנולוגיה, משפט ותרבות חייב להכיר?

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

איך נולד ההסדר

חברת Anthropic, מפתחת המודל Claude, הואשמה שאימנה את הבינה המלאכותית שלה על מיליוני ספרים שהורדו מאתרים פיראטים כמו Library Genesis ו־Books3. בתביעה ייצוגית דרשו בעלי הזכויות פיצוי, וההסדר שהוגש לבית המשפט דיבר על סכום עתק של 1.5 מיליארד דולר, כ־3,000 דולר לכל ספר שהפרתו הוכחה. לכאורה, הישג דרמטי לסופרים. בפועל, השופט עצר את החגיגה.

למה השופט בלם את ההסכם

אלסאפ לא הסתפק במספרים. הוא דרש שקיפות ורשימה מלאה של הספרים הכלולים, טפסי תביעות והוכחה שכל בעלי הזכויות יקבלו הודעה אמיתית על זכותם להצטרף או לפרוש. הוא הזהיר מפני מצב שבו “ההסכם נדחף לגרון הכותבים” בלי שניתנה להם בחירה אמיתית. בקיצור, בלי פרטים מלאים – אין אישור.

מי נשאר מחוץ למשחק

ביקורת מרכזית נגעה לכך שההסדר חל רק על ספרים שנרשמו בזמן במשרד זכויות היוצרים האמריקני. המשמעות היא שסופרים עצמאיים רבים, במיוחד כאלה שמחוץ לארה”ב, ימצאו עצמם מחוץ למעגל הפיצוי, גם אם הספרים שלהם שימשו לאימון המודלים.

מה מונח על הכף

ההסדר היה אמור לסיים את הפרשה עוד לפני המשפט שנקבע לדצמבר. אם יידחה סופית, Anthropic עלולה לעמוד בפני תביעות שמאפשרות פיצוי של עד 150 אלף דולר לכל ספר. גם אם לא ייפסק סכום המקסימום, מדובר בסכומי ענק שעלולים לעלות לחברה עשרות מיליארדי דולרים.

 

חשוב להדגיש, ביוני כבר פסק בית המשפט שאימון מודל על ספרים שנרכשו כדין נחשב “שימוש הוגן”. אבל שימוש בעותקים פיראטיים – זה סיפור אחר. כאן, ההגנה של “חדשנות” או “מחקר” לא תקפה. במילים פשוטות – המקור קובע.

מה ההסדר לא פותר

גם אם ההסדר יאושר, הוא לא מתייחס לשאלה הגדולה והנפיצה של “פלטים מפרים” (infringing outputs), כלומר, מקרים שבהם המודל מייצר טקסטים שדומים מדי למקור מוגן בזכויות יוצרים. סוגיה זו נשארת פתוחה ותמשיך להעסיק את בתי המשפט והמחוקקים.

 

המשמעות הרחבה

מעבר לסכומים, זהו תקדים משפטי:

  • פרובננס (Provenance) – חברות AI יצטרכו להוכיח שמקורות הדאטה שלהן חוקיים, כלומר, תיעוד המקור והמסלול של הדאטה, מאיפה הוא הגיע ואיך נאסף.

  • תקן מחיר – 3,000 דולר לספר הופך לבנצ’מרק אפשרי להסדרים עתידיים.

  • לא סוף פסוק – ההסדר, גם אם יאושר, לא מגן על החברה מהפרות עתידיות.

מה השלב הבא?

ב־15 וב־22 בספטמבר Anthropic ועורכי הדין מחויבים להגיש לבית המשפט את המסמכים החסרים, וב־25 בספטמבר יתקיים דיון נוסף. הסיפור הזה מדגיש שלא מספיק לשאול מה ה־AI יודע, אלא גם לשאול מאיפה הגיע המידע שאימן אותו. הוא גם מדגיש פער עמוק בין בעלי זכויות מוכרים ומרשמים לבין סופרים עצמאיים שנותרים מאחור. ובשורה אחת שמזקקת את המחלוקת: בינה מלאכותית – כן. פיראטיות – לא.

הפוסט הקרב הגדול של הסופרים נגד אנטרופיק מגיע לבית המשפט הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/anthropic-copyright-roadblock/feed/ 0
עדכון חשוב בקלוד – אנטרופיק מאמנת את המודלים שלה על השיחות שלנו! https://letsai.co.il/clade-train/ https://letsai.co.il/clade-train/#respond Fri, 29 Aug 2025 07:21:03 +0000 https://letsai.co.il/?p=57941 אם גם אתם עובדים עם קלוד (Claude) – מודל השפה המדהים של אנטרופיק, בטח שמתם לב שקיבלתם לאחרונה התראת פופאפ עם הודעה מפתיעה במיוחד: שינוי משמעותי במדיניות הפרטיות ובתנאי השימוש – אבל מה עומד מאחורי ההודעה התמימה למראה? מסתבר שאנטרופיק (Anthropic), החברה שמפתחת את קלוד, משנה כיוון: החל מה-28 בספטמבר 2025, השיחות שלכם עם המודל […]

הפוסט עדכון חשוב בקלוד – אנטרופיק מאמנת את המודלים שלה על השיחות שלנו! הופיע ראשון בLet's AI בינה מלאכותית

]]>
אם גם אתם עובדים עם קלוד (Claude) – מודל השפה המדהים של אנטרופיק, בטח שמתם לב שקיבלתם לאחרונה התראת פופאפ עם הודעה מפתיעה במיוחד: שינוי משמעותי במדיניות הפרטיות ובתנאי השימוש – אבל מה עומד מאחורי ההודעה התמימה למראה? מסתבר שאנטרופיק (Anthropic), החברה שמפתחת את קלוד, משנה כיוון: החל מה-28 בספטמבר 2025, השיחות שלכם עם המודל עשויות להפוך לחומר גלם לאימון גרסאות עתידיות שלו. מדובר בשינוי מהותי בגישת החברה, שבעבר הדגישה את העובדה שהמודלים שלה אינם מאומנים כברירת מחדל על תוכן המשתמשים. כעת, האופציה הזו מופעלת כברירת מחדל – אלא אם תבחרו לכבות אותה באופן יזום בהגדרות הפרטיות שלכם.

 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

מה בדיוק השתנה?

קלוד (Claude) הוא אחד מהצ’טבוטים הג’נרטיביים המובילים בשוק – המתחרה הישיר של ChatGPT, ובעיני רבים – ה-LLM הטוב בעולם!

העדכון מתייחס לכל המשתמשים בשירותי Claude Free, Claude Pro ו-Claude Max, כולל השימוש בכלי Claude Code. המשמעות היא שכל שיחה, קוד, או תוכן שתשתפו עם המודל עשוי לשמש את אנטרופיק כדי לשפר את ביצועי קלוד בעתיד. השינוי לא חל על שירותים מסחריים כמו Claude for Work, Claude Gov, Claude for Education, או שימוש ב-API דרך פלטפורמות כמו Amazon Bedrock ו-Google Cloud Vertex AI.

כחלק מהעדכון, החברה גם מאריכה את פרק הזמן שבו הנתונים נשמרים: במקום 30 יום בלבד, המידע יישמר עד חמש שנים – כל עוד הסכמתם לשימוש בו לצורכי אימון מודלים. אם תבחרו שלא לשתף את הנתונים שלכם לאימון, יישמרו השיחות רק ל-30 יום, כפי שהיה עד כה (בעיקר לצרכי אבטחה ובקרה).

האם כדאי לאשר את תנאי השימוש החדשים?

מה זה אומר בפועל? המשמעות היא שלכל המשתמשים קופצת הודעה עם הכניסה לאפליקציה, שבה מוצגת האפשרות להפעיל או לכבות את השימוש בשיחותיהם לאימון המודל, לרבות אישור תנאי השימוש החדשים. אם תאשרו את התנאים החדשים ותשאירו את האפשרות דלוקה, השיחות החדשות או שלכם יוכלו להפוך לחלק מתהליך האימון של אנטרופיק. שיחות ישנות שלא חזרתם אליהן לא ייכנסו לאימון.

 

פופאפ תמים למראה

פופאפ תמים למראה – מעכשיו ברירת המחדל היא שאנטרופיק מאמנים את המודלים שלהם על הדאטה שלכם, אלא אם תגדירו אחרת!

איך מכבים את אפשרות אימון המודלים בקלוד?

למי שמעדיף לשמור על פרטיות מלאה, ניתן בכל שלב להיכנס לתפריט ההגדרות (Settings), ללחוץ על “פרטיות” (Privacy), ולכבות את האפשרות שנקראת “Help improve Claude”. ברגע שתכבו אותה, הנתונים שלכם לא ייאספו עוד לטובת אימון עתידי.

כך מכבים את אפשרות אימון המודלים בקלוד

כך מכבים את אפשרות אימון המודלים בקלוד.

 

למה זה חשוב?

כמעט כל דבר שאתם כותבים לקלוד – החל משאלות טכניות, התייעצויות עסקיות, מידע פיננסי או משפטי, רעיונות מקוריים, ועד מסמכים פנימיים של הלקוחות שלכם – עשוי להיאגר ולשמש כחומר גלם לאימון. גם אם אנטרופיק משתמשת בכלים אוטומטיים לסינון או טשטוש מידע רגיש, מדובר בצעד משמעותי שמציב שאלות אמיתיות על גבולות הפרטיות של המשתמשים. 

 

ראוי להדגיש: אנטרופיק מציינת במפורש כי היא אינה מוכרת את המידע לצדדים שלישיים. המטרה שלה היא לשפר את יכולות המודל, להגביר את הבטיחות שלו ולהפחית מקרים של שימוש לרעה, כמו הונאות, ספאם או הפצה של תכנים מזיקים. עם זאת, מהבחינה הפרקטית, כל מידע שתשאירו במערכת עלול להוות חלק מאימון עתידי, אלא אם תגדירו אחרת.

 

למה אנטרופיק עושה את זה?

החברה מנמקת את השינוי בצורך לשפר את המודלים באמצעות אינטראקציות אמיתיות עם משתמשים. כמו חברות אחרות בתחום, גם אנטרופיק טוענת כי מידע כזה חיוני כדי לחדד את היכולות של המודל, בין אם מדובר בכתיבת קוד, ביצוע ניתוחים מורכבים או שיפור יכולות ההבנה וההיגיון. מעבר לכך, הארכת תקופת שמירת המידע לחמש שנים מאפשרת לחברה לעבוד עם מאגר נתונים עקבי ורחב יותר לאורך זמן. כך ניתן לשפר את המודלים בצורה רציפה, לזהות דפוסי שימוש בעייתיים ולבנות מערכות סינון מתקדמות יותר נגד שימוש לרעה.

בעולם תחרותי בו חברות ענק נלחמות על המטבע היקר מכל – דאטה – כל פיסת מידע ודפוס שימוש, הופך להיות מכשיר חיוני במרוץ ליצירת ה-AGI או ה-ASI הראשון. אנטרופיק אמנם פחות מבליטה את הרצון שלה לייצר אינטליגנציית על שכזו (בניגוד לסם אלטמן מ-OpenAI, מארק צוקרברג מ-Meta, או אילון מאסק מ-xAI), אבל ניכר שהיא לא יכולה להתעלם מהכיוון שכל ענקיות ה-AI לוקוחת!

 

תשובות לשאלות שאתם בטח שואלים את עצמכם עכשיו

ש. מה קורה אם אני מכבה את ההגדרה?

ת. אם תכבו את האפשרות “Help improve Claude”, השיחות שלכם יישמרו רק ל-30 יום לצורכי תפעול ושירות, ולא ייכנסו לאימון המודל.

 

ש. האם השיחות הישנות שלי ייכנסו לאימון?

ת. לא. רק שיחות חדשות או כאלה שתמשיכו בהן לאחר השינוי עשויות לשמש לאימון. תוכן ישן ללא פעילות לא ישמש את החברה.

ש. האם אפשר לשנות החלטה?

ת. כן. בכל שלב אפשר להיכנס להגדרות הפרטיות ולשנות את ההעדפה. אם תחליטו לכבות את ההגדרה בעתיד, השיחות החדשות לא ייכנסו לאימון, אך תוכן שכבר נאגר ונעשה בו שימוש יישאר כחלק מהמודלים שכבר אומנו.

ש. מה לגבי משתמשים עסקיים ו-API?

ת. השינוי לא חל על משתמשי Claude for Work (צוותים וארגונים), ולא על שימוש ב-API דרך ענן כמו Amazon Bedrock. לקוחות עסקיים ימשיכו לפעול תחת תנאי שימוש אחרים.

ההמלצה שלנו

נראה שאנטרופיק מאמצת גישה דומה לזו של חברות מתחרות, המסתמכות על אינטראקציות אנושיות ואגירת דאטה משיחות לשיפור המודלים שלהן. לכן, אם אתם עובדים עם מידע רגיש, מומלץ לאשר את תנאי השימוש החדשים כדי להמשיך לעבוד עם קלוד, אך מיד להיכנס להגדרות הפרטיות ולכבות את האפשרות “Help improve Claude”. פעולה זו לוקחת פחות מעשר שניות, והיא הדרך הבטוחה ביותר לשמור על השליטה בנתונים שלכם.

 

קישורים חשובים

להרחבה, מוזמנים לעיין במסמכים הרשמיים שאנטרופיק פרסמה:

 

הפוסט עדכון חשוב בקלוד – אנטרופיק מאמנת את המודלים שלה על השיחות שלנו! הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/clade-train/feed/ 0
בינה מלאכותית איבדה חסינות משפטית בתיק התאבדות של נער בן 14 https://letsai.co.il/chatbot-first-amendment-ruling/ https://letsai.co.il/chatbot-first-amendment-ruling/#respond Fri, 06 Jun 2025 11:48:43 +0000 https://letsai.co.il/?p=51356 סואל סטצר השלישי (Sewell Setzer III) היה בן 14. במשך חודשים הוא ניהל שיחות עם דמויות מהסדרה “משחקי הכס” (Game of Thrones) בפלטפורמה של Character.AI – אתר המאפשר למשתמשים לקיים אינטראקציה עם דמויות שנוצרו באמצעות בינה מלאכותית מתקדמת. הדמויות הללו לא היו צעצועים. הן תוכננו להרגיש אמיתיות. ליצור חיבור רגשי. לגרום למשתמשים להישאר. בפברואר 2024, […]

הפוסט בינה מלאכותית איבדה חסינות משפטית בתיק התאבדות של נער בן 14 הופיע ראשון בLet's AI בינה מלאכותית

]]>
סואל סטצר השלישי (Sewell Setzer III) היה בן 14. במשך חודשים הוא ניהל שיחות עם דמויות מהסדרה “משחקי הכס” (Game of Thrones) בפלטפורמה של Character.AI – אתר המאפשר למשתמשים לקיים אינטראקציה עם דמויות שנוצרו באמצעות בינה מלאכותית מתקדמת. הדמויות הללו לא היו צעצועים. הן תוכננו להרגיש אמיתיות. ליצור חיבור רגשי. לגרום למשתמשים להישאר. בפברואר 2024, סואל התאבד בירייה. אמו, מייגן גרסיה, מאמינה שהשיחות עם הבינה המלאכותית מילאו תפקיד מכריע. היא תובעת את Character.AI על אחריות למותו של בנה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

רעידת אדמה משפטית בתעשיית הבינה המלאכותית

Character.AI ניסתה לטעון שהצ’אטבוטים שלה זכאים להגנה לפי התיקון הראשון לחוקה האמריקאית – שמבטיח חופש ביטוי. לטענתה, הפלט של הבינה המלאכותית מהווה “דיבור מוגן”. אבל השופטת הפדרלית אן סי. קונוויי לא השתכנעה. הפסיקה שלה הייתה ברורה: בינה מלאכותית אינה אדם. הפלט שלה אינו ביטוי יצירתי אלא מוצר. וכמו כל מוצר שגורם נזק – ניתן להסדיר אותו ולהטיל עליו אחריות.

 

חשבו על זה לרגע: אם הפסקה הזו תתייצב כתקדים, חברות בינה מלאכותית כבר לא יוכלו להסתתר מאחורי חופש הביטוי כשהמוצרים שלהן פוגעים באנשים.

כשגם גוגל נכנסת לתמונה

כאן הסיפור מקבל תפנית רחבה יותר. השופטת קבעה שגם גוגל (Google), שסיפקה את הטכנולוגיה הבסיסית ל-Character.AI ורכשה ממנה רישיון בסך 2.7 מיליארד דולר, עשויה להיחשב “יצרן רכיב” ולשאת באחריות משפטית. זו קביעה דרמטית. המשמעות: לא רק מי שבונה את האפליקציה אחראי – גם מי שמספק את מנוע הבינה המלאכותית עצמו. הפסיקה לא עוסקת בצ’אטבוט אחד. היא שולחת מסר לתעשייה כולה: אם המוצר שלך גורם נזק, אתה חשוף לתביעה – גם אם אתה רק הספק הטכנולוגי.

מעט מדי, מאוחר מדי

Character.AI מדווחת שביצעה שיפורים בטיחותיים – לאחר הטרגדיה. בין השאר:

  • מודלים נפרדים למשתמשים מתחת לגיל 18

  • לוחות בקרה להורים

  • סינון דמויות

  • התראות על משך שימוש

  • זיהוי סימנים לשיח אובדני

אבל הנה האמת הלא נוחה: כל זה הגיע מאוחר מדי. אם אתה בונה מערכת שיוצרת קשר רגשי עם בני נוער – הבטיחות חייבת להיות חלק מהתכנון הראשוני, לא עדכון גרסה. כפי שאמר המרכז האמריקאי לקורבנות רשתות חברתיות (Social Media Victims Law Center): Character.AI “מספקת לבני נוער גישה לא מוגבלת לדמויות בינה מלאכותית מציאותיות – בלי אזהרות מתאימות או אמצעי הגנה בסיסיים.”

מה הורים בישראל צריכים לדעת

הסיפור הזה לא שייך רק לארצות הברית. גם בישראל יותר ויותר בני נוער נחשפים לבני לוויה דיגיטליים – מערכות שמדמות קשר רגשי, אהבה, ואינטימיות. וזה מסוכן במיוחד למתבגרים פגיעים.

 

מה אפשר לעשות? הנה 4 צעדים ברורים:

1. שוחחו עם הילדים על מערכות בינה מלאכותית – מה הן עושות, ואיפה הגבול עובר.

2. הפעילו בקרה על השימוש – בדיוק כמו שאתם עושים עם רשתות חברתיות.

3. תמכו ברגולציה שמחייבת חברות בינה מלאכותית לשלב הגנות אמיתיות עבור קטינים.

4. הישארו מעודכנים – תיק כזה עשוי להפוך לתקדים עולמי.

מה באמת עומד כאן על הפרק?

האם פסק הדין הזה יהפוך לתקדים מחייב בארצות הברית? אולי. אבל המסר כבר ברור: מערכות משפטיות מתחילות להתייחס לבינה מלאכותית כאל מוצר – לא כביטוי חופשי. זו נקודת מפנה. חברות בינה מלאכותית לא יכולות להציג את עצמן כמהפכניות, חכמות ומרגשות – ואז להתנער מאחריות כשהן גורמות נזק. סואל סטצר היה ילד. הוא היה אמור להיות כאן. וגם הילדים האחרים שצורכים היום תוכן מבוסס בינה מלאכותית ראויים ליותר. אם ההחלטה הזו תוביל לרגולציה טובה יותר, לאחריות אמיתית ולחשיבה מחודשת על בטיחות – אולי נוכל למנוע את הטרגדיה הבאה.

הפוסט בינה מלאכותית איבדה חסינות משפטית בתיק התאבדות של נער בן 14 הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/chatbot-first-amendment-ruling/feed/ 0
הכירו את משרד עורכי הדין הראשון המבוסס על בינה מלאכותית https://letsai.co.il/ai-law-firm/ https://letsai.co.il/ai-law-firm/#respond Mon, 12 May 2025 08:04:02 +0000 https://letsai.co.il/?p=48975 האם יום אחד תוכלו לקבל שירות משפטי איכותי במחיר של כוס קפה? מסתבר שהעתיד הזה כבר כאן. לראשונה, רשות עורכי הדין של אנגליה וויילס (SRA) אישרה משרד שפועל באופן מלא באמצעות בינה מלאכותית. Garfield.Law נוצר כדי לשנות את הדרך שבה עסקים קטנים מתמודדים עם כאב ראש מוכר – גביית חובות שלא שולמו.     תביעה […]

הפוסט הכירו את משרד עורכי הדין הראשון המבוסס על בינה מלאכותית הופיע ראשון בLet's AI בינה מלאכותית

]]>
האם יום אחד תוכלו לקבל שירות משפטי איכותי במחיר של כוס קפה? מסתבר שהעתיד הזה כבר כאן. לראשונה, רשות עורכי הדין של אנגליה וויילס (SRA) אישרה משרד שפועל באופן מלא באמצעות בינה מלאכותית. Garfield.Law נוצר כדי לשנות את הדרך שבה עסקים קטנים מתמודדים עם כאב ראש מוכר – גביית חובות שלא שולמו.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

תביעה קטנה בגרסת העתיד

נתחיל בסרטון שבו תוכלו לצפות כיצד נראית המערכת – היא ממלאת טפסים באופן אוטומטי, מנסחת מסמכים משפטיים מקצועיים, ומדריכה את המשתמש לכל אורך הדרך. במקום להתעסק בז’רגון משפטי או לחשוש משגיאות, אתם פשוט עונים על שאלות פשוטות ו- Garfield דואגת לשאר.

 

זוהי הצצה מרתקת לעולם שבו גם עסקים קטנים או אנשים פרטיים יכולים לגשת למערכת המשפט – בלי פחד, ובלי הוצאה מיותרת:

 

 

 

מה זה בעצם Garfield.Law?

Garfield.Law הוא משרד משפטי חדשני שהוקם על ידי עורך הדין לשעבר מהסיטי של לונדון, פיליפ יאנג, יחד עם מומחה הטכנולוגיה דניאל לונג, פיזיקאי קוונטים בהכשרתו. בניגוד למשרדים מסורתיים, Garfield פועל בלי שותפים ובלי מתמחים, הכל מתבצע על ידי בינה מלאכותית מתקדמת. השירות המרכזי: סיוע לעסקים קטנים ובינוניים בגביית חובות של עד 10,000 פאונד, כשהמחיר מתחיל ב־2 פאונד בלבד(!) עבור מכתב נימוסי לחייב.

איך זה עובד?

Garfield.Law פועלת כמו משרד עורכי דין טוב – רק שהיא אוטומטית, מדויקת, וזמינה תמיד. המערכת מקבלת את העובדות מהלקוח, מעבדת את המידע, מנסחת מכתב משפטי, שולחת אותו לאישור הלקוח, ורק לאחר מכן פועלת בהתאם. בכל שלב בתהליך, השליטה נשארת בידי הלקוח. אין פעולות שנעשות אוטומטית מאחורי הקלעים – הכל שקוף ומבוקר.

 

חשוב להדגיש: למרות שהמערכת מתקדמת, היא אינה אוטונומית לחלוטין. למשל, היא לא מציעה תקדימים משפטיים, תחום שעדיין בעייתי עבור בינה מלאכותית, בשל תופעת ה”הזיות” (hallucinations) שבה מודלים עשויים להמציא פסקי דין או מקרים משפטיים שלא התרחשו כלל.

איך זה נראה בפועל?

נניח שאתם בעלי חנות קטנה למוצרי ספורט בלידס. לקוח הזמין ציוד ב־600 פאונד – ולא שילם. בעבר, הייתם נאלצים לבחור בין לוותר או לשלם מאות פאונד לעורך דין כדי לרדוף אחריו. היום, דרך Garfield.Law, אתם ממלאים טופס פשוט, ותוך דקות, מכתב התראה רשמי יוצא לדרכו, ב־2 פאונד בלבד. הכל בפיקוח, הכל בשליטתכם.

 

וזה לא רק עניין של טכנולוגיה – זו דמוקרטיזציה של צדק. כל עסק קטן, כל עצמאי, יכול סוף־סוף לגשת לשירות משפטי מבלי לחשוש מהמחיר.

 

השוואה בין משרד עורכי דין מסורתי לבין Garfield.Law.

טבלת השוואה בין משרד עורכי דין מסורתי לבין Garfield.Law.

למה זה חשוב?

החדשנות הזו מסמלת מהפכה אמיתית בענף המשפט, לא רק בגלל הטכנולוגיה, אלא בגלל ההשפעה הישירה על שוק שהיה תקוע.

 

קודם כל, היא משפרת את הנגישות. רבים מהעסקים הקטנים פשוט לא מסוגלים לממן שירותים משפטיים, במיוחד כשמדובר בגביית חוב קטן. Garfield.Law מציע להם פתרון פשוט, זול ושווה לכל כיס.

 

שנית, יש כאן חיסכון אדיר בזמן. מה שדורש מעורבות אנושית של ימים, לפעמים אפילו שבועות – נעשה כאן בתוך דקות. המערכת יודעת לטפל במקרים פשוטים במהירות ודיוק, בלי עיכובים מיותרים.

 

ולבסוף, היא גם מביאה יעילות למשרדים משפטיים קיימים. במקום לבזבז משאבים על משימות שגרתיות וחוזרות, עורכי הדין יכולים להתמקד בעבודה המורכבת והמשמעותית באמת – זו שמחייבת שיקול דעת אנושי.

איזה פיקוח קיים?

רשות עורכי הדין באנגליה וויילס (SRA) לא מיהרה לאשר את המהלך. במשך שמונה חודשים היא בחנה את המערכת של Garfield.Law לעומק, כדי לוודא שהיא עומדת בכל הדרישות הרגולטוריות.

 

במהלך הבדיקה נבחנה איכות העבודה, נבדקו מנגנוני שמירה על סודיות המידע של הלקוחות, הוגדרו כללים ברורים למניעת ניגודי עניינים, והושם דגש מיוחד על התמודדות עם תופעת ההזיות – אותה תופעה בה בינה מלאכותית ממציאה מידע משפטי שגוי.

 

ולמרות כל הפיקוח הטכנולוגי, חשוב לזכור: לפי כללי הרגולציה, עורכי דין מוסמכים הם עדיין האחראים האישיים על הסטנדרטים המקצועיים של המשרד. האחריות נשארת אנושית – בדיוק כפי שצריך להיות.

עוזר משפטי חכם וזול

בסרטון המצורף של Garfield AI, תוכלו לראות כיצד העוזר המשפטי החכם מספק תשובות מיידיות לשאלות נפוצות בנושא תביעות קטנות. המערכת עונה בבהירות ובמומחיות על שאלות כמו מגבלות סכומי תביעה, עלויות שניתן להחזיר, ואופן התגובה של נתבעים – כל זאת כדי להנגיש את תהליך התביעות הקטנות באנגליה וויילס לכל אחד. במקום לבזבז שעות על מחקר או לשלם עבור ייעוץ משפטי יקר, המערכת מאפשרת לקבל תשובות מדויקות באופן מיידי, בכל שעה ובכל יום.

 

הסרטון ממחיש כיצד טכנולוגיה משפטית יכולה לחסוך זמן וכסף לעסקים קטנים ולאנשים פרטיים:

 

מה זה אומר לגבי העתיד?

פול פיליפ, מנכ״ל רשות עורכי הדין, תיאר את האישור של Garfield.Law כ”רגע היסטורי לשירותים משפטיים במדינה זו”. מבחינתו, זהו רק הסנונית הראשונה – הוא מעריך שעוד משרדי עורכי דין מבוססי בינה מלאכותית יצוצו בקרוב, ויהפכו לחלק בלתי נפרד מה- landscape המשפטי.

 

גם במערכת המשפט עצמה רואים במהלך הזה צעד חיובי. לורד ג’פרי ווס, מאסטר האכיפה (Master of the Rolls) בבריטניה, מהדמויות הבכירות ביותר במערכת, הביע לא פעם תמיכה בטכנולוגיות משפטיות מבוססות בינה מלאכותית. כבר ב־2023, סגנו, הלורד ג’סטיס בירס, שיבח את Garfield כ”נמצא בליבה של מה שאנחנו יכולים לעשות למען נגישות לצדק”.

 

Garfield אולי התחיל בקטן – אבל נדמה שהוא מציב את התשתית למשהו הרבה יותר גדול.

האם יש גם מבקרים?

כמו בכל שינוי מהותי, במיוחד כזה שמשלב בין טכנולוגיה למערכת המשפט, גם המהלך של Garfield.Law מעורר ביקורת. חלק מהמומחים מזהירים מהסתמכות יתר של לקוחות על מערכות אוטומטיות, במיוחד כשמדובר באנשים ללא ידע משפטי. יש מי שחוששים שהלקוחות יבלבלו בין מענה מהיר למענה נכון – או שיוותרו על ליווי אנושי גם במקרים שדורשים שיקול דעת מקצועי אמיתי.

 

בארה״ב, כבר נרשמו מקרים שנויים במחלוקת: באחד מהם, שופט גער בתובע שהשתמש באווטאר שנוצר בבינה מלאכותית כדי לייצג את עצמו בבית המשפט.

ובישראל? גם כאן הנושא עולה לסדר היום. בעקבות מקרה שהובא לבג״ץ, לשכת עורכי הדין הודיעה על כוונתה להגביר את האכיפה נגד שימושים פסולים בבינה מלאכותית בתחום המשפט – צעד שממחיש את המתח ההולך וגובר בין חדשנות משפטית לבין שמירה על אתיקה מקצועית.

 

Garfield עצמו אמנם פועל בזהירות, תוך עמידה מלאה בדרישות הרגולטוריות, אך הביקורת מזכירה לנו שהתפתחות טכנולוגית, מרגשת ככל שתהיה, לא פוטרת אותנו מהצורך בשיקול דעת, באחריות, ובעיקר בהבנה של המגבלות.

 

 

מהפכה משפטית? זה רק הסיפתח

Garfield.Law מייצג את העתיד האפשרי של שירותים משפטיים – מהיר, זול ונגיש. ככל שהטכנולוגיה מתפתחת, סביר להניח שנראה עוד ועוד פתרונות שמבוססים על בינה מלאכותית, כאלה שמפשטים תהליכים משפטיים והופכים את הצדק לנגיש יותר, גם עבור מי שלא יכול היה להרשות זאת בעבר. האם זו המהפכה שתשנה את כל הענף? ימים יגידו. אבל כבר עכשיו ברור: כשעיצוב נכון של טכנולוגיה פוגש צורך אמיתי – נוצרת תוצאה שיכולה לשנות חיים.

הפוסט הכירו את משרד עורכי הדין הראשון המבוסס על בינה מלאכותית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-law-firm/feed/ 0
הרשות להגנת הפרטיות מפרסמת טיוטת הנחיות משמעותית בנושא שימוש ופיתוח בינה מלאכותית בישראל https://letsai.co.il/israel-ai-privacy-implications/ https://letsai.co.il/israel-ai-privacy-implications/#respond Tue, 29 Apr 2025 09:50:19 +0000 https://letsai.co.il/?p=47999 הרשות להגנת הפרטיות פרסמה ב-28 באפריל 2025 הנחיה מקיפה המפרשת כיצד חוק הגנת הפרטיות חל על טכנולוגיות בינה מלאכותית. ההנחיה היא רק חלק מהמהפכה הרגולטורית הצפויה בתחום, שתגיע לשיאה באוגוסט 2025 עם כניסתו לתוקף של תיקון 13 לחוק – תיקון שיעניק לרשות סמכויות אכיפה ופיקוח חסרות תקדים, כולל אפשרות להטיל קנסות משמעותיים. אז מה באמת […]

הפוסט הרשות להגנת הפרטיות מפרסמת טיוטת הנחיות משמעותית בנושא שימוש ופיתוח בינה מלאכותית בישראל הופיע ראשון בLet's AI בינה מלאכותית

]]>
הרשות להגנת הפרטיות פרסמה ב-28 באפריל 2025 הנחיה מקיפה המפרשת כיצד חוק הגנת הפרטיות חל על טכנולוגיות בינה מלאכותית. ההנחיה היא רק חלק מהמהפכה הרגולטורית הצפויה בתחום, שתגיע לשיאה באוגוסט 2025 עם כניסתו לתוקף של תיקון 13 לחוק – תיקון שיעניק לרשות סמכויות אכיפה ופיקוח חסרות תקדים, כולל אפשרות להטיל קנסות משמעותיים. אז מה באמת קורה כשאתם משתמשים בבינה מלאכותית? האם המידע האישי שלכם מוגן? ומה צריכים לעשות ארגונים כדי לציית לחוק ולהימנע מסנקציות? הנה כל מה שאתם צריכים לדעת.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

למה זה בכלל משנה?

דמיינו שאתם משתמשים בשירות בריאות דיגיטלי המופעל על-ידי בינה מלאכותית. הזנתם מידע רפואי אישי כדי לקבל אבחון ראשוני. מה קורה עם המידע הזה? האם הוא נשמר? האם גורמים נוספים יכולים לגשת אליו? או אולי אתם מנהלים עסק ושוקלים להשתמש בכלי AI לסינון מועמדים לעבודה. האם אתם רשאים לעשות זאת? ומה עליכם לגלות למועמדים על התהליך? ההנחיה החדשה עוסקת בדיוק בשאלות הללו, ומבהירה את החובות החוקיות של כל מי שמפתח או משתמש במערכות בינה מלאכותית. בואו נבחן את העקרונות המרכזיים ומשמעותם המעשית.

המידע שלכם מוגן גם כשהוא מעובד על-ידי בינה מלאכותית

העיקרון המרכזי שקובעת ההנחיה: חוק הגנת הפרטיות חל במלואו על מערכות בינה מלאכותית – הן בשלב האימון של המודל והן בשלב היישום בפועל.

 

דוגמה מעשית: כאשר אתם מבקשים מ-ChatGPT לנתח את הוצאות הבית שלכם, המידע הזה מוגן על פי חוק. אבל החידוש המשמעותי הוא שגם המסקנות שמסיקה המערכת עליכם (למשל, “אדם זה בסיכון גבוה לפתח מחלת לב” או “לקוח זה צפוי להתקשות בהחזרי הלוואה”) נחשבות למידע אישי מוגן, גם אם מעולם לא מסרתם אותן בעצמכם.

 

מה זה אומר לארגונים: כל מסקנה, המלצה או תחזית שמערכת AI מייצרת אודות אדם ספציפי היא מידע אישי הכפוף לחוק הגנת הפרטיות. עליכם לנהוג בתוצרי המערכת באותם סטנדרטים של אבטחה, שקיפות והסכמה כמו במידע שנאסף ישירות מהמשתמשים.

לא כל קליק הוא הסכמה

ההנחיה מדגישה שקבלת הסכמתו של אדם לעיבוד מידע אישי במערכות בינה מלאכותית דורשת הרבה יותר מאשר “סימון V” בתיבה קטנה. על ההסכמה להיות “מדעת” – כלומר, על נושא המידע להבין באופן מלא:

  • למה המידע נאסף ובמה הוא ישמש?
  • האם ואיך המידע יישמר?
  • האם המידע ישמש לאימון המערכת?
  • מהם הסיכונים האפשריים בעיבוד המידע?

חידוש חשוב: כאשר אתם מתקשרים עם מערכת אוטומטית המבוססת על בינה מלאכותית (“בוט”), קיימת חובה ליידע אתכם על כך אם לעובדה זו השפעה מהותית על החלטתכם לספק מידע.

מה זה אומר לארגונים

 עליכם לפתח מנגנונים ברורים להסברת אופן פעולת מערכת ה-AI. ככל שהמערכת מורכבת יותר או משתמשת במידע למטרות רחבות יותר, כך נדרשת הסכמה מפורשת יותר (למשל במתכונת של Opt-in – הסכמה אקטיבית נפרדת לכל שימוש).

לא כל מידע ברשת מותר לשימוש חופשי

נקודה מפתיעה בהנחיה נוגעת לאיסוף מידע אישי מהאינטרנט (scraping) לצורך אימון מודלים של בינה מלאכותית. העמדה המדויקת מדברת על כך שגם אם אדם פרסם מידע אישי באופן פומבי (למשל ברשת חברתית), לא ניתן להסיק מכך הסכמה לשימוש במידע למטרות אחרות כמו אימון מערכות AI – אלא אם התקיימו תנאים מסוימים (כמו תנאי שימוש באתר שאינם מגבילים שימוש כזה, והמשתמש לא הגביל את הגישה למידע).

דוגמה חשובה

 ההנחיה קובעת במפורש כי לא ניתן להשתמש בתמונות פנים שפורסמו ברשתות חברתיות לצורך אימון אלגוריתמים לזיהוי פנים, ללא הסכמה מפורשת של האנשים המופיעים בתמונות.

סיכון אמיתי

 כיום, חברות רבות המפתחות מודלים של בינה מלאכותית משתמשות במידע זמין באינטרנט לאימון האלגוריתמים שלהן. פרקטיקה זו, שעד כה התנהלה ב”אזור אפור” רגולטורי, הופכת כעת לבעייתית מבחינה משפטית ועלולה לחשוף חברות לסנקציות משמעותיות.

מה זה אומר לארגונים

 פלטפורמות המאפשרות שיתוף מידע אישי ברשת (כגון רשתות חברתיות) חייבות לנקוט אמצעים טכנולוגיים למניעת כריית מידע אוטומטית. כריית מידע אסורה מוגדרת כ”אירוע אבטחה חמור” שמחייב דיווח מיידי לרשות להגנת הפרטיות.

הזכות לתיקון מידע שגוי עד רמת האלגוריתם עצמו

החוק מעניק זכות לדרוש תיקון של מידע שגוי. ההנחיה מחדשת שזכות זו חלה גם על מידע שנוצר או הוסק על ידי מערכות בינה מלאכותית, ואף מרחיקה לכת יותר.

דוגמה מעשית

 אם אלגוריתם של חברת אשראי סיווג אתכם בטעות כבעלי סיכון גבוה להלוואה, לא רק שיש לכם זכות לתקן את המידע הספציפי, אלא ייתכן שהחברה תצטרך לתקן את האלגוריתם עצמו אם הוא מייצר באופן שיטתי מידע שגוי.

סיכון אמיתי

 בעולם שבו החלטות גורליות מתקבלות על ידי אלגוריתמים – מאישור הלוואות ועד לקבלה לעבודה או ללימודים – טעות או הטיה במערכת יכולה להשפיע דרמטית על חייכם. הבעיה מחריפה כשמדובר במערכות “קופסה שחורה” שקשה להבין כיצד הגיעו להחלטה מסוימת.

אבטחת מידע והגנה מאיומים חדשים

מערכות בינה מלאכותית מציבות אתגרי אבטחת מידע ייחודיים שלא היו קיימים בעבר.

סיכונים ייחודיים

 “מתקפות הסקה” על מודלים של בינה מלאכותית מאפשרות לחלץ מידע אישי ששימש לאימון המודל. לדוגמה, חוקרים הצליחו לשחזר תמונות מהנתונים ששימשו לאימון מודלים של בינה מלאכותית יוצרת.

דרישות מחמירות

 ההנחיה קובעת כי על מאגרי מידע המשתמשים בבינה מלאכותית יחולו רמות אבטחת המידע הבינונית או הגבוהה בשל הסיכונים הייחודיים. יתר על כן, הרשות להגנת הפרטיות רשאית להחיל רמת אבטחה גבוהה על מאגרים מסוימים גם אם לא עמדו בקריטריונים הרגילים לכך.

מה זה אומר לארגונים

 נדרשת התייחסות ספציפית לסיכוני אבטחה ייחודיים לבינה מלאכותית בתסקירי סיכונים, במבדקי חדירות ובמדיניות הארגונית. כמו כן, חובה לפתח מדיניות ברורה לשימוש עובדים בשירותי AI חיצוניים כמו ChatGPT, כדי למנוע חשיפת מידע רגיש.

הכלים המעשיים לציות

ההנחיה מדגישה שני כלים מרכזיים שיסייעו לארגונים לעמוד בדרישות החוק:

1. מינוי ממונה על הגנת הפרטיות – עם כניסת תיקון 13 לתוקף, חובה זו תחול על כל הגופים הציבוריים ועל ארגונים פרטיים העונים לקריטריונים מסוימים. ממונה כזה יהיה אחראי על יישום ואכיפת מדיניות הפרטיות בארגון, כולל היבטים הקשורים לבינה מלאכותית.

2. תסקיר השפעה על הפרטיות (PIA) – זהו תהליך מתודולוגי לזיהוי וצמצום סיכוני פרטיות במערכות בינה מלאכותית. אף שעדיין אינו חובה בישראל, ההנחיה מדגישה כי זוהי הדרך המומלצת לוודא עמידה בדרישות החוק ולצמצם חשיפה לסיכונים רגולטוריים.

מה קורה עם כניסת תיקון 13 לתוקף?

תיקון 13 לחוק הגנת הפרטיות, שייכנס לתוקף באוגוסט 2025, מהווה מהפכה של ממש בסמכויות האכיפה והפיקוח של הרשות. עם יישום התיקון, תוכל הרשות להטיל עיצומים כספיים בסכומים משמעותיים, שעשויים להגיע למיליוני שקלים, על ארגונים שיפרו את החוק. בנוסף, התיקון מרחיב את הגדרת “מידע אישי” כך שתכלול באופן מפורש גם מידע שהוסק או הופק באמצעים אוטומטיים – נקודה קריטית בעידן הבינה המלאכותית. ארגונים יידרשו גם לעמוד בחובות רישום ודיווח מוגברות, ורבים מהם יחויבו במינוי ממונה הגנת פרטיות ייעודי שיפקח על יישום החוק בארגון. כל אלה הופכים את ההיערכות המוקדמת לתיקון לחיונית עבור כל ארגון המשתמש או מפתח טכנולוגיות בינה מלאכותית.

השורה התחתונה – מה עליכם לעשות כעת?

לאזרחים

  • דרשו שקיפות: שאלו אילו מערכות AI מעבדות את המידע שלכם ולאילו מטרות.
  • קראו בעיון הסכמי פרטיות: במיוחד כאשר אתם מספקים מידע רגיש לשירותים המשתמשים בבינה מלאכותית.
  • הפעילו שיקול דעת: הימנעו משיתוף מידע אישי רגיש עם שירותי AI חיצוניים אם אינכם בטוחים באבטחתם.
  • דעו את זכויותיכם: אתם זכאים לדרוש תיקון של מידע שגוי עליכם, כולל מידע שהופק על ידי אלגוריתם.

לעסקים וארגונים

  • היערכו לתיקון 13: התיקון ייכנס לתוקף באוגוסט 2025 ויוביל למשטר אכיפה מחמיר – הקדימו תרופה למכה.
  • ערכו ניתוח השפעה על הפרטיות: בצעו ניתוח מעמיק של ההשפעות האפשריות על פרטיות המשתמשים לפני יישום מערכות AI.
  • מנו ממונה על הגנת הפרטיות: גם אם אינכם מחויבים בכך כיום, הכשירו גורם אחראי לנושא בארגון.
  • פתחו מנגנוני שקיפות והסכמה: ודאו שאתם מספקים הסברים ברורים ומקבלים הסכמה מפורשת לשימושים שונים במידע.
  • ישמו פעולות אבטחת מידע מוגברת: הטמיעו אמצעי הגנה ייעודיים נגד סיכוני אבטחה הייחודיים למערכות בינה מלאכותית.
  • בחנו את חוקיות השימוש במידע לאימון מודלים: ודאו שיש לכם הרשאה חוקית לכל מידע המשמש לאימון מערכות AI.

 

חשוב לדעת: ההנחיה שתיארנו במאמר זה היא בגדר טיוטה שפרסמה הרשות להגנת הפרטיות להערות הציבור, ולא מסמך סופי ומחייב. זו למעשה פרשנות הרשות להוראות חוק הגנת הפרטיות הקיים, המבהירה כיצד היא מתכוונת להפעיל את סמכויותיה בנוגע למערכות בינה מלאכותית. אם אתם מייצגים ארגון שפעילותו מושפעת מהנחיות אלו, זו הזדמנות להשתתף בעיצוב הכללים – הרשות מקבלת הערות מהציבור שעשויות להשפיע על הנוסח הסופי. מומלץ להתעדכן באתר הרשות להגנת הפרטיות לגבי המועד האחרון להגשת הערות ולעקוב אחר פרסום הגרסה הסופית של ההנחיה.

 

 

ההנחיה החדשה של הרשות להגנת הפרטיות היא חלק ממגמה עולמית של הסדרת השימוש בבינה מלאכותית. ישראל מתיישרת עם סטנדרטים בינלאומיים, כפי שניכר מחתימתה על אמנת מועצת אירופה בנושא בינה מלאכותית וממעקב שלה אחר חוק הבינה המלאכותית האירופי (AI Act). בעוד שהבינה המלאכותית מציעה הזדמנויות אדירות לקידמה, חדשנות וצמיחה, ההנחיות החדשות מזכירות לנו שפיתוחה צריך להיעשות באופן אחראי המכבד את הזכות הבסיסית לפרטיות. השילוב בין אסדרה ברורה ויישום אחראי יאפשר לנו ליהנות מיתרונות הטכנולוגיה תוך שמירה על זכויות הפרט.

הפוסט הרשות להגנת הפרטיות מפרסמת טיוטת הנחיות משמעותית בנושא שימוש ופיתוח בינה מלאכותית בישראל הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/israel-ai-privacy-implications/feed/ 0
אל לנו לשפוך את התינוק עם המים בבית המשפט https://letsai.co.il/ai-legal-hallucinations/ https://letsai.co.il/ai-legal-hallucinations/#respond Tue, 15 Apr 2025 07:39:52 +0000 https://letsai.co.il/?p=46762 בשנים האחרונות, השימוש בבינה מלאכותית חדר לעולמות תוכן רבים, לרבות התחום המשפטי. מה שהחל ככלי עזר למחקר משפטי, ניסוח טיוטות וניהול מסמכים, הפך במהרה למרכיב משמעותי בעבודתם של עורכי דין, ולעיתים אף של שופטים. ואולם, עם עוצמה גדולה מגיעה גם אחריות כבדה – ומול היתרונות של כלים מבוססי בינה מלאכותית, מתחדדים גם הסיכונים: החל מהזנת […]

הפוסט אל לנו לשפוך את התינוק עם המים בבית המשפט הופיע ראשון בLet's AI בינה מלאכותית

]]>
בשנים האחרונות, השימוש בבינה מלאכותית חדר לעולמות תוכן רבים, לרבות התחום המשפטי. מה שהחל ככלי עזר למחקר משפטי, ניסוח טיוטות וניהול מסמכים, הפך במהרה למרכיב משמעותי בעבודתם של עורכי דין, ולעיתים אף של שופטים. ואולם, עם עוצמה גדולה מגיעה גם אחריות כבדה – ומול היתרונות של כלים מבוססי בינה מלאכותית, מתחדדים גם הסיכונים: החל מהזנת מידע רגיש למערכות שאינן מאובטחות די הצורך, דרך השפעה על קבילות ראיות, ועד לתופעת “הזיות בינה מלאכותית” – יצירת מידע משפטי שגוי או כוזב המוצג כתוכן מהימן. פסק הדין שניתן בבג”ץ 38379-12-24 ביום 23.2.2025 מהווה ציון דרך חשוב בהתמודדות המשפט הישראלי עם סוגיה זו. מקרה קונקרטי של עורכת דין שהגישה עתירה לבית המשפט העליון תוך שהיא מסתמכת על פסקי דין “מומצאים” שנוצרו ככל הנראה בעזרת מערכת AI, הוביל את בית המשפט לדון בהרחבה בחובות המקצועיות של עורכי דין בעידן הבינה המלאכותית. החלטתו של ההרכב – בראשות השופטת גילה כנפי-שטייניץ, ובהסכמת השופטים דוד מינץ ויוסף אלרון – אינה מתמקדת רק במחדל המקצועי הספציפי, אלא מבקשת להבהיר את הסטנדרטים המצופים מהמשפטנים, את גבולות השימוש הראוי בטכנולוגיה, ואת הכלים הנתונים בידי המערכת להגן על ההליך המשפטי.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

עובדות המקרה

העותרת, פלונית, הגישה עתירה לבג”ץ נגד פסק דינו של בית הדין השרעי לערעורים בירושלים, אשר דחה את ערעורה על החלטת בית הדין השרעי בעכו בעניין ביטול תניה בהסכם גירושין. התניה המדוברת – “תניית ויתור” – קובעת כי כל צד מוותר על תביעות עתידיות הקשורות לנישואין ולגירושין. הסכם הגירושין אושר בפסק דין ביום 1.2.2023, לאחר שהעותרת הצהירה במפורש בפני בית הדין כי הבינה את תוכנו וחתמה עליו מרצונה החופשי. כעבור מספר חודשים, לאחר שהגישה תביעה אזרחית בעניין איזון משאבים, טען בעלה לשעבר כי התביעה חסרת תוקף לאור תניית הוויתור. בעקבות כך, ביקשה העותרת לבטל את אותה תניה בטענה שנוספה להסכם ללא הסכמתה, ושהיא עצמה אינה יודעת קרוא וכתוב בערבית ולא הייתה מודעת להשלכותיה. בית הדין השרעי דחה את בקשתה, וכך גם בית הדין לערעורים.

 

בעתירה לבג”ץ, טענה העותרת לפגיעה בזכויותיה החוקתיות, אולם עיקר הדרמה נגע למבנה ולתוכן של העתירה. עורכת דינה של העותרת, שמונתה מטעם הסיוע המשפטי, ציטטה בעתירה לא פחות מ-36 פסקי דין, רבים מהם בליווי ציטוטים מפורטים. אלא שבדיקה של ההפניות העלתה כי חלק ניכר מהן לא קיימות כלל, או שאינן תואמות את התוכן המצוטט. במענה לבקשת בית המשפט להמציא את פסקי הדין המלאים, הודתה עורכת הדין כי הסתמכה על אתר אינטרנט מומלץ “שסופק לה על ידי קולגות”, מבלי לבדוק את נכונות המידע. בכך נחשף שימוש רשלני במערכת בינה מלאכותית שלא נבדקה – שהובילה להכנסת מידע משפטי כוזב לעתירה. העותרת עצמה ביקשה בהמשך להסיר את ההפניות הבדויות ולבסס את טענותיה על פסיקה קיימת, אך בית המשפט עמד על כך שיש לדחות את העתירה על הסף – ולבחון את הסוגיה העקרונית שנחשפה.

תופעת הזיות הבינה המלאכותית (AI Hallucinations)

תופעת “הזיות בינה מלאכותית” (AI Hallucinations) מתארת מקרים שבהם מערכות בינה מלאכותית, ובפרט מודלים מבוססי שפה (כגון GPT), מייצרות תכנים שגויים או מופרכים – לעיתים בצורה שנראית אמינה, מדויקת ומשכנעת. במילים אחרות, מדובר בנתונים מומצאים שמוצגים כעובדות מהימנות. תופעה זו עלולה להיות בעייתית בכל תחום, אך מקבלת משנה תוקף כאשר מדובר במערכת המשפט. בפסק הדין מדגישה השופטת כנפי-שטייניץ כי לא מדובר בתקלה טכנית או בטעות סופר. להפך – הצגת אסמכתאות משפטיות שלא היו ולא נבראו, והסתמכות על מקורות שלא נבדקו, היא ביטוי ישיר של “חזיון תעתועים” שיוצרת מערכת AI. יתרה מכך, מכיוון שהתוצרים נראים הגיוניים ומנוסחים היטב, אף עורכי דין מנוסים עלולים ליפול בפח – בייחוד כאשר הכלים מוצגים כאוטוריטטיביים ונגישים.

 

במקרה זה, הפלט שקיבלה עורכת הדין מהאתר – ככל הנראה אתר מבוסס בינה מלאכותית – כלל הפניות לפסקי דין לא קיימים, ציטוטים לא רלוונטיים, ולעיתים אף תיאורים שגויים של הדין הקיים. לדברי השופטת, מדובר בהסתמכות עיוורת על מקור בלתי מהימן, וככזו היא מהווה מחדל מקצועי מהמעלה הראשונה. אמנם עורכת הדין טענה כי פעלה בתום לב, אך השופטת מבהירה כי אין די בכך. החובה לוודא את נכונות התכנים היא מוחלטת, בפרט כאשר מדובר בכתבי טענות לבית המשפט העליון. פסק הדין מזכיר כי מקרים דומים התרחשו לאחרונה גם בישראל וגם בעולם – כולל בפרשת Mata v. Avianca בארה״ב – ומציין כי תדירותם ההולכת וגדלה של מקרים מסוג זה מחייבת קביעת כללים משפטיים ברורים. התופעה של “הזיות” אינה תוצאה של כוונה רעה, אלא של מגבלות טכנולוגיות – אולם האחריות לשימוש בהן היא אנושית, לא אלגוריתמית.

היבטים משפטיים מרכזיים

אחריות מקצועית של עורך הדין בשימוש בבינה מלאכותית

פסק הדין מבהיר באופן חד משמעי: עצם השימוש בטכנולוגיה מתקדמת אינו פוטר את עורך הדין מחובותיו האתיות והמשפטיות. להפך – דווקא לאור העוצמה והפוטנציאל של כלי הבינה המלאכותית, מתחדדת הדרישה להפעלת שיקול דעת מקצועי וזהירות מרבית. עורך הדין, על פי הדין הישראלי, חב חובת נאמנות כלפי לקוחו (סעיף 54 לחוק לשכת עורכי הדין), חובת סיוע לבית המשפט (סיפא של סעיף 54), וחובה שלא להטעות את בית המשפט (כלל 34(א) לכללי האתיקה). פסק הדין מדגיש כי הגשת טענות שקריות או בלתי מבוססות, אפילו אם מקורן בטעות שמקורה במכונה, מהווה הפרה של כל שלוש החובות גם יחד.

 

כלומר, עורך דין אינו יכול להישען על טענה של “תום לב” או “תקלה טכנית” כאשר מדובר בשילוב שלמידע שגוי למסמך משפטי. הפסיקה קובעת נחרצות: אין זה מתקבל על הדעת שעורך דין יגיש מסמךלבית המשפט מבלי שווידא את נכונותו. אפילו כאשר מדובר במידע ממערכת שנראית אמינה – על עורך הדין לבצע בדיקה עצמאית. החובה המקצועית אינה נמסרת לידי אלגוריתם.

השלכות על בעלי הדין

השלכות הרשלנות המקצועית חורגות מעבר לעורך הדין עצמו. ראשית, נפגע הלקוח – אשר סומך על בא כוחו כי ייצגו במיומנות ובאחריות. הגשת עתירה המבוססת על מקורות בדויים אינה רק מחדל טכני, אלאגם פגיעה מהותית בזכות הלקוח לניהול הליך משפטי ראוי. בנוסף, נפגע הצד שכנגד, שנדרש להשיב לטענות שאינן קיימות, להשקיע משאבים משפטיים מיותרים ולחשוף את הטעויות שבמסמך. ולבסוף – נפגע גם בית המשפט. ללא אמון בסיסי בין המערכת המשפטית לעורכי הדין, נגרמים עיכובים, בזבוז זמן שיפוטי יקר, ופגיעה בתכליות ההליך המשפטי. כפי שמציינת השופטת כנפי-שטייניץ: “קריעת רקמת האמון שבין בית המשפט לעורך הדין עלולה לפגוע, לא רק בשאיפה להגיע לחקר האמת, אלא גם ביעילות הדיון ובכבודו של המקצוע”.

הכלים המשפטיים שבידי בית המשפט

פסק הדין מציין שורה של סנקציות וכלים העומדים לרשות בית המשפט כאשר מוגש לו מסמך מטעה המבוסס על מידע בדוי:

  • סילוק ההליך על הסף, מכוח כללי “חוסר ניקיון כפיים” או היעדר תשתית משפטית מספקת.
  • מחיקת כתב טענות, בהליכים אזרחיים, מכוח שימוש לרעה בהליכי משפט.
  • הטלת הוצאות אישיות על עורך הדין – כלי שבית המשפט רואה בו אמצעי לגיטימי וראוי בנסיבות חמורות.
  • פתיחת הליך משמעתי בלשכת עורכי הדין, לפי סעיף 61 לחוק, בגין הטעיית בית המשפט, פגיעה בכבוד המקצוע ואי-עמידה בכללי האתיקה.

עם זאת, במקרה של בג”ץ 38379-12-24, נמנע בית המשפט מהפעלת סנקציות אישיות כלפי עורכת הדין – אך הדגיש כי הדבר נעשה “לפנים משורת הדין”, בהיותו מקרה ראשון מסוגו, תוך תקווה שהבהירות והאזהרה המובעת בפסק הדין ישמשו תמרור אזהרה לעתיד.

עמדת בית המשפט העליון – פסק הדין בבג”ץ 38379-12-24

בית המשפט העליון, בהרכב של שלושה שופטים, דחה את העתירה של העותרת, הן בשל עילת ההתערבות הדלה בהחלטת בתי הדין השרעיים, והן בשל הפגמים המהותיים שנפלו בהתנהלות עורכת הדין.

דחיית העתירה לגופה

השופטים קבעו כי בית הדין השרעי פעל בגדר סמכותו בהתאם לחוק יחסי ממון בין בני זוג. כמו כן, נקבע כי לא הוכחו עילות מספקות לביטול ההסכם, שכן העותרת אישרה בעצמה כי הבינה את תוכנו וחתמה עליו מרצון חופשי. נוכח העובדות וקביעות בתי הדין הדתיים, נקבע כי אין מקום להתערבות של בג”ץ, בהיעדר עיוות דין מהותי או חריגה קיצונית מסמכות – קריטריונים נוקשים שנקבעו בפסיקה.

ההתייחסות לפגם שבטיעון המשפטי

מרכז הכובד של פסק הדין לא היה בתוצאה המשפטית של ההליך, אלא בהתנהלות המייצגת תופעה מדאיגה: הגשת עתירה לבית המשפט העליון תוך הסתמכות על עשרות פסקי דין מומצאים. ההרכב בחר להקדיש פרק שלם לפירוט התנהלות עורכת הדין, ולניתוח ההשלכות הרחבות של שימוש רשלני בבינה מלאכותית. השופטת כנפי-שטייניץ ביקשה להבהיר כי המקרה איננו מקרי, אלא סימפטום של תופעה שהולכת ומתרחבת – תופעה שמחייבת את כלל השחקנים בשדה המשפטי לנקוט משנה זהירות. בית המשפט לא היסס להבהיר את חומרת העניין – תוך פירוט של עשרות אזכורים בדויים, חלקם בציטוטים מדויקים אך שקריים, ללא כל בסיס משפטי אמיתי. לנוכח חומרה זו, פסק הדין שואף להציב גבול ברור ולהעביר מסר מחייב לכלל עורכי הדין: אין מקום לאמון עיוור בתוצרי מכונה, ואין תחליף לאחריות אנושית.

השלכות רגולטוריות ואתיות – תגובת לשכת עורכי הדין

פסק הדין של בג”ץ לא נותר תלוש מתגובה מוסדית. לשכת עורכי הדין בישראל נקטה שורה של צעדים בעקבות הפסיקה, מתוך הבנה כי מדובר באירוע משמעותי שמשנה את כללי המשחק.

גילוי דעת של ועדת האתיקה הארצית

עוד טרם פסק הדין, בחודש מאי 2024, פרסמה ועדת האתיקה גילוי דעת מקדים בו נכתב מפורשות כיהזנת מידע למערכות AI – גם אם מושמטות ממנו פרטים מזהים – עלולה להוות הפרה של חובת הסודיות והנאמנות ללקוח. פסק הדין הנוכחי העניק משנה תוקף לאזהרה זו, וחידד את הצורך בקווים מנחים מחייבים.

הגברת האכיפה והליכי משמעת

לאחר פרסום פסק הדין, פתחה לשכת עורכי הדין בהליכי משמעת נגד עורכי דין נוספים שנעשה שימוש בכתבי טענות בדויים. הליכים אלו נתפסים כחיוניים לשמירה על טוהר ההליך המשפטי ולשמירה על אמון הציבור במערכת. הלשכה גם הכריזה על כוונתה לגבש “קוד אתי” עדכני לשימוש בבינה מלאכותית, שיסדיר בין השאר:

  • חובת אימות של כל מידע שמקורו במכונה
  • איסור על העתקה עיוורת של תכנים משפטיים
  • דרישה לחשיפת מקור המידע בעת הצורך

מסר חינוכי למערכת המשפט כולה

בהתאם לרוח הדברים שנכתבו על ידי השופטת כנפי-שטייניץ, המסר המרכזי הוא חינוכי: אין בכוונת מערכת המשפט לפסול את השימוש בבינה מלאכותית, אך יש חובה למזג את החדשנות עם אחריות מקצועית וזהירות אנושית. כפי שנכתב בפסק הדין: “אל לנו לשפוך את התינוק עם המים… אך בעת הזו, שימוש בבינה מלאכותית אין משמעו התפרקות מאחריות”.

הקשר השוואתי בינלאומי – כיצד מתמודדים בעולם?

התופעה שנדונה בפסק הדין בג”ץ 38379-12-24 אינה ייחודית לישראל. למעשה, היא כבר זכתה לתהודה נרחבת בזירה המשפטית הגלובלית – בעיקר בארצות הברית, שם הוגשו כתבי בית-דין שכללו אסמכתאות מומצאות, אשר יוחסו למערכות בינה מלאכותית.

פרשת Mata v. Avianca (ארה”ב, 2023)

בפרשה שזכתה לפרסום עולמי, עורך דין הגיש טיעונים לבית המשפט הפדרלי בניו יורק כשהוא מסתמךעל שישה פסקי דין שלא היו ולא נבראו – כולם נוצרו על ידי ChatGPT. העורך דין טען להגנה בתום-לב, אך בית המשפט לא התרשם. השופט פסק קנס והדגיש כי עצם ההסתמכות על AI אינה פוטרת מבדיקת מקורות. הפרשה שימשה זרז לפרסום הנחיות חדשות מטעם לשכת עורכי הדין האמריקאית (ABA), אשר קובעות כי:

  • אין להגיש כל תוכן שלא אומת באופן עצמאי.
  • יש לנהוג בשקיפות לגבי שימוש בכלים מבוססי AI.
  • עורך הדין חייב להבין את מגבלות הכלי שבו הוא עושה שימוש.

פסיקות נוספות בארה”ב

בפסק הדין Kohls v. Ellison שניתן במדינת מינסוטה, נפסל תצהיר מומחה שהסתמך על ציטוטים שגויים ממאמרים אקדמיים – גם הם תוצאה של “הזיות בינה מלאכותית”. בית המשפט הדגיש כי גם כאשר מדובר ב”טעות בתום לב”, יש בכך פגיעה קשה באמון הציבור. בפסק הדין Ex Parte Lee בטקסס, נבחן תיק פלילי שבו הופיעו ציטוטים פיקטיביים בטיעון ההגנה – פעם נוספת, מקורם היה ככל הנראה באלגוריתם AI. גם שם ננקטו סנקציות חמורות.

עקרון העולה מן המשווה: אחריות אנושית בכל מחיר

הקו המשותף בין המערכות השונות ברור: בתי המשפט בעולם אינם מקבלים את השימוש בטכנולוגיה כתירוץ למחדלים מקצועיים. בין אם מדובר בטעות, רשלנות או עצימת עיניים – האחריות נותרת על כתפיו של עורך הדין, ואמון הציבור עומד בסכנה. ישראל מצטרפת לפסיקה הגלובלית המתריעה מפני הזיות בינה מלאכותית, ומבקשת לשרטט גבולות גזרה ברורים לעידן המשפטי הדיגיטלי.

פרשנות ומסקנות

הטכנולוגיה אינה האויב – אלא הכשל המקצועי

פסק הדין מעלה שאלה עקרונית: כיצד ניתן לשלב בינה מלאכותית בעבודת עורכי הדין, מבלי לסכן את יסודות ההליך המשפטי? התשובה שמציע בית המשפט היא זהירה אך ברורה – הכלים עצמם אינם הבעיה, אלא האופן בו נעשה בהם שימוש. הגישה המהותית שבאה לידי ביטוי בפסק הדין היא גישת “האיזון”: שילוב בין קידמה לאחריות, בין חדשנות למקצועיות. בית המשפט מביע הערכה לפוטנציאל הטמון בבינה מלאכותית – להגברת הנגישות למשפט, לייעול המחקר המשפטי, ואף לקיצור התהליכים – אך מדגיש כי כל זאת ייתכן רק כאשר יש בקרה אנושית משמעותית.

חזון אתי לעתיד הקרוב

אם בעבר שאלת האתיקה בעבודת עורך הדין התרכזה רק בדילמות מוסריות “מסורתיות”, הרי שבעידן החדש האתיקה כוללת גם שאלות טכנולוגיות: האם מותר לעו”ד להזין מסמכים חסויים לכלי כמו ChatGPT? כיצד יש לציין מקור מידע שנוצר אוטומטית? והאם ניתן להטיל אחריות פלילית או משמעתית על טעות טכנולוגית? פסק הדין מהווה תמרור ברור: עורך דין נדרש להבין את הכלי שבו הוא משתמש, להכיר את מגבלותיו, ולא להיסמך עליו כאילו מדובר בשותף משפטי מוסמך. למעשה, הטכנולוגיה הופכת לנושא נוסף שעל עורך הדין לשלוט בו – לא פחות מהמשפט המהותי.

שינוי שיח משפטי

הדיון בפסק הדין לא נשאר בגבולות המקרה הקונקרטי. מדובר ברגע שבו מערכת המשפט נדרשת להתמודד עם שינוי פרדיגמה. לא עוד “האם” להשתמש בטכנולוגיה, אלא “כיצד”. לא רק שאלות שלחופש פעולה, אלא שאלות של זהירות, בקרה, ואחריות.

מה ניתן ללמוד מכל זה? מה הלקח?

פסק הדין בג”ץ 38379-12-24, העוסק בשימוש רשלני בבינה מלאכותית לצורך הכנת עתירה לבית המשפט העליון, מסמן קו גבול חשוב במערכת המשפט הישראלית. מצד אחד, בית המשפט מבהיר כי בינה מלאכותית היא כלי עזר חשוב ובעל פוטנציאל מרחיק לכת, שיכול לסייע לעורכי דין, שופטים ומתדיינים; מצד שני, הוא מציב גבולות ברורים ומחייבים – האחריות לשימוש בכלי זה היא אנושית, לא טכנולוגית. הפסיקה קובעת:

• השימוש בכלי AI אינו תחליף לשיקול דעת מקצועי.
• עורכי דין מחויבים לבדוק את נכונות המידע – גם אם הוא הגיע ממקור שנראה מהימן.
• כתבי בית-דין שכוללים תוכן כוזב עלולים להביא לסילוק ההליך, להטלת הוצאות אישיות, ואף להליכים משמעתיים.
 
 

בצד ההשלכות המיידיות, יש בפסק הדין גם אמירה רחבה יותר: מערכת המשפט חייבת להיערך לעידן הדיגיטלי, אך עליה לעשות זאת מתוך אחריות, שיקול דעת, והצבת גבולות אתיים ברורים. הבינה המלאכותית כבר כאן – אך אמון הציבור, מקצועיות עורכי הדין וטוהר ההליך המשפטי, חייבים להישמר!

הפוסט אל לנו לשפוך את התינוק עם המים בבית המשפט הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-legal-hallucinations/feed/ 0
לשכת עורכי הדין מגבירה אכיפה בעקבות בג”ץ על שימוש פסול בבינה מלאכותית https://letsai.co.il/lawyers-ai-ethics/ https://letsai.co.il/lawyers-ai-ethics/#respond Sun, 09 Mar 2025 11:50:19 +0000 https://letsai.co.il/?p=44381 בשבועות האחרונים, תחום הבינה המלאכותית (AI) מצא את עצמו במרכז הדיון המשפטי בישראל, בעקבות פסקי דין שחשפו שימוש פסול בטכנולוגיה זו על ידי עורכי דין. שני מקרים בהם עורכי דין הסתמכו על פסקי דין “מומצאים” שנוצרו על ידי מערכות בינה מלאכותית עוררו סערה, והובילו את לשכת עורכי הדין להחמיר את האכיפה בתחום.      בינה […]

הפוסט לשכת עורכי הדין מגבירה אכיפה בעקבות בג”ץ על שימוש פסול בבינה מלאכותית הופיע ראשון בLet's AI בינה מלאכותית

]]>
בשבועות האחרונים, תחום הבינה המלאכותית (AI) מצא את עצמו במרכז הדיון המשפטי בישראל, בעקבות פסקי דין שחשפו שימוש פסול בטכנולוגיה זו על ידי עורכי דין. שני מקרים בהם עורכי דין הסתמכו על פסקי דין “מומצאים” שנוצרו על ידי מערכות בינה מלאכותית עוררו סערה, והובילו את לשכת עורכי הדין להחמיר את האכיפה בתחום. 

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

בינה מלאכותית בהיכלי המשפט

בינה מלאכותית משנה את פני עולם המשפט, כשהיא מציעה כלים מתקדמים שמייעלים את עבודת עורכי הדין ומשפרים את תפקוד בתי המשפט. מערכות AI כבר משמשות לניסוח מסמכים משפטיים במהירות ובדיוק, לניתוח סיכונים, להערכת מסוכנות של נאשמים, ולניהול תיקי בית משפט באופן חכם. בנוסף, הן מאפשרות לעורכי דין להעמיק במחקר משפטי ולשפר את איכות כתבי הטענות.

 

לצד יתרונותיה הרבים, הטכנולוגיה מציבה גם אתגרים משמעותיים. אחד החששות המרכזיים הוא זליגת מידע רגיש, שעלולה לפגוע בפרטיות ובחיסיון של לקוחות. בנוסף, קיים קושי להבטיח את מהימנותן של ראיות שנוצרו על ידי AI, במיוחד כאשר לא ניתן לחקור את מקורן או להבין כיצד התקבלו. תופעת “הזיות הבינה המלאכותית,” שבה מערכות מייצרות תוכן כוזב הנראה אמין לחלוטין, מדגישה את הצורך בבקרה אנושית ובאימות המידע.

 

במערכת המשפט, האחריות הסופית עדיין מוטלת על עורכי הדין והשופטים. על עורכי הדין לוודא שכל מידע שמקורו בבינה מלאכותית נבדק בקפידה לפני הגשתו לבית המשפט. השימוש בטכנולוגיה חייב להיות זהיר ומושכל, תוך הבנה מעמיקה של מגבלותיה. ככל שהטכנולוגיה תתקדם, יהיה צורך לפתח כללים אתיים ורגולטוריים שיבטיחו איזון בין חדשנות לבין שמירה על עקרונות מקצועיים ואתיים.

 

השילוב של AI במערכת המשפט אינו רק כלי עבודה – הוא מהווה הזדמנות לחשיבה מחדש על תהליכים משפטיים ועל הדרך שבה הם מתנהלים. עם זאת, כדי למצות את הפוטנציאל שלה באופן אחראי, יש להקפיד על שילוב בין חדשנות לאחריות מקצועית ואנושית.

 

התופעה: “הזיות” של בינה מלאכותית

פסק הדין של בג”ץ (בג”ץ 38379-12-24) חשף כיצד עורכת דין הסתמכה על פסקי דין שלא היו ולא נבראו, תוך שימוש במידע שסופק לה מאתר מבוסס בינה מלאכותית. השופטת גילה כנפי-שטייניץ ציינה בפסק הדין כי מדובר בתופעה הולכת ומתרחבת של “הזיות בינה מלאכותית” – מצב שבו מערכות AI יוצרות תוכן מטעה או כוזב הנחזה כאמין. לדבריה, “פלט ‘ההזיה’ שקיבלה [עורכת הדין] נחזה בעיניה כה אמין, עד כי לא טרחה לבדוק את אמיתות תוכנו”.

התגובה: אכיפה מוגברת וכללים חדשים

בעקבות המקרים הללו, ועדת האתיקה של לשכת עורכי הדין פתחה בהליכים משמעתיים נגד שני עורכי דין שהפנו לפסקי דין בדויים. בנוסף, הלשכה מתכננת לפרסם כללים מפורטים שיסדירו את השימוש המותר והאסור בבינה מלאכותית בעבודת עורכי הדין. גילוי דעת שפורסם באוגוסט 2024 כבר קבע שעורך דין שלא מאמת מידע שמקורו בבינה מלאכותית מפר את חובת הנאמנות שלו ללקוח ולבית המשפט.

האתגר האתי והמקצועי

השימוש בבינה מלאכותית מציב אתגרים משמעותיים לעולם המשפט. מצד אחד, הטכנולוגיה טומנת בחובה פוטנציאל עצום לייעול עבודת עורכי הדין ומצד שני, כפי שהודגש בפסק הדין, האחריות הסופית לתוכן המוגש לבית המשפט נותרת בידי עורך הדין. השופטת כנפי-שטייניץ הדגישה כי “שימוש שעושים עורכי דין בכלי בינה מלאכותית אין משמעו כי הם יכולים להתפרק מאחריותם ומשיקול דעתם המקצועי”.

השפעות גלובליות

התופעה אינה ייחודית לישראל. בארצות הברית, לדוגמה, מקרה דומה הוביל לקנס על עורך דין שהגיש מסמכים עם אסמכתאות בדויות שנוצרו על ידי AI. גם האיגוד האמריקאי לעורכי דין (ABA) פרסם הנחיות ברורות לשימוש אחראי בבינה מלאכותית, תוך הדגשת חובת הבדיקה והאימות של כל תוכן שנוצר באמצעות כלים אלו.

איזון בין חדשנות לאחריות

אין ספק שבינה מלאכותית משנה את פני עולם המשפט, אך שילובה חייב להתבצע בזהירות ובאחריות. כפי שצוין בפסק הדין, לצד הפוטנציאל העצום לשיפור תהליכים משפטיים, קיימת חובה לשמור על עקרונות האתיקה והמקצועיות. השופטת כנפי-שטייניץ היטיבה לתאר זאת בפסק הדין:

“אין בחומרת המעשה שלפנינו, ובחששות שהוא מעורר, כדי להעיב על שימושים ראויים שניתן לעשות בכלי בינה מלאכותית. אל לנו לשפוך את התינוק עם המים…בכלי הבינה המלאכותית טמון פוטנציאל רב לשיפור מרחיק לכת של המלאכה המשפטית; הגברת הגישה לערכאות והנגשת הדין; העמקת המחקר המשפטי ושיפור כתבי הטענות; ייעול ההליכים וקיצור משך ההתדיינות; השגת פשרות; והפחתת העומס על מערכת המשפט”.

 

“אין זה ראוי כי מפני החששות המובנים נחמיץ תועלות אלו. יתרה מזו. נוכח קצב התקדמותה של טכנולוגיה זו, יש הסבורים כי לא ירחק היום שחובותיו של עורך הדין והדינמיות המאפיינת אותה ישמיעו צורך להיעזר בכלים אלו…ואולם, לעת הזו יש להדגיש כי שימוש שעושים עורכי דין בכלי בינה מלאכותית, אין משמעו כי הם יכולים להתפרק מאחריותם ומשיקול דעתם המקצועי”.

 

“חובותיהם המקצועיות של עורכי דין דורשות לעשות בטכנולוגיה זו שימוש אחראי, זהיר וביקורתי, להבין לעומקן את יכולותיה ומגבלותיה, ולהתעדכן מעת לעת בכל הנוגע לחולשותיה וחוזקותיה. בפרט, אין הם רשאים להגיש לבית המשפט כתבי בית-דין שלא נבדקה אמינותם ודיוקם בדוק היטב, שלא לומר כתבי בית דין מוטעים ומטעים, תוך הסתמכות עיוורת על הכלים האמורים”.

 

קורס עו"ד

 

קורס AI לעו”ד ומשפטנים – למימוש ההטבה הזינו את קוד הקופון באתר הקורס.

 

רוצים לרתום את עוצמת הבינה המלאכותית לעבודה המשפטית שלכם? בואו ללמוד כיצד לייעל את העבודה המשפטית היומיומית באמצעות AI, להכיר טכניקות מתקדמות לניתוח פסקי דין וכתיבת סיכומים, ולהיחשף לשיטות חדשניות לבדיקת הסכמים ומסמכים משפטיים. תוכלו גם להתעדכן בדגשים החשובים על רגולציה ואתיקה בשימוש בבינה מלאכותית בעולם המשפטי. כנסו כאן למידע נוסף.

הפוסט לשכת עורכי הדין מגבירה אכיפה בעקבות בג”ץ על שימוש פסול בבינה מלאכותית הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/lawyers-ai-ethics/feed/ 0
Anthropic חושפת תובנות מפתיעות על שילוב AI במקצועות השונים בשוק העבודה https://letsai.co.il/ai-empowering-lawyers/ https://letsai.co.il/ai-empowering-lawyers/#respond Sat, 15 Feb 2025 15:56:37 +0000 https://letsai.co.il/?p=42783 האם אי פעם תהיתם עד כמה הבינה המלאכותית משפיעה על העבודה שלכם? מחקר חדש חושף נתונים מפתיעים על הדרך שבה AI משנה את שוק העבודה – לא רק בתחזיות עתידיות, אלא כאן ועכשיו. בשנים האחרונות, הפכה הבינה המלאכותית לנושא מרכזי עבור חוקרים, כלכלנים ומנהלים, אך עד כה היו אלה בעיקר תחזיות והשערות. כעת, מחקר ‘The […]

הפוסט Anthropic חושפת תובנות מפתיעות על שילוב AI במקצועות השונים בשוק העבודה הופיע ראשון בLet's AI בינה מלאכותית

]]>
האם אי פעם תהיתם עד כמה הבינה המלאכותית משפיעה על העבודה שלכם? מחקר חדש חושף נתונים מפתיעים על הדרך שבה AI משנה את שוק העבודה – לא רק בתחזיות עתידיות, אלא כאן ועכשיו. בשנים האחרונות, הפכה הבינה המלאכותית לנושא מרכזי עבור חוקרים, כלכלנים ומנהלים, אך עד כה היו אלה בעיקר תחזיות והשערות. כעת, מחקר ‘The Anthropic Economic Index’ מציג גישה חדשנית המבוססת על נתונים אמיתיים ממיליוני שיחות אנונימיות עם Claude. התוצאות? AI לא רק משנה תפקידים קיימים אלא גם מעצב מחדש את דינמיקת העבודה – מ-36% מהמשרות שמשלבות אותו בלפחות רבע מהמשימות ועד 57% מהשימושים שממוקדים בהעצמת יכולות אנושיות ולא באוטומציה מלאה. זהו רגע מכריע שמזמין אותנו לחשוב מחדש על תפקידנו בעולם העבודה המשתנה.
 
הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

שיטת המחקר והמתודולוגיה: כך נחשפה השפעת ה-AI על שוק העבודה

“The Anthropic Economic Index” מציג גישה חדשנית לניתוח השפעת הבינה המלאכותית על משימות מקצועיות, תוך שימוש במיליוני שיחות אמיתיות עם Claude. הנתונים נאספו ממשתמשי הגרסאות החינמיות והפרו של המערכת, ועובדו באופן אוטומטי תוך שמירה קפדנית על פרטיות המשתמשים. תהליך זה הבטיח ניתוח מדויק ואמין, ללא חשיפת פרטים מזהים.

 

לצורך סיווג המשימות, נעשה שימוש במערכת חכמה בשם Clio, שנועדה למפות את השיחות לשירותי משימות תעסוקתיות. המערכת פועלת בהתאמה לסיווג המשימות של משרד העבודה האמריקאי (ONET), הכולל מעל 20,000 משימות מקצועיות. באמצעות Clio, תתי-משימות מקובצות לתחומי עיסוק מגוונים כמו מחשבים ומתמטיקה, אמנויות, חינוך ועסקים. מתודולוגיה זו מאפשרת להבין בצורה מדויקת כיצד AI משתלב בכל תחום ומקצוע, ומספקת תמונה רחבה ומעמיקה של השפעת הטכנולוגיה על דינמיקת העבודה. גישה זו לא רק מדגישה את הדיוק המחקרי, אלא גם ממחישה את הפוטנציאל של AI לנתח ולהבין תהליכים מורכבים בשוק העבודה.

ממצאים מרכזיים

מהטכנולוגיה ועד המשפט – כך AI משנה את שוק העבודה

תחום “המחשבים והמתמטיקה” מוביל בשיעורי השימוש בבינה מלאכותית, כאשר כ-37.2% מהשיחות שנאספו מתמקדות במשימות כמו פיתוח תוכנה, תיקון קוד וניפוי באגים. למרות שתפקידים טכנולוגיים מהווים רק 3.4% מכוח העבודה הכולל, הם מציגים את שיעורי האימוץ הגבוהים ביותר של AI. נתון זה מדגיש את תפקידו המרכזי של המגזר הטכנולוגי כחלוץ באימוץ כלים חדשניים, המסייעים לייעל תהליכים מורכבים ולהפחית זמני עבודה.

 

בתחום המשפטי, ה-AI יוצר מהפכה משמעותית לא פחות. כלים כמו CoCounsel של Thomson Reuters ו-SuperLawyer הקוריאני מאפשרים ניתוח חוזים, ניסוח מסמכים משפטיים וחיזוי תוצאות משפטיות בצורה מדויקת ומהירה יותר. עורכי דין המשתמשים בכלים אלו מדווחים על חיסכון של עד 30 דקות עבודה בכל שעה, לצד הפחתה של כ-70% בעלויות התפעול. לא פחות מ-92.5% מעורכי הדין ציינו כי השימוש ב-AI שיפר משמעותית את יעילותם, תוך שהוא מפנה להם זמן להתמקד באסטרטגיה ובקבלת החלטות קריטיות.

 

 

התמונה מטה מציגה נתונים על השימוש בבינה מלאכותית (AI) בתחומים שונים במשק, בהתבסס על שיחות אמיתיות שנערכו עם Claude. האחוזים המוצגים מתייחסים לשיעור השיחות שעסקו במשימות, תפקידים וקטגוריות ספציפיות בכל תחום. התמונה מדגישה את השימוש הנרחב ב-AI בתחומים טכנולוגיים כמו מחשבים ומתמטיקה, לצד שילוב הדרגתי בתחומים אחרים כגון חינוך, אמנות ומדעים חברתיים. הטכנולוגיה משמשת הן להעצמת עובדים והן לאוטומציה של משימות חוזרות ונשנות במגוון רחב של מקצועות ותעשיות:

התפלגות השימוש ב-AI לפי תחומים ומשימות

התפלגות השימוש ב-AI לפי תחומים ומשימות. Credit: anthropic.com

 

נתון מפתיע הוא שדווקא מקצועות הביניים, כמו כתיבה משפטית וניתוח מסמכים, מובילים את מהפכת ה-AI ומשתמשים בטכנולוגיה באופן נרחב יותר בהשוואה למשרדי עורכי דין מסורתיים. לדוגמה, חברת Law&Company הדרום-קוריאנית משתמשת בכלי AI כמכפיל כוח, המאפשר לעורך דין בודד לבצע עבודה שמקבילה לזו של צוות שלם. עם זאת, אחד האתגרים הבולטים הוא החשש מ”הזיות” (hallucinations) של AI – טעויות בציטוטים משפטיים – מה שהוביל לפיתוח מערכות אימות אוטומטיות כדי להבטיח דיוק במידע המופק.

 

הנתונים מצביעים על כך ש-AI אינו מחליף עורכי דין אלא יוצר סוג חדש של איש מקצוע: כזה שמשלב יכולות טכנולוגיות עם פניות מנטלית להתמקד בהיבטים האנושיים והיצירתיים של המקצוע. זהו שינוי שמחייב השקעה בהכשרה מחדש ובהתאמת תהליכי העבודה לטכנולוגיה החדשה.

 

השפעת ה-AI אינה מוגבלת לאוטומציה בלבד; היא יוצרת שינוי תרבותי עמוק בעבודה. ארגונים שמאמצים AI מדווחים על עלייה של 72% בשיתוף פעולה ו-40% שיפור בקבלת החלטות. במשרדים משפטיים, השינוי מתבטא במעבר ממשימות טכניות למשימות אסטרטגיות, דגש מוגבר על יצירתיות ופרשנות משפטית ושיתוף ידע משופר באמצעות מאגרי מידע מבוססי AI.

שותף ולא מחליף

אחד הממצאים המרכזיים במחקר מדגיש את האופן שבו AI משתלב בעבודה האנושית: ב-57% מהמקרים, השימוש ב-AI מוגדר כהעשרה – מצב שבו המערכת פועלת כשותפה לעובד, מסייעת לו ומשפרת את ביצועיו. לעומת זאת, רק 43% מהמשימות מבוצעות באוטומציה מלאה, שבה ה-AI מבצע את המשימה כמעט ללא מעורבות אנושית.

 

נתון זה מבהיר כי מטרת ה-AI אינה להחליף את העובד האנושי, אלא להעצים אותו. באמצעות הפחתת העומס ממשימות טכניות או חוזרות, AI מאפשר לעובדים להתמקד במשימות יצירתיות, אסטרטגיות או מורכבות יותר. כך, הטכנולוגיה הופכת לכלי שיתופי שמגדיל את הפרודוקטיביות ומשפר את חוויית העבודה. השילוב הזה בין אדם למכונה משנה את האופן שבו אנו תופסים את מקומו של ה-AI בעולם העבודה – לא כתחליף אלא ככוח משלים שמעצים את היכולות האנושיות ומאפשר לעובדים למצות את הפוטנציאל שלהם.

 

הגרף מציג את אחוז השיחות עם Claude שחולקו לשתי קטגוריות עיקריות: העשרה (Augmentation) ו-אוטומציה (Automation), וכן את תתי-המשימות בכל קטגוריה:

 

השוואה בין העשרה לאוטומציה במשימות AI

בין אוגמנטציה לאוטומציה. Credit: anthropic.com

תהליך הדרגתי של שילוב טכנולוגי

הנתונים מצביעים על כך שהשימוש ב-AI במקצועות שונים מתפתח בצורה הדרגתית ולא אחידה. כ-36% מהמקצועות משלבים AI בלפחות 25% מהמשימות שלהם, אך רק 4% מהמקצועות משתמשים בו באופן נרחב ביותר מ-75% מהמשימות. נתונים אלו מדגישים כי רוב התפקידים עדיין נמצאים בשלבי הסתגלות, בהם רק חלק מהמשימות עוברות אוטומציה או העשרה באמצעות AI.

 

תהליך זה מעיד על התפתחות אורגנית של השימוש בטכנולוגיה, שבה ה-AI משתלב בהדרגה בתהליכי העבודה, בעוד שמרבית המשימות עדיין דורשות מעורבות אנושית משמעותית. המשמעות היא שה-AI אינו מחליף את העובד באופן גורף, אלא משתלב כתוספת שמייעלת חלקים מסוימים בעבודה. התהליך ההדרגתי הזה מאפשר לעובדים ולארגונים להסתגל לטכנולוגיה בקצב שמתאים להם, תוך שמירה על איזון בין חדשנות טכנולוגית לבין הצורך בכישורים אנושיים ייחודיים.

 

כדי להבין כיצד AI משתלב בתחומים שונים, הגרף הבא מציג את שיעור השיחות עם Claude ביחס לייצוג העובדים בכל תחום. הנתונים מדגישים את התחומים שבהם הטכנולוגיה נמצאת בשימוש נרחב ואת אלו שבהם היא עדיין אינה משמעותית:

שימוש ב-AI לפי סוגי מקצועות

שימוש ב-AI לפי סוגי מקצועות. Credit: anthropic.com

 

כפי שניתן לראות, תחום המחשבים והמתמטיקה מוביל בפער ניכר בשיעורי השימוש ב-AI, בעוד שתחומים כמו חקלאות ושירותי ניקיון כמעט ואינם משתמשים בטכנולוגיה. מגמה זו משקפת את ההתאמה הגבוהה של AI למשימות טכנולוגיות וקוגניטיביות.

AI והשכר: מי מרוויח מהטכנולוגיה?

הנתונים מראים כי השימוש ב-AI נפוץ יותר במקצועות בעלי שכר בינוני עד גבוה, כמו מתכנתים, מדעני נתונים וכותבי תוכן. לעומת זאת, תפקידים בשכר נמוך או מקצועות בשיא השכר – כמו חלק מהתפקידים הרפואיים – מציגים שיעורי שימוש נמוכים יותר. מגמה זו מדגישה את הקשר בין אופי המשימות לבין אימוץ הטכנולוגיה: תפקידים הדורשים עבודה קוגניטיבית ואנליטית נוטים לשלב AI בקלות רבה יותר, שכן הוא מסייע לייעל תהליכים מורכבים ולשפר ביצועים.

 

המשמעות ברורה – השימוש ב-AI במקצועות אלו לא רק משפר את היעילות, אלא גם עשוי להגדיל את הפרודוקטיביות ואת הערך הכלכלי של עובדים במגזרים אלה. עם זאת, הפער בשיעורי האימוץ בין קבוצות השכר השונות עשוי להצביע על כך שתחומים מסוימים עדיין לא מממשים את מלוא הפוטנציאל של הטכנולוגיה, מה שמעלה שאלות לגבי הנגישות וההשפעה של AI על שוק העבודה כולו.

תתי-משימות: המפתח להבנת השפעת ה-AI על שוק העבודה

אחד הממצאים המרכזיים במחקר הוא החשיבות של התמקדות בתתי-משימות במקום במקצועות עצמם. משימות כמו זיהוי דפוסים וניתוח ויזואלי, לדוגמה, מופיעות במגוון רחב של תפקידים – ממעצבים גרפיים ועד רופאים – ומציגות פוטנציאל גבוה לאוטומציה או העשרה באמצעות AI. גישה זו מאפשרת לזהות את ההשפעה העמוקה של הטכנולוגיה על רכיבים ספציפיים בעבודה, ללא קשר למקצוע הכולל.

 

המשמעות היא שהשפעת ה-AI אינה מוגבלת רק לתחומים מסוימים, אלא מתפרסת על פני משימות שחוזרות על עצמן במגוון מקצועות. ניתוח מעמיק זה מספק תמונה מדויקת יותר של האופן שבו AI משנה את שוק העבודה, ומאפשר למנהלים ולארגונים לזהות הזדמנויות לשיפור פרודוקטיביות בתחומים מגוונים. בנוסף, הוא מדגיש את הפוטנציאל של AI לשפר תהליכים קריטיים גם במקצועות שלא נתפסים כטכנולוגיים באופן מסורתי.

 

מגבלות המחקר: תמונה מורכבת של השפעת ה-AI

המגבלות מדגישות את המורכבות שבניתוח ההשפעות של AI על שוק העבודה. אף שהמחקר מספק תובנות חשובות, יש להתייחס אליו כאל בסיס לדיון ולמחקר נוסף, תוך הבנה שהממצאים אינם חפים מהטיות ומגבלות מתודולוגיות.

ייצוג המשתמשים

אחת המגבלות המרכזיות במחקר היא העובדה שהנתונים נאספו אך ורק ממשתמשי גרסאות Free ו-Pro של Claude. משמעות הדבר היא שייתכן והנתונים אינם מייצגים את כלל השוק, במיוחד משתמשים ארגוניים, משתמשי API או משתמשים במודלים אחרים. בנוסף, ההתמקדות ב-Claude עשויה להטות את הממצאים ביחס לשימוש בכלי AI אחרים. לכן, חשוב להתייחס לנתונים כאל תמונה ממוקדת ולא כללית.

השימוש בפעילויות עבודה לעומת שימוש אישי

מגבלה נוספת נוגעת לקושי להבחין בין שיחות שנועדו למטרות עבודה לבין כאלה שנעשו לצרכים אישיים, כמו כתיבה יצירתית או ניסויים פרטיים. ייתכן שחלק מהנתונים משקפים שימוש פרטי שאינו קשור לתהליכים מקצועיים, מה שעלול לעוות את הפענוח של השפעות ה-AI על שוק העבודה. מגבלה זו מדגישה את הצורך באבחנה ברורה יותר בין סוגי השימושים בעת ניתוח נתונים עתידי.

דיוק הסיווג

למרות השימוש בכלי Clio ובסיווג על בסיס ONET, קיימת אפשרות לסיווג שגוי של חלק מהשיחות. תהליך אוטומטי זה עשוי לטעות בהבנת ההקשרים של השיחות, במיוחד כאשר המשימה אינה מוגדרת בצורה חד-משמעית. מגבלה זו מחייבת גישה זהירה לניתוח הנתונים והכרה בכך שהתוצאות עשויות לכלול אי-דיוקים מסוימים.

 

מסקנות והמלצות לעתיד: כיצד להיערך לעבודה בעידן ה-AI

עתיד העבודה עם AI

הממצאים מהמחקר של Anthropic מראים כי ה-AI אינו מחליף את העובדים, אלא משמש ככלי להעצמתם. רוב המקצועות עדיין דורשים התערבות אנושית, כאשר ה-AI משתלב בצורה הדרגתית ומשלים את העבודה. עם התקדמות הטכנולוגיה, צפוי כי ניתוחים חוזרים של המדד יספקו תובנות מעמיקות יותר על האופן שבו AI משנה את שוק העבודה – הן מבחינת עומק השימוש בטכנולוגיה והן ביחס לאיזון בין אוטומציה לאוגמנטציה.

חשיבות שיתוף המידע והמחקר

Anthropic בחרה לשתף את מערך הנתונים שלה עם הציבור, מהלך שמאפשר לחוקרים, כלכלנים ומקבלי החלטות להעמיק את הבנתם ולהתאים מדיניות למגמות המשתנות. שיתוף המידע חשוב במיוחד כדי לבחון את השפעות ה-AI מזוויות שונות – טכנולוגיות, כלכליות וחברתיות – ולגבש מדיניות שתאפשר מעבר חלק לעידן בו שוק העבודה משתנה במהירות.

המלצות למנהלים וקובעי מדיניות

1. התמקדות בהעשרה: מאחר שה-AI משמש בעיקר להעצמת עובדים, מומלץ להשקיע בהכשרות מקצועיות שיסייעו לעובדים ללמוד כיצד לנהל ולשלב כלי AI בעבודתם היומיומית.
2. התאמה למאפייני תפקיד: יש לזהות תפקידים בהם ניתן לשפר תהליכים בעזרת AI ולהתמקד בהטמעת הכלים בתחומים בהם הפוטנציאל לשיפור הוא הגבוה ביותר.
3. מעקב מתמשך: מומלץ לקיים מעקב שיטתי אחר מגמות השימוש ב-AI בשוק העבודה כדי לזהות מוקדם שינויים שעשויים להשפיע על מבנה התעסוקה ולפתח מדיניות תגובה שתתמודד עם האתגרים בצורה יעילה.

 

המעבר לעבודה משולבת AI הוא תהליך מתמשך הדורש הסתגלות מצד ארגונים ועובדים כאחד. באמצעות השקעה בהכשרה, התאמת הכלים לצרכים ספציפיים ומעקב מתמיד אחר המגמות, ניתן למנף את הטכנולוגיה לטובת שיפור הפרודוקטיביות ושימור הערך האנושי בעבודה.

 

 

המחקר “The Anthropic Economic Index” מציג תמונה מאוזנת ומבוססת נתונים על האופן שבו הבינה המלאכותית משפיעה על שוק העבודה. הממצאים מראים כי ה-AI אינו מחליף את העובדים, אלא משמש ככלי שיתופי שמעצים את יכולותיהם. תחום המחשבים והמתמטיקה מוביל את השימוש בטכנולוגיה, בעוד שמקצועות אחרים מאמצים אותה בהדרגה, בהתאם לאופי המשימות ורמות השכר. השימוש ב-AI מתמקד בעיקר בהעשרה ולא באוטומציה מלאה, מה שמעיד על שינוי הדרגתי בתהליכי העבודה ולא על מהפכה מיידית. גישת המחקר, שהתמקדה בתתי-משימות ולא רק במקצועות עצמם, מספקת הבנה מעמיקה יותר של השפעת הטכנולוגיה על רכיבי העבודה השונים. המסקנה המרכזית היא ש-AI מתפקד כיום ככוח משלים שמייעל תהליכים ומשפר פרודוקטיביות, תוך שמירה על הצורך בהתערבות אנושית. יחד עם זאת, יש להמשיך לעקוב אחר מגמות השימוש בטכנולוגיה ולבחון את השפעותיה לטווח הארוך, כדי להיערך לעידן שבו השילוב בין אדם למכונה יהפוך לחלק אינטגרלי ובלתי נפרד מהעבודה היומיומית. למחקר המלא, כנסו כאן.

הפוסט Anthropic חושפת תובנות מפתיעות על שילוב AI במקצועות השונים בשוק העבודה הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-empowering-lawyers/feed/ 0
כיצד AI יכול לייעל בדיקת נאותות בהסכמים וחוזים? https://letsai.co.il/due-diligence-ai/ https://letsai.co.il/due-diligence-ai/#respond Sat, 28 Dec 2024 05:12:38 +0000 https://letsai.co.il/?p=38007 בדיקת נאותות (Due Diligence) היא שלב מהותי בתהליכים משפטיים ועסקיים, במיוחד כשמדובר בניהול ובחינת חוזי העסקה. מדובר במשימה מורכבת ומפורטת הדורשת דיוק רב וזמן משמעותי. עם זאת, כלי בינה מלאכותית (AI) הפכו את המשימה הזו ליעילה וממוקדת יותר, תוך הפחתת סיכונים משפטיים וחיסכון בעלויות. במאמר זה נבחן כיצד AI משנה את התמונה בתחום הזה.   […]

הפוסט כיצד AI יכול לייעל בדיקת נאותות בהסכמים וחוזים? הופיע ראשון בLet's AI בינה מלאכותית

]]>
בדיקת נאותות (Due Diligence) היא שלב מהותי בתהליכים משפטיים ועסקיים, במיוחד כשמדובר בניהול ובחינת חוזי העסקה. מדובר במשימה מורכבת ומפורטת הדורשת דיוק רב וזמן משמעותי. עם זאת, כלי בינה מלאכותית (AI) הפכו את המשימה הזו ליעילה וממוקדת יותר, תוך הפחתת סיכונים משפטיים וחיסכון בעלויות. במאמר זה נבחן כיצד AI משנה את התמונה בתחום הזה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

זיהוי והדגשה אוטומטית של סעיפים קריטיים

במקום לקרוא ולנתח באופן ידני כל חוזה, מערכות AI מבוססות עיבוד שפה טבעית (NLP) מסוגלות לסרוק מסמכים במהירות ולזהות אם סעיפים מרכזיים, כמו קניין רוחני, אי תחרות או סודיות, כלולים בהם.

 

שלבי עבודה:

  1. העלאת החוזים למערכת AI: את החוזים ניתן להעלות לפלטפורמה ייעודית, כאשר רצוי להעלות 2-3 חוזים בכל פעם כדי להקל על התהליך.
  2. סריקה ואיתור סעיפים: המערכת מנתחת את המסמכים תוך שניות ומדגישה סעיפים קריטיים.
  3. זיהוי חסרונות: אם סעיף מסוים חסר או מוגדר בצורה שאינה מלאה, המערכת מספקת התראה מדויקת לצורך התייחסות מיידית.

 

דוגמה לשימוש:

מערכת AI יכולה לזהות שסעיף אי תחרות קיים אך אינו כולל מגבלת זמן, או שסעיף הקניין הרוחני מוגבל רק לפטנטים ואינו מתייחס לעבודות יצירתיות אחרות.

 

קורס עו"ד

קורס AI לעו”ד ומשפטנים – למימוש ההטבה הזינו את קוד הקופון באתר הקורס.

 

הפנייה ישירה לסעיפים רלוונטיים

כלי AI אינם מסתפקים בזיהוי הסעיפים אלא מפנים את המשתמש למיקום המדויק במסמך, תוך הצגת סיכום קצר של תוכן הסעיף. הדבר מקל על הבנת התמונה המלאה ומונע בזבוז זמן בניסיון לאתר סעיפים רלוונטיים במסמך ארוך.

 

יתרונות התכונה:

  • איתור מיידי של הסעיף הרלוונטי, לדוגמה: “סעיף סודיות מופיע בסעיף 5.2 ומכסה מידע מסחרי בלבד.”
  • קבלת מידע נוסף על ניסוחים חלקיים או שגויים, כולל המלצות לשיפור.

 

הפקת דוח מסכם: שקיפות בנתונים

לאחר סיום סריקת החוזים, המערכת יכולה להפיק דוח מסכם המבוסס על המידע שנאסף. דוחות אלו מספקים ראייה מקיפה של מצב החוזים ומאפשרים קבלת החלטות מהירה ומושכלת.

 

מה כולל הדוח?

  • חוזים תקינים: חוזים המכילים את כל הסעיפים הנדרשים.
  • חוזים חסרים או חלקיים: פירוט מדויק של סעיפים חסרים או ניסוחים הזקוקים לשיפור.
  • דירוג סיכון: הערכת דרגת הסיכון המשפטי לכל חוזה, בהתבסס על התאמתו לסטנדרטים הנדרשים.

 

פורמטים שימושיים:

  • ניתן לבקש מהמערכת לארגן את המידע בטבלה להורדה בפורמט Excel.
  • אפשרות לייצר דוח PDF מסודר הכולל גרפים, סיכומים ותובנות מרכזיות.

 

השוואה לסטנדרטים ולדרישות רגולטוריות

כלי AI מתקדמים יכולים לבצע השוואות אוטומטיות של נוסחי הסעיפים לסטנדרטים שהוגדרו מראש או לדרישות רגולטוריות. הדבר מאפשר לזהות חריגות ולבצע תיקונים במהירות.

 

דוגמאות ליישום:

  • השוואת סעיף NDA של חוזה מסוים לסעיפים דומים בחוזים אחרים של החברה.
  • איתור אי התאמה בין הנוסח הקיים לבין דרישות החוק המקומי.

 

ממשק מבוסס AI לניהול מידע

שימוש בממשקי צ’אט מבוססי AI משדרג את חוויית המשתמש ומפשט את ניהול החוזים. בעזרת שפה טבעית, ניתן לשאול את המערכת שאלות מורכבות ולקבל תשובות מדויקות בזמן אמת.

שאלות אפשריות:

  • “האם סעיף NDA קיים בחוזה של מחלקת השיווק?”
  • “מה דרגת הסיכון של חוזי ההעסקה שהועלו למערכת?”
  • “אילו סעיפים דורשים עדכון?”

 

יתרונות השימוש ב-AI בבדיקת נאותות

מהירות:

ניתוח של מאות חוזים מתבצע תוך שניות, מה שחוסך שעות עבודה רבות.

 

דיוק:

AI מסוגל לזהות חריגות ונקודות תורפה שאדם עשוי לפספס.

 

חיסכון בעלויות:

הפחתת הצורך בבדיקה ידנית ובהעסקת יועצים חיצוניים.

 

מזעור סיכונים משפטיים:

כל החוזים עומדים בתקנים הנדרשים, דבר המקטין את הסיכוי לטעויות יקרות.

 

כיצד AI משנה את כללי המשחק?

כלי AI אינם רק מבצעים מטלות טכניות, אלא מאפשרים לעורכי דין ולחברות להתמקד במשימות אסטרטגיות בעלות ערך מוסף. הם חוסכים זמן יקר, מפחיתים סיכונים, ומעניקים כלים לניתוח והבנה מעמיקה של חוזים מורכבים. שימוש בטכנולוגיות אלו ממצב את המחלקות המשפטיות והעסקיות ברמה גבוהה יותר, ומאפשר ניהול חכם ויעיל של כמויות מידע עצומות. כך, ניתן להתמודד עם אתגרים משפטיים בצורה אפקטיבית ולשפר את התהליכים העסקיים בצורה חסרת תקדים.

הפוסט כיצד AI יכול לייעל בדיקת נאותות בהסכמים וחוזים? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/due-diligence-ai/feed/ 0
כיצד AI יכול לעזור בליטיגציה ובכתיבת סיכומים משפטיים https://letsai.co.il/litigation-ai/ https://letsai.co.il/litigation-ai/#respond Mon, 23 Dec 2024 05:06:24 +0000 https://letsai.co.il/?p=38005 בעולם המשפטי המודרני, הטכנולוגיה הולכת ותופסת מקום מרכזי. כאשר בינה מלאכותית (AI) נכנסת לשימוש בתחומים מורכבים כמו ליטיגציה וכתיבת סיכומים משפטיים, היא מביאה עמה הזדמנויות לשיפור תהליכים ולייעול העבודה של עורכי הדין. מאמר זה יבחן כיצד AI מסייע בפירוק התהליכים המורכבים של ניתוח פרוטוקולים, זיהוי נקודות קריטיות, ובניית סיכומים איכותיים.     ניתוח פרוטוקולים בצורה […]

הפוסט כיצד AI יכול לעזור בליטיגציה ובכתיבת סיכומים משפטיים הופיע ראשון בLet's AI בינה מלאכותית

]]>
בעולם המשפטי המודרני, הטכנולוגיה הולכת ותופסת מקום מרכזי. כאשר בינה מלאכותית (AI) נכנסת לשימוש בתחומים מורכבים כמו ליטיגציה וכתיבת סיכומים משפטיים, היא מביאה עמה הזדמנויות לשיפור תהליכים ולייעול העבודה של עורכי הדין. מאמר זה יבחן כיצד AI מסייע בפירוק התהליכים המורכבים של ניתוח פרוטוקולים, זיהוי נקודות קריטיות, ובניית סיכומים איכותיים.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

ניתוח פרוטוקולים בצורה חכמה

אחת המשימות המורכבות והמרכזיות בליטיגציה היא ניתוח פרוטוקולים ועדויות משפטיות. במקרים רבים, מדובר באלפי עמודים של מידע, מה שהופך את הסריקה והניתוח הידני למאתגרים ול”גזלי זמן”. כאן AI נכנס לתמונה, כשהוא מסוגל לשמש כמנוע חיפוש חכם.

 

איך זה עובד?

כלים מבוססי AI מנתחים פרוטוקולים באמצעות טכניקות של זיהוי דפוסים ועיבוד שפה טבעית (NLP). הטכנולוגיה יכולה לזהות אי-התאמות, סתירות בין גרסאות ועדויות, ולהדגיש נקודות מרכזיות המצריכות בדיקה נוספת.

 

דוגמה לשימוש:

  • הזנת פרוטוקולים וכל חומרי הראיות לכלי AI.
  • יצירת דוח מסונן המדגיש את הנקודות המרכזיות, תוך התמקדות בסתירות קריטיות ובאזורים שדורשים תשומת לב מיוחדת.
  • ניתוח שמספק לעורך הדין תמונה ברורה וממוקדת, ללא הצורך לקרוא כל עמוד בעצמו.

 

יתרונות מרכזיים:

  • מהירות: ניתוח מסמכים בקנה מידה גדול תוך דקות.
  • מיקוד: הדגשת פרטים שיכולים לחמוק מעיני עורך הדין.
  • זמינות: הכלים יכולים לפעול בכל זמן, ללא תלות בשעות העבודה.

 

קורס עו"ד

קורס AI לעו”ד ומשפטנים – למימוש ההטבה הזינו את קוד הקופון באתר הקורס.

 

בניית סיכומים איכותיים

כתיבת סיכומים היא אחת המיומנויות החשובות ביותר בליטיגציה, המצריכה שילוב של דיוק, ריכוז ראיות, והצגת טענות ברורה. AI יכול לעזור לעורכי הדין בבנייה של טיוטות לסיכומים על ידי ניתוח מסמכים משפטיים מורכבים והפקת תמציות ממוקדות.

 

יתרונות השימוש ב-AI:

  • חיסכון בזמן: כתיבת סיכומים שלוקחת שעות או ימים יכולה להצטמצם לדקות.
  • דיוק רב יותר: טכנולוגיות NLP מזהות פרטים רלוונטיים ביעילות.
  • אפשרות התאמה אישית: הכלים מאפשרים הגדרת דגשים כמו זיהוי סוגיות קריטיות או הבלטת מסמכים מסוימים.

 

תהליך העבודה:

  1. הזנת המסמכים הרלוונטיים לכלי AI.
  2. הגדרת קריטריונים לסינון, כמו זיהוי בעיות קריטיות, דפוסי עדויות, או תזמון אירועים.
  3. קבלת טיוטה ראשונית לסיכום משפטי, הניתנת לעריכה והתאמה.

 

זיהוי נקודות חולשה של הצד השני

אחת האסטרטגיות החזקות ביותר בליטיגציה היא לזהות את נקודות החולשה של היריב. באמצעות כלי AI, ניתן לנתח באופן שיטתי דפוסים של שינויים בעדויות, חוסר עקביות באמירות, ונקודות חולשה פוטנציאליות. לדוגמה, AI יכול ליצור גרף המשווה בין גרסאות עדות שניתנו בשלבים שונים של המשפט, ובכך לחשוף שינויים או סתירות בגרסה.

 

יתרונות:

  • תכנון אסטרטגי: מידע זה מאפשר לעורכי הדין לתכנן את החקירה בצורה מושכלת.
  • ראיות חזקות: דוח מפורט יכול לשמש כמסמך תומך במהלכים המשפטיים.

 

אוטומציה של זיהוי ציטוטים קריטיים

איתור ציטוטים חשובים מתוך מסמכים ארוכים הוא משימה קשה וגוזלת זמן. כלים מבוססי AI יכולים לזהות אוטומטית ציטוטים קריטיים במסמכים, בהתאם לקריטריונים שהוגדרו מראש.

 

איך זה עובד?

  • ניתוח מסמכים משפטיים והדגשת הציטוטים החשובים ביותר על סמך הקשרם המשפטי.
  • הפקת רשימה מסודרת של הציטוטים הקריטיים, כולל מיקומם המדויק.

 

יתרונות:

  • דיוק מרבי: אין צורך לנבור מאות עמודים בעצמך.
  • חיסכון בזמן: זיהוי הציטוטים החשובים מתבצע במהירות.

 

גבולות השימוש ב-AI

למרות היתרונות העצומים, חשוב להבין ש-AI אינו תחליף למומחיות ולשיקול הדעת של עורכי הדין. הכלים מסייעים להפחית את העומס, אך אינם מחליפים את התובנות האסטרטגיות והידע המשפטי המעמיק של אנשי המקצוע.

 

אתגרים פוטנציאליים:

  • איכות הנתונים: תוצאות AI תלויות באיכות המידע שהוזן.
  • התאמה משפטית: חלק מהכלים עדיין זקוקים להתאמות מיוחדות למערכת המשפטית במדינות שונות.

 

מבט לעתיד: AI בעולם המשפט

אין ספק ש-AI מהווה כלי עזר יעיל ומהיר בעולם המשפטי, ומאפשר לעורכי הדין להתמקד באסטרטגיה המשפטית במקום במשימות טכניות. בעתיד, ניתן לצפות שכלים אלה יתפתחו אף יותר, ויוכלו להתמודד עם משימות מורכבות יותר, כמו חיזוי תוצאות משפטיות על בסיס מקרים קודמים.

בסופו של דבר, ההצלחה תלויה בשילוב המוצלח בין טכנולוגיה למומחיות אנושית. עורכי דין שישכילו להשתמש ביכולות הבינה המלאכותית יוכלו להתבלט ולהוביל בעולם המשפט המודרני

הפוסט כיצד AI יכול לעזור בליטיגציה ובכתיבת סיכומים משפטיים הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/litigation-ai/feed/ 0
בינה מלאכותית ועורכי דין: AI משנה את עולם המשפט ועריכת הדין https://letsai.co.il/lawer-ai/ https://letsai.co.il/lawer-ai/#respond Tue, 17 Dec 2024 05:56:01 +0000 https://letsai.co.il/?p=37996 בינה מלאכותית (AI) משנה את פני העולם המקצועי כולו, וגם תחום עריכת הדין אינו נותר מאחור. כניסת כלים מתקדמים כמו ChatGPT של OpenAI וטכנולוגיות מבוססות AI אחרות יצרו דיון סוער על השפעתן על עולם המשפט. השאלות המרכזיות העומדות על הפרק הן האם עורכי דין יכולים וצריכים לשלב בינה מלאכותית בעבודתם? ואם כן, כיצד לעשות זאת […]

הפוסט בינה מלאכותית ועורכי דין: AI משנה את עולם המשפט ועריכת הדין הופיע ראשון בLet's AI בינה מלאכותית

]]>
בינה מלאכותית (AI) משנה את פני העולם המקצועי כולו, וגם תחום עריכת הדין אינו נותר מאחור. כניסת כלים מתקדמים כמו ChatGPT של OpenAI וטכנולוגיות מבוססות AI אחרות יצרו דיון סוער על השפעתן על עולם המשפט. השאלות המרכזיות העומדות על הפרק הן האם עורכי דין יכולים וצריכים לשלב בינה מלאכותית בעבודתם? ואם כן, כיצד לעשות זאת באופן אחראי? התשובות לשאלות אלו משלבות יתרונות מובהקים לצד אתגרים וסיכונים משמעותיים.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

יתרונות השימוש בבינה מלאכותית בעולם המשפט

שימוש בבינה מלאכותית מציע יתרונות משמעותיים לעורכי הדין, החל משיפור היעילות ועד להרחבת השירותים המוצעים ללקוחות. להלן כמה מהתחומים המרכזיים שבהם AI יכול להשפיע בצורה חיובית:

 

שיפור היעילות והדיוק

בינה מלאכותית מסוגלת לייעל את התהליכים המשפטיים, לחסוך זמן ולמזער טעויות.

  • ניסוח מסמכים משפטיים: טכנולוגיות AI כמו ChatGPT מסוגלות ליצור טיוטות ראשוניות למסמכים משפטיים, לצמצם טעויות ולזרז את תהליך העבודה.
  • סקירת חוזים: מערכות AI יכולות לזהות סעיפים בעייתיים או חריגים בחוזים בזמן קצר משמעותית בהשוואה לקריאה ידנית.
  • איתור פסיקות רלוונטיות: AI מאפשרת סריקה מהירה של מאגרי מידע משפטיים, ומסייעת לעורכי הדין למצוא תקדימים משפטיים ותובנות רלוונטיות בקלות.

כלים אלו מפנים את עורכי הדין לעסוק במשימות הדורשות שיקול דעת משפטי מעמיק, במקום להקדיש זמן רב לעבודות טכניות שגרתיות.

 

קורס עו"ד

קורס AI לעו”ד ומשפטנים – למימוש ההטבה הזינו את קוד הקופון באתר הקורס.

 

התאמה אישית לצרכים מקצועיים

שימוש בבינה מלאכותית אינו מוגבל לפתרונות כלליים בלבד; ניתן להתאים את הכלים לצרכים הייחודיים של משרד מסוים.

  • כלים ייעודיים למשרדים: משרדי עורכי דין יכולים לפתח תוכנות מותאמות המיועדות לטיפול בתיקים בתחומים מסוימים, ניהול מסמכים משפטיים וניהול פרויקטים.
  • מערכות סגורות פנים-משרדיות: פתרונות סגורים המיועדים לשימוש פנים-משרדי, המספקים שכבת אבטחה נוספת למידע רגיש.

 

יצירת ערך מוסף מקצועי

מעבר לייעול העבודה, בינה מלאכותית מספקת יתרון תחרותי למשרדים משפטיים.

  • ייעוץ אסטרטגי מבוסס נתונים: ניתוח כמויות גדולות של נתונים מאפשר זיהוי מגמות ותובנות שיכולות להשפיע על אסטרטגיות ייצוג.
  • הרחבת שירותים ללקוחות: משרדי עורכי דין יכולים להציע שירותים חדשניים, כמו ניתוח סיכונים משפטיים והמלצות לניהול הליכים מורכבים, המבוססים על נתוני AI.

 

גמישות ויכולת התאמה עתידית

בינה מלאכותית היא טכנולוגיה דינמית הממשיכה להתפתח. כלים מבוססי LLM, כמו ChatGPT, משתפרים באופן מתמיד, ומספקים פתרונות חדשניים לעורכי דין. עם הזמן, טכנולוגיות אלו יהפכו למרכיב מהותי עוד יותר בעבודת עורכי הדין.

 

סיכונים ואתגרים

השימוש בבינה מלאכותית בעולמות המשפט מציג מגוון יתרונות, אך לצד אלה ישנם סיכונים ואתגרים משמעותיים שדורשים התייחסות זהירה. הבנת סיכונים אלו חיונית לצורך יישום מוצלח של הטכנולוגיה במשרדי עורכי דין.

 

סיכוני פרטיות וזליגת מידע

מערכות AI עובדות על בסיס עיבוד כמויות גדולות של נתונים, ולעיתים קרובות מדובר במידע רגיש או חסוי. בעולם המשפט, מדובר בנתונים קריטיים כמו פרטי תיקים, מידע אישי של לקוחות, מסמכים משפטיים ותכתובות. הסכנה המרכזית היא האפשרות לזליגת מידע בשל שימוש במערכות חיצוניות או באבטחה לא מספקת.

 

דוגמאות למקרי זליגה:

  • העלאת מסמכים משפטיים רגישים לכלי AI פתוח עשויה לחשוף אותם לגורמים לא מורשים ו/או להפוך לחלק ממאגרי המידע שעל בסיסם מאומנים הדורות הבאים של מודלי ה-AI. שני המצבים הללו מסוכנים, אך אפשר להתמודד איתם (בקורס ה-AI שלנו לעו”ד ומשפטנים אנחנו מציעים שלל פתרונות, חלקם מפורטים מטה).
  • שימוש במערכות שאינן מאובטחות עלול לגרום למידע רגיש להגיע לידי מתחרים או צדדים שלישיים.

 

פתרונות אפשריים:

  • מערכות סגורות פנים-משרדיות: שימוש בפלטפורמות AI ייעודיות שמופעלות בתוך הרשת הפנימית של המשרד, ללא חיבור לרשתות חיצוניות.
  • הלבנת נתונים: הסרה או שינוי של מידע מזהה לפני הזנתו למערכות AI.
  • כיבוי אפשרויות אימון המודלים: נטרול היכולת של מודלי AI לשמור מידע, לאמן על מידע או על היסטוריית השיחות שלנו עם הבוט.
  • אבטחה משופרת: הטמעת תקני אבטחת מידע מתקדמים כגון הצפנה והגבלת גישה למידע.

 

הטיות והזיות במידע

מערכות בינה מלאכותית מתבססות על נתוני עבר לצורך הפקת תובנות. לעיתים קרובות, נתונים אלה מכילים הטיות חברתיות, תרבותיות או מגדריות, שעלולות להשתקף בתוצאות שמספקת המערכת. בנוסף, מערכות AI עשויות להמציא נתונים או להציג תשובות שאינן מדויקות – תופעה המכונה “הזיות AI” (AI hallucinations).

 

סיכונים משפטיים:

הטיות עלולות להוביל לניתוח שגוי של פסיקות, במיוחד במקרים רגישים הקשורים לנושאים כמו אפליה או הטרדה. כמו כן, הן עלולות לגרום ליצירת מסמכים משפטיים שגויים או לא מדויקים, העלולים לפגוע בתוצאות התיק.

 

צעדים למניעת בעיות:

  • הדרכת צוותים משפטיים: עידוד עורכי דין לזהות טעויות פוטנציאליות ולבקר את המידע המתקבל מהמערכות.
  • תהליך אימות כפול: בדיקה ואימות של כל התוצאות המתקבלות מכלי ה-AI על ידי מומחים משפטיים.

 

צמצום אחריות אנושית

שימוש יתר בבינה מלאכותית עלול להוביל להסתמכות מופרזת על הטכנולוגיה, תוך הפחתת מעורבותם של עורכי הדין בתהליך המשפטי. מצב זה עלול לגרום לאובדן מיומנויות קריטיות כמו ניתוח נתונים עצמאי, יצירתיות משפטית וגמישות מחשבתית.

 

השלכות אפשריות:

חוסר הבנה עמוקה של המקרה עלול לפגוע ביכולת לייצג את הלקוח בצורה אופטימלית. משום שהטכנולוגיה אינה מבינה את הדקויות המשפטיות והמוסריות שמצריכות שיקול דעת אנושי, יש להיות מודעים למצב זה, לתת עליו את הדעת ולהקפיד שתמיד יש גורם אנושי שמעורב בתהליך.

 

פתרונות:

  • שילוב מאוזן: שימוש ב-AI ככלי עזר ולא כתחליף, תוך שמירה על המעורבות האנושית בכל שלב.
  • הדרכה שוטפת: טיפוח מיומנויות משפטיות בסיסיות בקרב עורכי דין, כדי להבטיח שהשימוש ב-AI לא יבוא על חשבון היכולות האישיות.

 

שליפת מידע מקונטקסט

מערכות AI מצטיינות בעיבוד כמויות אדירות של נתונים, אך לעיתים קרובות הן מתקשות להבין את ההקשר הרחב של המידע. בעולם המשפט, הבנה מעמיקה של הקונטקסט היא קריטית, שכן ניתוח שגוי עשוי להוביל להסקת מסקנות מוטעות.

 

דוגמאות לבעיות בהבנת קונטקסט:

  • ציטוט שגוי של פסיקה משפטית בשל פרשנות לא נכונה של ההקשר שבו התקבלה.
  • ניתוח מוטעה של מסמך משפטי בשל חוסר הבנה של תנאים משפטיים מסוימים.
  • חוסר יכולת לגשת למידע רלוונטי במצבים בהם הקונטקסט גדול (קבצים גדולים מדי עלולים לגרום לכך שהמודל “מתעלם” או “מפספס” מידע חשוב ולא מצליח לשלוף אותו).

 

פתרונות מעשיים:

  • בקרה אנושית על הפלטים: עורכי דין צריכים לבדוק ולהתאים את התוצאות המתקבלות מה-AI למקרה הספציפי.
  • פיתוח מערכות מבוססות קונטקסט: עבודה עם מערכות AI מתקדמות שמותאמות לסוגיות המשפטיות שבהן עוסק המשרד.
  • חלוקה למקטעים: ניתן לחלק קבצים גדולים לתתי-קבצים או תתי-פרקים.
  • עבודה עם כלים חזקים יותר: בשוק יש מגוון מודלים עם חלון הקשר (Context Window) גדול מאוד, המאפשר ניתוח ועיבוד מידע בהיקפים גדולים (ברמה של מיליוני טוקנים).

 

מורכבות משפטית בעידן הטכנולוגי

אחד האתגרים הגדולים ביותר הוא שילוב נכון של טכנולוגיה חדשנית בעולם משפטי שמרני מטבעו. חוסר היכרות עם הטכנולוגיה עלול להוביל לפחד משימוש בה או לניצול לא נכון שלה. עורכי הדין צריכים להבין את המגבלות והיכולות של מערכות AI, תוך קידום חדשנות במשרדם.

 

פתרונות אפשריים:

 

שילוב מושכל של AI בעבודת עורכי דין

כדי להפיק את המרב מהבינה המלאכותית ולצמצם את הסיכונים הכרוכים בה, על עורכי הדין לאמץ גישה מאוזנת הכוללת:

  • הדרכה ושיפור ידע טכנולוגי: משרדי עורכי דין צריכים להשקיע בהכשרת צוותים לשימוש מושכל בכלי AI.
  • אימות ובדיקה אנושית: כל תוצאה שמספקת מערכת AI חייבת להיבדק ולאמתה על ידי עורך דין אנושי.
  • הטמעת פתרונות מותאמים אישית: שימוש במערכות AI ייעודיות המותאמות לצרכים הספציפיים של המשרד.
  • הבטחת פרטיות ואבטחת מידע: שימוש במערכות סגורות פנים-משרדיות ובפרוטוקולים קפדניים למניעת זליגת נתונים.

 

השימוש בבינה מלאכותית בעבודת עורכי דין הוא הזדמנות ייחודית לשפר תהליכים ולספק ערך מוסף ללקוחות. עם זאת, יש לזכור כי הטכנולוגיה היא כלי עזר, ולא תחליף למומחיות המשפטית האנושית. על ידי שימוש זהיר, מושכל ומאוזן, עורכי הדין יוכלו ליהנות מהיתרונות הרבים שמציעה הטכנולוגיה, תוך שמירה על רמה מקצועית גבוהה ועל אמון הלקוחות

 

אף שהשימוש בבינה מלאכותית פותח דלתות רבות לעולם המשפט, יש להתמודד עם הסיכונים והאתגרים באופן מושכל. אימוץ גישה מאוזנת ומשולבת, לצד תהליכים קפדניים של בקרה וביקורת, יכולים להבטיח שימוש אפקטיבי ובטוח בטכנולוגיה מתקדמת זו. באמצעות השקעה באבטחה, הדרכה והתאמת מערכות לצרכים ייחודיים, יכולים משרדי עורכי דין למנף את היתרונות הטמונים בבינה מלאכותית, תוך הפחתת הסיכונים למינימום האפשרי.

הפוסט בינה מלאכותית ועורכי דין: AI משנה את עולם המשפט ועריכת הדין הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/lawer-ai/feed/ 0
ספלבוק (Spellbook) – מערכת AI ייעודית לעורכי דין https://letsai.co.il/spellbook/ https://letsai.co.il/spellbook/#respond Fri, 13 Dec 2024 05:15:01 +0000 https://letsai.co.il/?p=37998 עורכי דין המקדישים שעות רבות לניסוח ובדיקת חוזים יכולים סוף סוף לנשום לרווחה. ספלבוק (Spellbook) היא מערכת בינה מלאכותית פורצת דרך המציעה כלים חכמים לניהול יעיל ומתקדם של חוזים. הפלטפורמה משתלבת בצורה מושלמת עם Microsoft Word ומספקת יכולות עוצמתיות המבוססות על מודלי שפה גדולים (LLMs), כמו מודלי GPT, ליצירת חוזים מדויקים ובזמן קצר.     […]

הפוסט ספלבוק (Spellbook) – מערכת AI ייעודית לעורכי דין הופיע ראשון בLet's AI בינה מלאכותית

]]>
עורכי דין המקדישים שעות רבות לניסוח ובדיקת חוזים יכולים סוף סוף לנשום לרווחה. ספלבוק (Spellbook) היא מערכת בינה מלאכותית פורצת דרך המציעה כלים חכמים לניהול יעיל ומתקדם של חוזים. הפלטפורמה משתלבת בצורה מושלמת עם Microsoft Word ומספקת יכולות עוצמתיות המבוססות על מודלי שפה גדולים (LLMs), כמו מודלי GPT, ליצירת חוזים מדויקים ובזמן קצר.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

מה מיוחד בספלבוק (Spellbook)?

ספלבוק (Spellbook) היא פלטפורמה חדשנית המבוססת על בינה מלאכותית, המיועדת במיוחד לעורכי דין המעוניינים לייעל את תהליכי העבודה שלהם בניהול חוזים.

 

ככה זה נראה מבפנים:

 

לנסח חוזים והסכמים במהירות שיא!

המערכת מציעה פתרון מקיף ואינטואיטיבי המשלב טכנולוגיה מתקדמת עם כלים ייעודיים לניסוח, עריכה ובדיקת חוזים. Spellbook פועלת כתוסף אינטגרלי ל-Microsoft Word, מה שמאפשר לעורכי דין להמשיך לעבוד בסביבת העבודה המוכרת להם תוך שיפור משמעותי של פרודוקטיביות ודיוק. באמצעות שימוש בטכנולוגיות כמו מודלי שפה גדולים (LLMs) כדוגמת GPT ומודלים מתקדמים נוספים, המערכת מספקת יכולות חכמות לניתוח נתונים, הצעת נוסחים משפטיים וסיוע בתהליכים מורכבים – והכל בצורה חלקה ונגישה.

 

קורס עו"ד

קורס AI לעו”ד ומשפטנים – למימוש ההטבה הזינו את קוד הקופון באתר הקורס.

 

למי המערכת מתאימה ואיך מתקינים אותה?

Spellbook מתאימה במיוחד לעורכי דין המתמקדים בחוזים, בין אם הם עובדים במשרדים קטנים, חברות גדולות או כיועצים פנימיים. הפלטפורמה מומלצת למי שמבקש לייעל תהליכים ולחסוך זמן במשימות שגרתיות. ניתן להוריד את Spellbook ישירות מאתר החברה הרשמי.

 

יכולות ופיצ’רים מרכזיים

ניסוח אוטומטי של חוזים

ספלבוק מספקת הצעות לניסוח שפה משפטית בהתבסס על מיליארדי שורות טקסט משפטי, מה שהופך את תהליך יצירת החוזים ליעיל במיוחד.

 

זיהוי סיכונים ותנאים חריגים

המערכת מזהה תנאים בעייתיים או חריגים בחוזים ומציעה פתרונות לשיפור הניסוח.

 

Redlining מתקדם

Spellbook מאפשרת יצירת הערות ושינויים אוטומטיים במסמכים, כולל סימון שינויים והצעות לעריכה.

 

השלמת סעיפים חסרים

באמצעות בינה מלאכותית, המערכת מזהה סעיפים חסרים או הגדרות שאינם מופיעים בחוזה ומציעה להוסיף אותם בצורה מקצועית.

 

שילוב עם חתימות אלקטרוניות (eSign)

המערכת מאפשרת לשלב חתימות דיגיטליות כחלק מתהליך העבודה בצורה חלקה.

 

שיפור תהליכי משא ומתן

Spellbook מספקת תובנות לניהול משא ומתן אפקטיבי, כולל הדגשת נקודות לשינוי.

 

עוזר משפטי חכם

המערכת מאפשרת שאילת שאלות על מסמכים משפטיים, סיכום סעיפים, ניתוח סיכונים ותובנות מעמיקות.

 

 

יתרונות השימוש במערכת

  • חיסכון בזמן: Spellbook יכולה לקצר את זמן העבודה על חוזים בעד פי 10 בהשוואה לשיטות המסורתיות.
  • דיוק גבוה: המערכת מפחיתה טעויות בניסוח ומבטיחה עמידה בתקנים משפטיים מחמירים.
  • אינטגרציה חלקה עם Microsoft Word: כל העבודה מתבצעת בתוך סביבת העבודה המוכרת של Word.
  • סביבה מאובטחת: Spellbook פועלת במערכת סגורה שאינה משתפת נתונים עם גורמי צד שלישי ואינה מאמנת את המודלים שלה על בסיס היסטוריית השיחות או המסמכים.
  • עדכונים שוטפים: החברה שומרת על עדכניות המערכת באמצעות משוב משתמשים ושיפורים טכנולוגיים.

 

חסרונות

  • דרושה סקירה אנושית: על אף הדיוק, עורכי דין עדיין נדרשים לבדוק את החוזים ולהתאים אותם לצרכים הספציפיים.
  • תמיכה מוגבלת בעברית: המערכת מצטיינת בניסוח חוזים באנגלית, אך הביצועים בעברית עדיין מוגבלים יחסית. מומלץ לבדוק את ההתאמה לצרכים שלכם בעברית באופן אישי.
  •  

מחיר וחבילת התנסות

  • עלות מנוי חודשי: כ-$180 (המחיר משתנה בהתאם להיקף השירותים ותוכן החבילה).
  • חבילת התנסות: גרסה חינמית ל-7 ימים – הזדמנות מצוינת להתנסות במערכת ולבחון את יכולותיה.

 

 

הפוסט ספלבוק (Spellbook) – מערכת AI ייעודית לעורכי דין הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/spellbook/feed/ 0
גילוי הדעת הראשון איי פעם של ועדת האתיקה הארצית של לשכת עוה”ד מסדיר שימוש ב-AI https://letsai.co.il/gilui-ai-law/ https://letsai.co.il/gilui-ai-law/#respond Fri, 15 Nov 2024 07:59:14 +0000 https://letsai.co.il/?p=36319 עידן הבינה המלאכותית משנה את פני החברה ומשפיע על מקצועות רבים – עולם עריכת הדין והמשפטים אינו יוצא דופן. ועדת האתיקה הארצית פרסמה גילוי דעת מקדים (החלטה את/60/24), שמטרתו להכווין את עורכי הדין בישראל בנוגע לשימוש בטכנולוגיות מבוססות בינה מלאכותית בעבודתם. מדובר בגילוי הדעת הראשון מסוגו שנכתב אי פעם מטעם ועדת האתיקה הארצית של לשכת […]

הפוסט גילוי הדעת הראשון איי פעם של ועדת האתיקה הארצית של לשכת עוה”ד מסדיר שימוש ב-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
עידן הבינה המלאכותית משנה את פני החברה ומשפיע על מקצועות רבים – עולם עריכת הדין והמשפטים אינו יוצא דופן. ועדת האתיקה הארצית פרסמה גילוי דעת מקדים (החלטה את/60/24), שמטרתו להכווין את עורכי הדין בישראל בנוגע לשימוש בטכנולוגיות מבוססות בינה מלאכותית בעבודתם. מדובר בגילוי הדעת הראשון מסוגו שנכתב אי פעם מטעם ועדת האתיקה הארצית של לשכת עוה”ד בישראל בנושא השימוש בטכנולוגיות בינה מלאכותית בתחום המשפט. המסמך נערך בידי צוות מומחים בהובלת עו”ד מנחם מושקוביץ, יו”ר ועדת האתיקה הארצית, תוך שיתוף פעולה עם ועדה מייעצת שכללה מומחים למשפט, טכנולוגיה ואתיקה מקצועית. הוא בא להתמודד עם ההתפתחויות המשמעותיות בתחום הבינה המלאכותית, לרבות הופעת פלטפורמות כמו ChatGPT ומודלים שפה גדולים (LLMs) דומים, אשר מספקים פתרונות טכנולוגיים מתקדמים אך מעלים שאלות אתיות ומשפטיות.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

רקע – AI בעולם המשפט

בינה מלאכותית (AI) משנה את פני העולם המקצועי כולו, כולל את תחום עריכת הדין. שימוש בטכנולוגיות אלו מעלה את השאלה – האם עורכי דין יכולים להשתמש בטכנולוגיה זו? ואם כן – אז איך לעשות זאת בצורה מושכלת ואחראית. שאלה זו מציפה אתגרים אתיים, סיכונים ולצידם גם יתרונות רבים הנובעים משילוב בינה מלאכותית בעבודתם של עורכי דין. השימוש בבינה מלאכותית בעבודת עורכי הדין הפך לנושא חם במיוחד, בעיקר מאז כניסת כלים מבוססי AI כמו ChatGPT. טכנולוגיות אלה מסוגלות לסייע בניסוח מסמכים, מחקר משפטי ועוד, אך מעוררות חששות אתיים משמעותיים. גילוי הדעת שהוציאה ועדת האתיקה הארצית נועד לספק הנחיות ראשוניות לשימוש זהיר ומושכל בטכנולוגיה זו, תוך שמירה על עקרונות האתיקה המקצועית.

 

 

קורס עו"ד

קורס AI לעו”ד ומשפטנים – למימוש ההטבה הזינו את קוד הקופון באתר הקורס.

 

יתרונות השימוש בבינה מלאכותית בעולם המשפט

השימוש בבינה מלאכותית בעבודתם של עורכי דין מציע יתרונות רבים המקדמים יעילות, דיוק והתאמה אישית לצרכים מקצועיים. טכנולוגיה זו, המתפתחת בקצב מהיר, מאפשרת לעורכי הדין להתמודד עם עומסים מקצועיים בצורה חכמה ומתקדמת.

 

שיפור היעילות והדיוק

בינה מלאכותית מסוגלת לייעל את התהליכים המשפטיים בצורה חסרת תקדים. מערכות מתקדמות כמו מודלים גדולים לשפה (LLM) יכולות לבצע משימות מורכבות, כמו:

  • ניסוח מסמכים משפטיים: יצירת טיוטות ראשוניות למסמכים, תוך צמצום טעויות וייעול תהליכי עבודה.
  • סקירת חוזים: זיהוי סעיפים בעייתיים או חריגים בזמן קצר משמעותית, בהשוואה לקריאה ידנית.
  • איתור פסיקות רלוונטיות: סריקה מהירה של מאגרי מידע משפטיים על מנת למצוא תקדימים משפטיים ותובנות רלוונטיות.

בכך, מערכות AI מאפשרות לעורכי הדין להתמקד במשימות הדורשות חשיבה משפטית מעמיקה, תוך הימנעות מבזבוז זמן על עבודות שגרתיות.

 

התאמה אישית לצרכים מקצועיים

שילוב של בינה מלאכותית בעבודת עורכי הדין אינו מתמקד רק בפתרונות כלליים; ניתן להתאים את הכלים לצרכים הייחודיים של משרד מסוים:

  • כלים ייעודיים למשרדים: פיתוח תוכנות AI מותאמות לצרכים הפנימיים של המשרד, כמו טיפול בתיקים בתחומים מסוימים או ניהול מסמכים משפטיים.
  • מערכות סגורות פנים-משרדיות: פתרונות סגורים המיועדים למשרדי עורכי דין בלבד, מציעים שכבת אבטחה נוספת, ומבטיחים שמידע רגיש יישמר בצורה בטוחה ומאובטחת.

 

יצירת ערך מוסף מקצועי

מעבר לשיפור התהליכים הטכניים, בינה מלאכותית מספקת לעורכי הדין יתרון תחרותי:

  • ייעוץ אסטרטגי מבוסס נתונים: AI מסוגל לנתח כמויות גדולות של נתונים ולזהות מגמות שיכולות להשפיע על אסטרטגיות ייצוג.
  • הרחבת שירותים ללקוחות: בזכות היכולות הגבוהות של הטכנולוגיה, משרדים יכולים להציע ללקוחותיהם שירותים חדשניים, כמו ניתוח סיכונים משפטיים או המלצות לניהול הליכים מורכבים.

 

גמישות ויכולת התאמה עתידית

בינה מלאכותית היא טכנולוגיה דינמית הממשיכה להתפתח. כלים כמו ChatGPT ויישומים מבוססי LLM ממשיכים להשתפר, ומאפשרים לעורכי הדין להטמיע עדכונים וחידושים שיסייעו להם להתמודד עם אתגרי המחר. יתרונות השימוש בבינה מלאכותית אינם מוגבלים רק להיבטים טכניים. מדובר במנוע צמיחה אסטרטגי שמסייע לעורכי הדין להתייעל, להתפתח ולספק שירותים טובים ומדויקים יותר ללקוחותיהם.

 

הסוגיות האתיות הנוגעות לשימוש בפלטפורמות מבוססות בינה מלאכותית ובמודלי שפה גדולים

ועדת האתיקה מזהירה מפני מספר סוגיות אתיות מרכזיות הנוגעות לשימוש בכלים מבוססי בינה מלאכותית, במיוחד מודלי שפה גדולים (LLM). להלן פירוט של הסוגיות המרכזיות:

 

הסתמכות על מידע לא מהימן

מערכות בינה מלאכותית, כגון ChatGPT, נועדו לייצר טקסטים המבוססים על כמויות עצומות של מידע, אך אינן מסוגלות להבטיח את מהימנותו. מידע זה, על אף היותו לעיתים מדויק ונראה מקצועי, עלול להיות שגוי, מטעה ואף מפלה. בעיה זו מתחדדת כאשר המערכות נדרשות לספק מידע משפטי, במיוחד בעברית, שבהן רמת הדיוק נמוכה אף יותר. על פי גילוי הדעת, עורכי דין נדרשים לאמת באופן עצמאי את המידע המתקבל ממערכות אלו. הוועדה מדגישה כי שימוש במידע בלתי מהימן ללא בדיקה עלול להיחשב להפרה של חובת הנאמנות והמסירות החלה על עורך הדין – כך על פי סעיף 54 לחוק לשכת עורכי הדין, תשכ“א1961 ועל פי כלל 2 לכללי לשכת עורכי הדין (אתיקה מקצועית), תשמ“ו 1986.

 

שקיפות באשר לשימוש במערכות AI

עורך דין המשתמש במערכת AI נדרש להצהיר על כך במסמכים המוגשים לבית המשפט. במסגרות אלו עליו לציין את המערכת שבה נעשה שימוש, סוג השאילתה שנשלחה, ואת ההקשר המשפטי של המידע שהתקבל. היעדר שקיפות זו עלול להיחשב כהטעיה אסורה ואף להוביל להפרה של חובת עורך הדין לסייע לבית המשפט לעשיית משפט (כקבוע בסעיף 54 לחוק, או אף להיחשב כהטעיה אסורה על פי כלל 34 לכללי האתיקה).

 

אחריות מקצועית

האחריות על דיוק ונכונות המידע המתקבל ממערכות AI מוטלת במלואה על עורך הדין. במידה ויופיעו טעויות במידע שנעשה בו שימוש, לא תוכל מערכת AI לשמש כתירוץ לפטור את עורך הדין מאחריות נזיקית או אתית. על עורכי הדין להפעיל שיקול דעת זהיר, לבצע בדיקות עומק, ולהימנע מהסתמכות עיוורת על תוצרי המערכות.

 

 

הפרת חובת הסודיות בגין דליפת מידע סודי או אישי ושימוש במידע של הלקוח

סיכוני זליגת מידע

פלטפורמות AI רבות מבוססות על מנגנון שבו כל מידע שהוזן למערכת משמש ללמידה ולשיפור האלגוריתם. תהליך זה מעלה סיכונים משמעותיים לדליפת מידע סודי או אישי של לקוחות, דבר המהווה הפרה של חובת הסודיות והגנת הפרטיות. מידע המוזן למערכות AI, בין אם מדובר בשאילתות לצורך קבלת תשובות, העלאת מסמכים לצורך עיבודם, או הזנת נתונים לצורך יצירת תכתובות משפטיות, הופך לחלק ממאגר המידע של המערכת. המערכת עושה שימוש במידע זה לצורך אימון ושיפור האלגוריתם, כך שכל מידע שהוזן אליה עלול לשמש בעתיד ליצירת תוצרים חדשים. דוגמה לכך היא מצב שבו עורך דין מזין במערכת מסמך משפטי לצורך עריכה, והמערכת משתמשת במידע זה על מנת להפיק תשובות או תוצרים עבור משתמשים אחרים. בכך, נחשף המידע החסוי לעיבוד נוסף, העלול להעמיד את הלקוח בסיכון.

 

אגב, רבים כלל לא מודעים לעובדה שאפשר לכבות את אפשרות אימון המודלים של ChatGPT ואף להשבית את אפשרות הזיכרון, המסייעת למודל לשמור מידע ופרטים שהזין המשתמש). עם זאת, פעולה זו אינה פותרת עו”ד מאחריות.

 

סיכון לזיהוי עקיף

גם כאשר עורכי הדין “מלבינים מסמכים” ומסירים פרטים מזהים, כגון שמות, כתובות או מספרי זיהוי, המערכת עשויה לקשר בין פרטים שוליים במסמך לבין זהות הלקוח. לדוגמה:

  • מסמך רפואי המוזן למערכת עשוי להכיל פרטים כגון שם בית החולים, מיקום גיאוגרפי, ותיאור מפורט של מצבו הרפואי של הלקוח. פרטים אלה יכולים לשמש את המערכת לצורך זיהוי זהות הלקוח.
  • הסרת שם הלקוח אך השארת מידע ייחודי אחר, כמו תיאור טכנולוגי או עסקי, עלולה ליצור זיקה בין המידע לבין זהות הלקוח בתוצרים המופקים על ידי המערכת.

 

הנחיות הוועדה למניעת דליפת מידע

ועדת האתיקה הארצית מודעת היטב לסיכונים הכרוכים בשימוש במערכות AI וממליצה לנקוט במספר צעדים למזעור הסיכון לדליפת מידע:

  • הימנעות מהזנת מידע רגיש: הוועדה ממליצה שלא להזין למערכות פתוחות כל מידע אישי, סודי או פרטים העלולים לזהות את הלקוח. יש להשתמש במערכות אלו רק לצרכים כלליים ותיאורטיים, ולא לטיפול במסמכים רגישים.
    לדוגמה, כאשר עורך הדין נדרש לנסח מכתב, עליו לתאר למערכת בקווים כלליים את הנושא מבלי להזין מידע פרטני הנוגע למקרה של הלקוח.
  • מניעת שימוש במידע חוזר: כדי לצמצם את סיכון הזליגה, יש להפעיל שיקול דעת מקצועי בעת הזנת נתונים למערכת. מומלץ להימנע מהזנת פרטים מזהים “מהמעגל השני”, כמו מודלים עסקיים ייחודיים או טכנולוגיות חדשניות, שעלולים לשמש את המערכת לחיזוק זיהוי עקיף של הלקוח.
  • שימוש במערכות מאובטחות בלבד: במקרים בהם אין ברירה אלא להשתמש בכלים מבוססי AI, יש להעדיף מערכות סגורות המיועדות לשימוש פנים-משרדי בלבד. מערכות אלו מפחיתות את הסיכון לחשיפת מידע לגורמי צד ג’.
  • הצורך בשקול דעת: עורך דין נדרש לשקול את הסיכונים הפוטנציאליים בכל הזנת מידע למערכת בינה מלאכותית. יש להפעיל עקרונות של מזעור נתונים – שימוש במינימום מידע נדרש לצורך ביצוע המשימה – ומחיקת מידע מיותר לאחר השימוש.
  • עמידה בכללי האתיקה: הוועדה מזכירה כי כל שימוש במידע אישי של לקוח חייב להיות בכפוף לכללי האתיקה, המחייבים שמירה על סודיות מוחלטת, אלא אם ניתנה הסכמה מפורשת מצד הלקוח. כמו כן, כל עיבוד של מידע אישי במערכות AI מחייב עמידה בדרישות חוק הגנת הפרטיות.
  • הגבלת שימוש בתוצרים: הוועדה ממליצה להתייחס לתוצרים המופקים על ידי מערכות AI כטיוטות בלבד, שיש לערוך ולעדכן בהתאם לשיקול דעת מקצועי. אין להסתמך על התוצרים כפתרון סופי או מהימן לחלוטין.

באמצעות הקפדה על הנחיות אלו, יוכלו עורכי הדין להגן על פרטיות לקוחותיהם ולמזער את הסיכונים הכרוכים בשימוש בטכנולוגיות מתקדמות אלו.

 

שימוש במערכות סגורות פנים משרדיות מבוססות AI

אחת החלופות הבטוחות יותר לשימוש במערכות AI היא שימוש במערכות סגורות המיועדות לצרכים פנים-משרדיים בלבד. מערכות אלו מאפשרות שליטה רבה יותר על אבטחת המידע ומצמצמות את הסיכון לזליגת מידע לגורמי צד ג’.

 

יתרונות המערכות הסגורות

  • בקרת גישה: המערכות מאפשרות הגבלה של גישה למידע, בהתאם להרשאות ברורות בתוך המשרד.
  • צמצום חשיפה חיצונית: מידע רגיש נשמר באופן מקומי או מאובטח במערכת שאינה נגישה לציבור הרחב.

 

מגבלות וזהירות

למרות היתרונות, מערכות סגורות אינן חסינות לחלוטין. יש לנקוט באמצעי זהירות נוספים, כגון:

  1. בדיקה יסודית של ספקי המערכת והטמעת מנגנוני אבטחת מידע.
  2. הגבלת גישה לעובדים בעלי הרשאה בלבד.
  3. בחינת ההשפעה של “אימון” המערכת על פרטי מידע שעשויים לזלוג פנימה או החוצה.

 

קבלת הסכמת הלקוח מראש לשימוש בתוכנות AI פתוחות

הוועדה מדגישה כי עורך דין המעוניין להשתמש במערכות AI פתוחות מחויב לקבל את הסכמתו המפורשת של הלקוח לפני השימוש.

 

מרכיבי ההסכמה

  • פירוט הסיכונים: עורך הדין נדרש להסביר ללקוח את הסיכונים האפשריים הקשורים בזליגת מידע ואת אמצעי ההגנה שיופעלו.
  • היקף השימוש: יש לפרט את סוג המידע שיוזן למערכת ואת מטרות השימוש.
  • ביטול הסכמה: הלקוח רשאי לבטל את הסכמתו בכל עת.

 

שילוב בהסכם ההתקשרות

הוועדה ממליצה לכלול סעיף ייעודי הנוגע לשימוש במערכות AI במסמכי ההתקשרות הראשוניים, תוך הבהרה כי מדובר בתנאי מחייב לשירות המשפטי.

 

בינה מלאכותית בעולמות המשפט – חרב פיפיות!

גילוי הדעת של ועדת האתיקה הארצית מהווה מסמך מכונן בניהול המעבר של מקצוע עריכת הדין לעידן הבינה המלאכותית. מדובר בצעד חיוני שמאפשר לעורכי הדין למנף את יתרונות הטכנולוגיה לטובת יעילות מקצועית ושיפור איכות השירות ללקוחותיהם. בינה מלאכותית מציעה פוטנציאל עצום לשיפור תהליכים מקצועיים – היא מאפשרת ניתוח מהיר של כמויות גדולות של נתונים, סיוע בניסוח מסמכים, איתור פסקי דין רלוונטיים ואף יצירת אסטרטגיות משפטיות מתקדמות.

 

עם זאת, השימוש בטכנולוגיה זו מלווה בסיכונים משמעותיים. המרכזי שבהם הוא פגיעה אפשרית בפרטיות ובסודיות המידע של הלקוח – שני עקרונות יסוד בעולם המשפט. מערכות AI מבוססות על עיבוד כמויות עצומות של מידע, ולעיתים הן עושות שימוש במידע המוזן אליהן לצורכי אימון המערכת. כך, גם כאשר המידע אינו מזוהה באופן ישיר, הוא עלול לחשוף פרטים רגישים באמצעות הצלבות מידע. סיכון זה מדגיש את הצורך בהפעלת שיקול דעת קפדני בכל הנוגע להזנת מידע אישי וסודי לפלטפורמות אלו.

 

אחריות עורך הדין אינה פוחתת בעידן הבינה המלאכותית, אלא להפך – היא מתרחבת. עורך דין המשתמש בטכנולוגיה זו נושא באחריות מלאה לנכונות התוצרים ולשמירה על פרטיות לקוחותיו. האחריות אינה רק משפטית, אלא גם אתית ומקצועית. עליו להפעיל בקרה, לוודא את דיוק המידע ולשמור על שקיפות מול הלקוחות ובית המשפט. הוועדה מדגישה כי מערכות בינה מלאכותית הן כלי עזר בלבד, ולא תחליף לשיקול הדעת המקצועי של עורך הדין.

 

לצד האתגרים, גילוי הדעת גם מצביע על כיווני שיפור והזדמנויות לעתיד. שילוב מושכל של בינה מלאכותית בעבודת עורכי הדין יכול להוביל לייעול המערכת המשפטית כולה, להגברת הנגישות לצדק ולשיפור איכות השירות המשפטי. עם זאת, הצלחת השילוב תלויה במידה רבה במודעות, באחריות ובהקפדה על כללי האתיקה המקצועית.

באמצעות אימוץ גישה שקולה ומאוזנת, יוכלו עורכי הדין לשלב את הטכנולוגיה המתקדמת הזו בעבודתם, להעצים את יכולותיהם המקצועיות ולהבטיח שהם מספקים ללקוחותיהם שירות איכותי, אמין ומאובטח בעידן הטכנולוגי החדש.

 

הפוסט גילוי הדעת הראשון איי פעם של ועדת האתיקה הארצית של לשכת עוה”ד מסדיר שימוש ב-AI הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/gilui-ai-law/feed/ 0
“נכנסתי לתחרות עם תמונה שהעתקתי, ומותר לי”. האמנם? https://letsai.co.il/ai-copyrights-midj-allen/ https://letsai.co.il/ai-copyrights-midj-allen/#respond Mon, 30 Sep 2024 11:28:30 +0000 https://letsai.co.il/?p=32187 סיפורו של ג’ייסון אלן מעלה שאלות מעניינות על מקומה של הבינה המלאכותית בתחום האמנות ועל ההגנה המשפטית על יצירות שנוצרות באמצעותה. יצירתו, שהושקעה בה עבודה רבה דרך הפלטפורמה של מידג’רני (Midjourney), נחשפה לעולם בצורה בלתי צפויה – לא דרך זכייה בתחרות אמנות, אלא בעקבות שימוש שנוי במחלוקת שעשה אדם אחר בתמונה שיצר ג’ייסון. האם באמת […]

הפוסט “נכנסתי לתחרות עם תמונה שהעתקתי, ומותר לי”. האמנם? הופיע ראשון בLet's AI בינה מלאכותית

]]>
סיפורו של ג’ייסון אלן מעלה שאלות מעניינות על מקומה של הבינה המלאכותית בתחום האמנות ועל ההגנה המשפטית על יצירות שנוצרות באמצעותה. יצירתו, שהושקעה בה עבודה רבה דרך הפלטפורמה של מידג’רני (Midjourney), נחשפה לעולם בצורה בלתי צפויה – לא דרך זכייה בתחרות אמנות, אלא בעקבות שימוש שנוי במחלוקת שעשה אדם אחר בתמונה שיצר ג’ייסון. האם באמת מדובר בגניבה, או שמדובר בתוצאה טבעית של ההתקדמות הטכנולוגית? במאמר זה נבחן את הסיפור, ננתח את הדילמות המוסריות והמשפטיות, ונשאל האם יש מקום לשינוי בחוקי זכויות היוצרים במקרים כאלו.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

יצירת התמונה: מאמץ מתמשך ותוצאה שנויה במחלוקת

התמונה במאמר (זו שלא רואים בה את הצייר) נוצרה על ידי ג’ייסון אלן באמצעות מידג’רני לאחר לא פחות מ-624 פרומפטים שהקליד ולאחר שהשקיע לטענתו כ-114 שעות ביצירת התמונה הזו. ייתכן והשם שלו מוכר לכם מפני שג’ייסון ניסה, בזמנו, לקבל הגנה של זכויות יוצרים בתמונה הזו, אך משרד זכויות היוצרים האמריקאי סירב לאור העובדה שהאמריקאים לא מכירים באפשרות לקבל הגנת זכויות יוצרים על התמונה שנוצרה באמצעות בינה מלאכותית.

 

ואז הגיע שימוש קצת אחר

לתקופה מסוימת ג’ייסון “חי עם זה בשלום”, אך לפני כשנה הוא גילה, להפתעתו ולתדהמתו, שאדם אוסטרלי בשם אדריאן אלטון לקח את אותה התמונה בדיוק ו”הדביק אותה” בתמונה אחרת (זו שכן עם הצייר) ובישר בפוסט בפייסבוק שהוא הגיע לשלבים הסופיים בתחרות של יצירות בבינה מלאכותית תוך שהוא כותב, בהתרסה של ממש, שהתמונה שמופיעה בתמונה שלו היא של ג’ייסון, אך מכיוון שאין לה הגנה של זכויות יוצרים – הוא לא גנב וזכותו להשתמש בתמונה כאוות נפשו. גם כשאנשים כתבו לו בתגובות שהתמונה הנוצרה על ידי ג’ייסון, אדריאן לא התרשם ולא התחרט, ואף נראה בחלק מהפעמים שהוא מזלזל בג’ייסון ובעבודה שלו, תוך שהוא טוען שמבחינתו הוא אמן לכל דבר מפני שאין לדבריו גניבה.

 

התביעה: המאבק המשפטי

הסיפור הזה הוביל את ג’ייסון להגיש תביעה נגד משרד זכויות היוצרים האמריקאי בטענה שההחלטה שלהם הביאה לכך שהוא לא יכול להרוויח מהתמונה ולממש את הפוטנציאל המסחרי של התמונה, בתקווה שבית המשפט בקולורדו, שם הוגשה התביעה, יורה למשרד זכויות היוצרים האמריקאי להכיר בכך שיש לתמונה הגנת זכויות יוצרים באופן שיאפשר לו להרוויח מהתמונה ולפעול משפטית נגד כל מי שמשתמש בתמונה שלו ללא אישור.

 

באמרה אישית שלי…

אכן לפי החוק האמריקאי אין, נכון להיום, הכרה בהגנת זכויות יוצרים על תמונות שנוצרו באמצעות בינה מלאכותית, זאת לעומת בריטניה שכן מכירה בהגנה הזו, ולעומת סין שמכירה בהגנה כזו במקרים מסוימים שבהם ניתן להראות שיש השקעה מצד המשתמש ביצירת התמונה, ואכן בגלל ההחלטה של האמריקאים ג’ייסון לא יכול להגיש תביעה נגד אדריאן ולא יכול למנוע ממנו להשתמש בתמונה. בחוק הישראלי אין תשובה, ובימים אלה אני כותב, יחד עם קולגה, מאמר שמיועד לפרסום אקדמי שעוסק בדיוק בנושא הזה, ואולי לאחר מכן תהיה תשובה כלשהי…

 

ומה דעתכם הן מבחינת אתיקה והן מבחינת החוק? האם אתם סבורים שאדריאן אכן “גנב”? ואיך לדעתכם ניתן להתמודד עם סיטואציות כאלה, או לחלופין האם כדאי פשוט “להשלים עם המצב”?

 

(הליך Allen v. Perlmutter (1:24-cv-02665), התביעה הוגשה ביום 26.9.2024).

הפוסט “נכנסתי לתחרות עם תמונה שהעתקתי, ומותר לי”. האמנם? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-copyrights-midj-allen/feed/ 0
קלארנה (Klarna) – סיפור הסינדרלה של החברה שהטמיעה AI ויצרה רווחים של 40 מיליון דולר! https://letsai.co.il/klarna/ https://letsai.co.il/klarna/#respond Sun, 15 Sep 2024 04:06:26 +0000 https://letsai.co.il/?p=30431 אנחנו מאוד אוהבים להציג את סיפור היוזמה וההצלחה של קלארנה (Klarna) בהרצאות ובסדנאות שלנו, כדוגמה ל”סיפור סינדרלה” של הטמעת בינה מלאכותית בחברה. החברה עברה טרנספורמציה משמעותית עם ההשקעה ב-AI, אשר הובילה להצלחות עסקיות, לרבות עלייה ברווחים, פתיחת שווקים חדשים וייעול תהליכי עבודה. הסיפור של קלארנה ממחיש כיצד בינה מלאכותית יכולה לחולל שינוי ולהזניק עסקים לגבהים […]

הפוסט קלארנה (Klarna) – סיפור הסינדרלה של החברה שהטמיעה AI ויצרה רווחים של 40 מיליון דולר! הופיע ראשון בLet's AI בינה מלאכותית

]]>
אנחנו מאוד אוהבים להציג את סיפור היוזמה וההצלחה של קלארנה (Klarna) בהרצאות ובסדנאות שלנו, כדוגמה ל”סיפור סינדרלה” של הטמעת בינה מלאכותית בחברה. החברה עברה טרנספורמציה משמעותית עם ההשקעה ב-AI, אשר הובילה להצלחות עסקיות, לרבות עלייה ברווחים, פתיחת שווקים חדשים וייעול תהליכי עבודה. הסיפור של קלארנה ממחיש כיצד בינה מלאכותית יכולה לחולל שינוי ולהזניק עסקים לגבהים חדשים.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

מי את קלארנה?

קלארנה (Klarna) היא חברת פינטק שוודית שהוקמה ב-2005, והפכה למובילה עולמית בתחום “קנה עכשיו, שלם אחר כך” (BNPL). החברה מספקת שירותים פיננסיים מקוונים, כולל עיבוד תשלומים לעסקים בתחום המסחר האלקטרוני, פתרונות סליקה, ניהול הקשר עם חנויות פיזיות, והקלה בתשלומים ללקוחות. נסו לחשוב על מעין שילוב בין זאפ, אמאזון ופייבוקס. עם יותר מ-150 מיליון צרכנים ברחבי העולם, קלארנה הפכה לשחקן מרכזי בזירת התשלומים הדיגיטליים.

 

הטמעת AI מובילה להתייעלות ופרודקטיביות

במהלך נועז למען אימוץ הבינה המלאכותית (AI), קלארנה הודיעה על צמצום כוח העבודה שלה בכמעט 50%, מ-3,800 עובדים ל-2,000. החלטה שנויה במחלוקת זו הייתה חלק מרפורמה מקיפה בשילוב בינה מלאכותית, שהוכחה כיעילה במיוחד – למרות הקטנת כוח האדם היא הניבה תוצאות מרשימות שקשה להתווכח איתן.

 

גידול ברווחים בעזרת AI

הטמעת הבינה המלאכותית של קלארנה הובילה לעלייה משמעותית ברווחים וייעול תפעולי:

 

  • החברה דיווחה על עלייה של 27% בהכנסות בחצי הראשון של 2024.
  • ההכנסה הממוצעת לעובד זינקה ב-73% ביחס לשנה הקודמת.
  • קלארנה מעריכה כי יוזמות הבינה המלאכותית שלה יובילו לשיפור של 40 מיליון דולר ברווחי 2024.

 

עוזר AI: מהפכה בשירות הלקוחות

עוזר ה-AI של קלארנה, שנוצר בשיתוף עם OpenAI, חולל מהפכה בתפעול שירות הלקוחות של החברה – הוא פתח שווקים חדשים והפך את קלארנה לספקית שירותים גלובלית במלוא מובן המילה. הוא חולל שיפור דראסטי באיכות השירות ללקוח (בניגוד למצופה, נדמה שלאו דווקא הקשר האנושי הוא מה שמוביל לשירות מיטבי). שימו לב לנתונים הבאים:

 

  • בחודש הראשון שלו, סייען ה-AI ניהל 2.3 מיליון שיחות, המהוות שני שלישים מהצ’אטים של שירות הלקוחות.
  • העוזר מבצע בפועל את עבודתם של 700 סוכנים במשרה מלאה.
  • זמני המענה ללקוחות הצטמצמו מ-11 דקות לפחות משתי דקות.
  • העוזר הוביל להפחתה של 25% בשאלות חוזרות מצד הלקוחות.

 

כל אלו ממחישים את הכוח האדיר של שילוב מערכות בינה מלאכותית חכמות וסוכני AI בעסקים וחברות.

 

התרחבות גלובלית

עוזר ה-AI של קלארנה אפשר לחברה להתרחב לשווקים חדשים בקלות – הוא זמין ב-23 שווקים, ופועל 24/7. העוזר מתקשר ביותר מ-35 שפות, וכך הוא פתח את השירות לשווקים חדשים במדינות נוספות ואיפשר לאוכלוסיות חדשות גישה לכלי ולשירותי החברה.

 

הטרנספורמציה של קלארנה מונעת על ידי שותפויות מפתח:

 

החברה שיתפה פעולה עם OpenAI לפיתוח עוזר ה-AI שלה וכלים נוספים מבוססי AI. היא הפכה לחברה האירופית הראשונה ולחברת הפינטק הראשונה בעולם שהשיקה פלאגין של ChatGPT (פיצ’ר הפלאגינים כבר לא זמין, והיה מעין גרסה מוקדמת ל-GPTs, שאיפשרה שימוש בטכנולוגיה של OpenAI לביצוע קסטומיזציה ויצירת שירותים נלווים בתוך הפלטפורמה של ChatGPT.

 

לאחרונה החברה סיימה את השותפויות שלה עם Salesforce ו-Workday, ובחרה במקום זאת במערכת פשוטה יותר, המבוססת על AI גנרטיבי.

 

העובדים שנשארו נהנים מהכוח של הבינה המלאכותית

למרות צמצום כוח האדם, קלארנה משתמשת ב-AI כדי לשפר טת חוויית העובדים. 90% מעובדי קלארנה משתמשים בכלים מבוססי AI גנרטיבי מדי יום. קלארנה הפכה את ChatGPT Enterprise לזמין לכל עובדיה ברחבי העולם. שיעורי האימוץ הגבוהים נרשמו בעיקר במחלקות כמו תקשורת (93%), שיווק (88%) ומשפטים (86%). המשותף לכל אלו הוא הצורך במערכת שיוצרת תוכן או טקסט וגרפיקות – השדה הקלאסי של מודלי שפה גדולים ומחוללי תמונות.

 

המהפכה שמובילה קלארנה בעזרת בינה מלאכותית מדגימה כיצד עסקים יכולים לנצל את הטכנולוגיה לשיפור הפרודוקטיביות, שיפור תנאי העובדים, שיפור חוויית הלקוח והגדלת הצמיחה הפיננסית. בעזרת אימוץ טכנולוגיות AI, קלארנה מיקמה עצמה בחזית תעשיית הפינטק והציבה סטנדרט חדש לאופן שבו חברות יכולות להסתגל ולהצליח בסביבה עסקית עתירת AI.

 

לצד כל סיפור סינדרלה יש גם סיפורי אימה

בעוד הסיפור של קלארנה (Klarna) מדגים כיצד הטמעת בינה מלאכותית (AI) יכולה להוביל להצלחה מרשימה, יש גם מקרים שממחישים את הסיכונים שכרוכים בשימוש לא מבוקר בטכנולוגיה הזו. מקרים כמו דליפת הסודות המסחריים של סמסונג (Samsung) או הצ’טבוט של אייר קנדה (Air Canada) שפיזר הבטחות ללא כיסוי, מצביעים על כך שהטכנולוגיה יכולה להוביל לתוצאות חמורות כאשר לא מטפלים בה כראוי.

 

סם אלטמן מחזיק בסודות המסחריים של סמסונג

סמסונג חוותה דליפה חמורה של מידע סודי לאחר שעובדים שיתפו בטעות נתונים רגישים דרך ChatGPT, המופעל על ידי OpenAI. בתוך חודש מאז שהחברה התירה לעובדיה להשתמש במערכת, התרחשו שלושה מקרים שונים של דליפת מידע קריטי. אחד המקרים כלל העלאת קוד מקור לתוכנית ניהול מסדי נתונים של מוליכים למחצה במטרה לקבל סיוע בתיקון בעיות. במקרה נוסף, עובד שיתף קוד שמיועד לאיתור ציוד פגום, ובמקרה אחר הועלו פרוטוקולים של פגישות כדי לייצר סיכומים אוטומטיים. בתגובה לדליפות, סמסונג הטילה מגבלות חירום על העלאת מידע ל-ChatGPT, ואף החלה לשקול פיתוח מערכת AI פנימית משלה שתגן על סודות החברה בעתיד.

 

הבטחות ללא כיסוי באייר קנדה

סיפור נוסף שזכה לתשומת לב רבה הוא המקרה של אייר קנדה, שהסתבכה משפטית בעקבות טעות של בוט באתר שלה. ג’ייק מופט (Jake Moffatt), לקוח של החברה, קיבל מצ’טבוט מידע שגוי לפיו הוא זכאי להחזר כספי, זאת בתנאי שיפנה לחברה בתוך 90 יום מרגע רכישת הכרטיס. כאשר מופט ניסה לממש את ההחזר, אייר קנדה סירבה וטענה שהמדיניות האמיתית של החברכ לא מאפשרת החזר רטרואקטיבי. מופטט החליט לתבוע את החברה בבית משפט מקומי, וטענת ההגנה של אייר קנדה הייתה שהבוט הוא ישות נפרדת ואין לה אחריות על המידע שסופק דרכו. עם זאת, בית המשפט דחה את הטענה, וקבע שהבוט הוא חלק מאתר החברה ולכן אייר קנדה אחראית למידע שניתן על ידו. בסופו של דבר, אייר קנדה חויבה לשלם למופטט פיצוי בסך של 812 דולר.

 

מה הלקח? מה ניתן ללמוד ממקרים אלו?

שני המקרים הללו מדגישים את הסכנות שבשימוש בלתי מושכל בבינה מלאכותית בעסקים. המקרה של סמסונג מראה שאסור להכניס למערכות AI כמו ChatGPT מידע רגיש, בדגש על מידע אישי, פיננסי, בטחוני או רפואי. רבים כלל לא יודעים שהמידע יכול לשמש לאימון המודלים של החברות המפתחות את הטכנולוגיה. למשל, ברירת המחדל של OpenAI היא לאמן את המודלים שלה על בסיס היסטוריית השיחות של משתמשיה. רבים גם לא יודעים שאפשר לכבות אפשרות זה בקליק אחד.

 

במקרה של אייר קנדה, הלקח המרכזי הוא שאין להתחבא מאחורי בוטים או מערכות אוטומטיות. האחריות הסופית נשארת בידיים של בני האדם המנהלים את המערכות. אנחנו צריכים לוודא שהטכנולוגיות שלנו מתפקדות כראוי ולעמוד מאחורי המידע וההבטחות שניתנות ללקוחות. בסופו של יום – אנחנו (האנשים שמאחורי המכונה) מהווים את חותמת האיכות האחרונה. כל דבר שיוצא ממערכת AI כזו או אחרת הוא בגדר חומר גלם ולא תוצר סופי, ועלינו חלה החובה לדייק וללטש אותו, או לכל הפחות לוודא שהוא חף מטעויות, שהוא אמין והולם את ערכי ונהלי החברה.

 

שימוש בבינה מלאכותית הוא חרב פיפיות. הוא יכול להוביל להצלחה מסחררת, כמו במקרה של קלארנה, או לכישלונות מביכים כמו בסמסונג ואייר קנדה. כדי להימנע מטעויות יקרות, חשוב להיוועץ באנשי מקצוע המתמחים בהטמעת AI, על מנת להבטיח שהמערכות מנוהלות בצורה בטוחה ומבקרת. בדיוק בשביל זה נבחרת המומחים של LetsAI עומדים לשירותים – רוצים לשלב AI בעסק בצורה חכמה, או להכשיר עובדים לשימוש בכלי GenAI? דברו איתנו.

 

 

 

הפוסט קלארנה (Klarna) – סיפור הסינדרלה של החברה שהטמיעה AI ויצרה רווחים של 40 מיליון דולר! הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/klarna/feed/ 0
כשאלגוריתם יוצא לשופינג: הסיפור מאחורי תמחור ה-AI הכושל של רשת קרוגר https://letsai.co.il/kroger-ai/ https://letsai.co.il/kroger-ai/#respond Sun, 18 Aug 2024 15:21:15 +0000 https://letsai.co.il/?p=27204 האם שמעתם על הסערה שחוללה רשת הסופרמרקטים קרוגר? בואו נצלול לסיפור שמדגים כיצד אפילו חברות ענק יכולות לטעות באימוץ AI – ומה אנחנו יכולים ללמוד מזה. איך גורמים לסנאטורים אמריקאים לצאת מגדרם בגלל AI? איך אלגוריתם עלול לעורר דיון ציבורי סוער על אתיקה? איך כוונה טובה גוררת איבוד מהיר של אמון לקוחות? התשובה: תמחור מוצרים […]

הפוסט כשאלגוריתם יוצא לשופינג: הסיפור מאחורי תמחור ה-AI הכושל של רשת קרוגר הופיע ראשון בLet's AI בינה מלאכותית

]]>
האם שמעתם על הסערה שחוללה רשת הסופרמרקטים קרוגר? בואו נצלול לסיפור שמדגים כיצד אפילו חברות ענק יכולות לטעות באימוץ AI – ומה אנחנו יכולים ללמוד מזה.

  • איך גורמים לסנאטורים אמריקאים לצאת מגדרם בגלל AI?
  • איך אלגוריתם עלול לעורר דיון ציבורי סוער על אתיקה?
  • איך כוונה טובה גוררת איבוד מהיר של אמון לקוחות?

התשובה: תמחור מוצרים דינמי מבוסס AI.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

קרוגר (Kroger), אחת מרשתות הסופרמרקטים הגדולות בארה”ב, השיקה מערכת תמחור דינמי מבוססת בינה מלאכותית – לפי ביקוש, מלאי, ונתונים אישיים של כל לקוח. אולם מה שנראה כצעד חדשני, הפך עבור קרוגר במהרה לסיוט יחסי ציבור. הצרכנים זעמו, ואפילו הסנאטורים אליזבת וורן ובוב קייסי שלחו מכתב חריף למנכ”ל קרוגר תחת הכותרת: “תאוות הבצע התאגידית יצאה משליטה”. הם שיתפו את חששם מהפרה אפשרית של הפרטיות והגדלת אי השוויון.

 

ארבע תובנות קריטיות מהסאגה

ניתוח מקדים הוליסטי של כל יוזמה

אסור להתלהב ממקסמי הבינה המלאכותית. כל יוזמה חייבת לעבור “אבחון” שמשקלל בין היתר סיכונים, השלכות על חוויית הלקוח, סנטימנט צרכני ועוד. המהלך של קרוגר הציף סנטימנט חדש-ישן סביב רווחי חברות והשלכות אתיות של אסטרטגיות תמחור מוטות ומותאמות אישית.

 

פרטיות ושקיפות הן נקודות פתיחה הכרחיות

במיוחד כשמדובר ביוזמה שאינה תפעולית אלא נושקת למסע הלקוח, חובה ליישם פרקטיקות אתיות ותקשורת ברורה לבניית אמון: שקיפות האלגוריתם כתמחור הוגן לטובת הצרכן, הבטחת פרטיות המידע, ושילוב של מודלים הניתנים להסבר על החלטות התמחור.

 

חווית לקוח קודמת לטכנולוגיה

אסור להתאהב בטכנולוגיה עד כדי פגיעה בחוויית הלקוח ובמערכת האמונות שלו. פיילוטים מול מעגלי משתמשים, תקשור נכון, וממשק שמסביר את החסכון ונותן אפשרות לבחירה יכולים לסייע.

 

ניהול הקשר רחב

ניהול אמון בעידן ה-AI הוא קריטי. יוזמות כמו “תמחור דינמי” מעוררות פחדים וסנטימנט שלילי סביב חדירה לפרטיות וחמדנות תאגידית. היקף איסוף וניתוח הנתונים הדאיג את המבקרים, שטענו כי פרקטיקות כאלה פוגעות בפרטיות הצרכנים ועלולות להוביל לתמחור מפלה המבוסס על מאפיינים אישיים או כוח קנייה.

מה שקרוגר דמיינה כחדשנות, השוק ראה כניצול נתוני צרכנים רגישים למקסום רווחים, חוסר הוגנות ואף ניצול ציני.

מחקרים מצביעים על ספקנות גוברת כלפי יישומי AI בקמעונאות. על פי ברומטר האמון של אדלמן לשנת 2024, אמון הצרכנים בבינה מלאכותית ירד ברחבי העולם מ-61% ל-53% בשנים האחרונות, עם ירידה תלולה עוד יותר בארה”ב מ-50% ל-35%.

 

השורה התחתונה

רק אסטרטגיה שמנתחת, מסננת ומתעדפת יוזמות מעבר לחישוב “הישן” של עלות/תועלת, ומשלבת קריטריונים נוספים רחבים יותר, מאפשרת לארגון לנווט בהצלחה במסע למיצוי מיטבי של הערך הטמון בבינה מלאכותית.

אילו עוד יוזמות טכנולוגיות אך מסוכנות אתם מזהים בארגון? אני מכנה ארגון המסוגל ליצור איזון חכם בין חדשנות וטכנולוגיה לבין אסטרטגיה אחראית – “ארגון אקספוננציאלי”. מעוניינים להוביל טרנספורמציית AI תוך איזון בין תפוקה לניהול סיכונים? דברו איתנו.

הפוסט כשאלגוריתם יוצא לשופינג: הסיפור מאחורי תמחור ה-AI הכושל של רשת קרוגר הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/kroger-ai/feed/ 0
האם NVIDIA גונבת סרטונים לצורך אימון מודלי בינה מלאכותית? התחקיר והפרטים… https://letsai.co.il/nvidia-youtube/ https://letsai.co.il/nvidia-youtube/#respond Fri, 09 Aug 2024 04:44:59 +0000 https://letsai.co.il/?p=26498 ענקית השבבים NVIDIA נתפסה, לכאורה, בגניבת כמויות אדירות של תוכן וידאו מאתרים כמו יוטיוב ונטפליקס לצורך אימון מודלים של בינה מלאכותית. מסמכים פנימיים שהודלפו חושפים, על פי פרסומים, את היקף הפעילות המדהים של החברה, והעלו שאלות אתיות ומשפטיות כבדות משקל.       הדרך לפסגה חברת NVIDIA, שנוסדה ב-1993 על ידי ג’נסן הואנג, כריס מלצ’ובסקי […]

הפוסט האם NVIDIA גונבת סרטונים לצורך אימון מודלי בינה מלאכותית? התחקיר והפרטים… הופיע ראשון בLet's AI בינה מלאכותית

]]>
ענקית השבבים NVIDIA נתפסה, לכאורה, בגניבת כמויות אדירות של תוכן וידאו מאתרים כמו יוטיוב ונטפליקס לצורך אימון מודלים של בינה מלאכותית. מסמכים פנימיים שהודלפו חושפים, על פי פרסומים, את היקף הפעילות המדהים של החברה, והעלו שאלות אתיות ומשפטיות כבדות משקל.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

הדרך לפסגה

חברת NVIDIA, שנוסדה ב-1993 על ידי ג’נסן הואנג, כריס מלצ’ובסקי וקרטיס פרים, עברה מסע מרתק מחברת סטארט-אפ קטנה לאחת החברות המובילות והרווחיות ביותר בעולם הטכנולוגיה. בתחילת דרכה, NVIDIA התמקדה בפיתוח כרטיסי מסך לשוק המשחקים והמולטימדיה, אך עם השנים הרחיבה את פעילותה לתחומים נוספים, ובראשם בינה מלאכותית ומחשוב מואץ. הצלחתה האדירה של אנווידיה בשנים האחרונות באה לידי ביטוי בצמיחה מטאורית בשווי השוק שלה.
 
בשנת 2023 בלבד, מניית החברה זינקה ב-239%, והובילה את NVIDIA לחצות את רף השווי של טריליון דולר. נכון ליוני 2024, שווי השוק של החברה עבר את רף ה-3 טריליון דולר, מה שהפך אותה לחברה השנייה בגודלה בארה”ב מבחינת שווי שוק, עוקפת את אפל.
 
הצלחה זו נובעת בעיקר מהדומיננטיות של NVIDIA בשוק השבבים לבינה מלאכותית, כאשר הערכות מצביעות על נתח שוק של בין 70% ל-95% בתחום זה. הביקוש העצום למעבדי הבינה המלאכותית של החברה הוביל לתוצאות פיננסיות מרשימות, עם הכנסות של 26 מיליארד דולר ברבעון הראשון של שנת 2025 הפיסקלית – עלייה של 262% לעומת השנה הקודמת.
 
במקביל להצלחה האדירה נמצאת NVIDIA בימים אלו במוקד של מחלוקת, כאשר טענות חמורות הועלו נגדה בנוגע לשיטות איסוף המידע שלה לצורך אימון מודלים של בינה מלאכותית.
 

פרויקט “קוסמוס”

על פי תחקיר של אתר 404 Media, חברת NVIDIA הפעילה פרויקט פנימי בשם “קוסמוס” שמטרתו לאסוף “ניסיון חזותי של חיי אדם שלמים מדי יום” לצורך אימון מודלים של בינה מלאכותית. הפרויקט נועד לשמש מגוון יישומים של החברה, כולל מחולל העולמות התלת-ממדיים Omniverse, מערכות לרכב אוטונומי, ומוצרי “אדם דיגיטלי”.

 

על פי החשדות, עובדי NVIDIA לשעבר התבקשו להוריד סרטונים מיוטיוב, נטפליקס ומקורות נוספים ללא רשות. כאשר עובדים העלו חששות לגבי החוקיות של הפעולה, נאמר להם על ידי ההנהלה כי ניתן אישור מהדרגים הבכירים ביותר בחברה.

 

בתחקיר נטען כי על מנת להתחמק מזיהוי על ידי יוטיוב, NVIDIA השתמשה במכונות וירטואליות עם כתובות IP מתחלפות. החברה הצליחה לאסוף למעלה מ-38 מיליון כתובות URL תוך חודש אחד בלבד.

 

 

ביוטיוב זועמים!

NVIDIA טוענת כי פעולותיה “עומדות בקנה אחד עם הרוח של חוק זכויות היוצרים” (in full compliance with the letter and the spirit of copyright law). עם זאת, יוטיוב הגיבה כי שימוש בתוכן שלה לאימון מודלים של בינה מלאכותית מהווה “הפרה ברורה” של תנאי השימוש.

 

הפרשה מעלה שאלות אתיות ומשפטיות מורכבות לגבי השימוש בתוכן מוגן זכויות יוצרים לאימון בינה מלאכותית. היא מצטרפת למקרים דומים בתעשייה, כאשר חברות כמו OpenAI ו-Runway הואשמו גם הן בשימוש בחומרים מוגנים ללא אישור.

 

ב-27 בדצמבר 2023, ה-New York Times הגיש תביעה נגד OpenAI ומיקרוסופט, בטענה ל”העתקה נרחבת” של תוכן מוגן בזכויות יוצרים לצורך אימון מערכות הבינה המלאכותית שלהן, תוך שימוש במיליוני מאמרים של העיתון ללא אישור או תשלום. בנוסף, ב-30 באפריל 2024, שמונה מו”לים של עיתונים אמריקאיים, כולל New York Daily News ו-Chicago Tribune, הגישו תביעה דומה נגד אותן חברות, בטענה לשימוש לא מורשה במאמרים שלהם לצורך אימון מודלים כמו ChatGPT ו-Copilot. גם אמנים חזותיים לא נותרו מאחור: ב-13 בינואר 2023, שלושה אמנים הגישו תביעה ייצוגית נגד Midjourney, Stability AI ו-DeviantArt, בטענה לשימוש ביצירות האמנות שלהם ללא אישור לאימון מחוללי תמונות.

 

היעדר חוקים ספציפיים המתייחסים לאימון AI יוצר אזור אפור משפטי, והשלכות פוטנציאליות של תביעות אלו עלולות להוות “אירוע הכחדה” עבור תעשיית ה-AI המודרנית, בדומה למה שקרה לאתרי שיתוף קבצים בתחילת שנות ה-2000. עם זאת, ברמה האישית אני לא חושב שמצב כזה יקרה – כיום הטכנולוגיה (בדגש על בינה מלאכותית) מתקדמת בקצב כל כך מהיר, שלא מותיר לרגולציה את הזמן להדביק את הקצב. כמו כן, אני מאמין שבתעשייה הזו יש מנטליות של “לקבוע עובדות בשטח”. מבלי להיכנס לסוגיית האתיקה ומבלי להיות שיפוטי – במרוץ ה-AI, לא כל כך משחקים לפי החוקים.

 

מקרים אלו מדגישים את הצורך הדחוף בהבהרה משפטית ורגולטורית בנוגע לשימוש בתוכן מוגן בזכויות יוצרים לאימון מודלים של בינה מלאכותית, במיוחד כאשר מדובר בשימוש בתוכן מוגן זכויות יוצרים ומידע אישי למטרות מסחריות.

 

אימון מודלי AI מונע מצמא לדאטה!

המקרה של NVIDIA משקף את המורכבות והאתגרים בתחום אימון הבינה המלאכותית. כיום, מערכות AI דורשות כמויות עצומות של דאטה כדי לאמן את הדורות הבאים של המודלים שלהן, ודאטה זה מאפשר למערכות ללמוד ולשפר את היכולות שלהן בתחומים שונים, מניתוח תמונות ווידאו ועד לפענוח שפה טבעית והתנהגות משתמשים. השגת הדאטה הדרוש לעיתים מצריכה פתרונות יצירתיים ולעיתים שנויים במחלוקת. חברות רבות מוצאות דרכים יצירתיות לאיסוף דאטה (לעיתים על הגבול שבין חוקי ללא אתי).

 

ככל שהשימוש בטכנולוגיות AI הופך לנפוץ יותר, הצורך ברגולציה ושקיפות גדל, ותהליכים שכאלה אכן קורים – רק השבוע נכנסה לתוקף רגולציה מקיפה באיחוד האירופי.

 

מקרים כמו זה המתואר בכתבה זו משמשים כתזכורת לחשיבות השמירה על חוקי זכויות היוצרים וסטנדרטים אתיים. השקיפות בתהליכי איסוף הדאטה והאימון חיונית כדי לשמור על אמון הציבור ולהבטיח שהטכנולוגיות משמשות לטובת הכלל. המקרה של NVIDIA מדגיש את הצורך בהתנהלות אחראית ושקופה בתחום אימון מערכות AI, תוך שמירה על חוקי זכויות היוצרים והסטנדרטים האתיים. עם רגולציה מתאימה ושקיפות בתהליכים, ניתן להבטיח שהטכנולוגיות המתפתחות ישרתו את החברה בצורה הוגנת ובטוחה.

 

 

 

הפוסט האם NVIDIA גונבת סרטונים לצורך אימון מודלי בינה מלאכותית? התחקיר והפרטים… הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/nvidia-youtube/feed/ 0
רגולציית הבינה המלאכותית באיחוד האירופי נכנסת השבוע לתוקף https://letsai.co.il/eu-regulation/ https://letsai.co.il/eu-regulation/#respond Tue, 30 Jul 2024 08:33:21 +0000 https://letsai.co.il/?p=25480 תיכף זה קורה! רגולציית הבינה המלאכותית באיחוד האירופי (EU AI ACT) נכנסת השבוע לתוקף (בחמישי 1.8.24). אז מה זה אומר בגדול, איך זה ישפיע עליכם ולמה זה בכלל מעניין אתכם אם אתם לא באיחוד האירופי? סיכמתי לכם בנקודות קצרות את עיקרי הדברים.         דברים שחשוב לדעת שימושים לא חוקיים החל מה-1.2.25 שימושים ספציפיים בבינה […]

הפוסט רגולציית הבינה המלאכותית באיחוד האירופי נכנסת השבוע לתוקף הופיע ראשון בLet's AI בינה מלאכותית

]]>
תיכף זה קורה! רגולציית הבינה המלאכותית באיחוד האירופי (EU AI ACT) נכנסת השבוע לתוקף (בחמישי 1.8.24). אז מה זה אומר בגדול, איך זה ישפיע עליכם ולמה זה בכלל מעניין אתכם אם אתם לא באיחוד האירופי? סיכמתי לכם בנקודות קצרות את עיקרי הדברים.
 
 
הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 
 

דברים שחשוב לדעת

שימושים לא חוקיים

החל מה-1.2.25 שימושים ספציפיים בבינה מלאכותית יהפכו ללא חוקיים באיחוד האירופי. מדובר בעיקר בשימושים “בעייתיים” כמו מערכות שעשויות להטות דעת קהל, מערכות דירוג חברתי, זיהוי רגשות במקום העבודה ועוד שימושים שהאיחוד האירופי מגדיר כתחומים מסוכנים מדי.
 

חובת השקיפות

החל מה-1.8.25 תיכנס לתוקף חובת שקיפות על כלי בינה מלאכותית גנרטיביים. כל תוכן שיופק על ידי בינה מלאכותית וכל פלט של בינה מלאכותית יצטרך להיות מסומן ככזה. איך זה ייושם בדיוק? נצטרך להמתין ולראות.
 
 

חובת רישום

החל מה-1.8.26 תחל חובת רישום במאגר מיוחד של האיחוד האירופי לכל מי שמפעיל מערכת מבוססת בינה מלאכותית. בנוסף, החל מהתאריך הזה אם אתם מפעילים כלי בינה מלאכותית בסיכון גבוה תהיו מחויבים לעמוד במספר כללים מחמירים כולל קבלת תו תקן, חובות תיעוד טכני ודיווח ודרישות שקיפות נוספות. מדובר במערכות בתחומים כמו זיהוי ביומטרי, דירוג אשראי, חינוך והכשרה מקצועית ועוד.
 
לא נמצאים באיחוד האירופי? תהיו חייבים למנות נציג מקומי באיחוד האירופי.
 

למה זה צריך לעניין אתכם, אם אתם לא באיחוד האירופי?

הרגולציה תחול על ספקים, מפעילים, יבואנים, מפיצים ואנשי מכירות של מערכות בינה מלאכותית – גם מחוץ לאיחוד – במידה והמערכות זמינות למשתמשים באיחוד האירופי.
 

אז מה עליכם לבדוק כדי לדעת אם הרגולציה חלה עליכם? הנה סדר פעולות לביצוע:

  • האם אתם מפעילים מערכת בינה מלאכותית?
  • האם מדובר במערכת שמבצעת רק משימות טכניות בעזרת בינה מלאכותית?
  • אם לא – האם מדובר במערכת שאסורה לשימוש?
  • אם לא – האם מדובר במערכת בסיכון גבוה?
  • האם מדובר במערכת שמשלבת בינה מלאכותית גנרטיבית?
  • האם חלה עליכם חובת רישום או חובות שקיפות כלשהם?
  • האם אתם פועלים או מאפשרים גישה למערכת שלכם למי שנמצא באיחוד האירופי?
  • אם הגעתם עד שלב 4 לפחות (מערכת בסיכון גבוה), עליכם (כנראה) לבצע רישום, למנות נציג מקומי ולעמוד בשורת כללים והתאמות.
 

ומה העונש למי שלא עומד בכללים?

מפרים חשופים לקנסות שעשויים להגיע לעשרות מיליוני יורו, אך לעסקים קטנים יהיו קנסות נמוכים יותר במקרים מסוימים, עד אחוזים בודדים מההכנסות השנתיות. שימו לב שגם אם אתם מפיצים או אנשי מכירות אתם חשופים לקנסות אם לא עמדתם בכללים.
 

איך זה יעבוד? ניתן שתי דוגמאות

דוגמה ראשונה: רותי וירון, בעלים של חברה ישראלית עם אתר שמפיק ברכות לימי הולדת באמצעות בינה מלאכותית, כאשר האתר נגיש גם למשתמשים באיחוד האירופי.
מדובר במיזם המשלב בינה מלאכותית איך לא בסיכון גבוה. מה רותי וירון חייבים לעשות? בין השאר:
  • רישום במאגר האיחוד האירופי.
  • חובת שקיפות ויידוע משתמשים על השימוש בבינה מלאכותית.
  • מינוי נציג באיחוד האירופי.
  • שמירה על אבטחת מידע ותיעוד תהליכים טכניים.
 
דוגמה שנייה: רותי וירון מפעילים מיזם להשמת עובדים באמצעות בינה מלאכותית באיחוד האירופי, ויש להם לקוחות באיחוד האירופי.
מדובר במיזם המשלב בינה מלאכותית בסיכון גבוה. מה רותי וירון חייבים לעשות – בנוסף לחובות שציינתי קודם? בין השאר:
  • הוצאת תו תקן.
  • תיעוד ואבטחת מידע מחמירים.
  • הכשרת הלקוחות על המערכת.
  • הקמת מערכת ניהול סיכונים.
 
 

לסיכום

חשוב להיערך מראש ולא לחכות לרגע האחרון. אם אתם מתכננים לעבוד עם קהל באיחוד האירופי או להנגיש את השירות שלכם לאיחוד האירופי שקלו לבצע התאמות כבר בזמן הקרוב כדי לשדר שאתם מודעים לרגולציה.
האם זה יזרז או יעכב חדשנות? זה כבר נושא לדיון נפרד, אבל זכרו: (לעתים) הסדרה עדיפה על היעדר הסדרה. שיהיה בהצלחה!
 
 
 

הפוסט רגולציית הבינה המלאכותית באיחוד האירופי נכנסת השבוע לתוקף הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/eu-regulation/feed/ 0
לומה Dream Machine – האותיות הקטנות, ומה שחשוב לדעת על זכויות השימוש https://letsai.co.il/luma-law/ https://letsai.co.il/luma-law/#respond Tue, 18 Jun 2024 04:00:00 +0000 https://letsai.co.il/?p=21990 לאחרונה פרץ לחיינו מחולל וידאו חדש בשם Dream Machine מבית Luma, ויצאתי לבדוק, כהרגלי בקודש, את האותיות הקטנות שחשוב שכל משתמש ידע, ובעיקר כל מי שעושה שימוש עסקי או מסחרי בכלי המדהים הזה.     אז מה חשוב לדעת? במנוי החינמי אסור לעשות שימוש מסחרי בתכנים הנוצרים. מותר לעשות בתכנים שימוש אישי, פרטי בלבד.   […]

הפוסט לומה Dream Machine – האותיות הקטנות, ומה שחשוב לדעת על זכויות השימוש הופיע ראשון בLet's AI בינה מלאכותית

]]>
לאחרונה פרץ לחיינו מחולל וידאו חדש בשם Dream Machine מבית Luma, ויצאתי לבדוק, כהרגלי בקודש, את האותיות הקטנות שחשוב שכל משתמש ידע, ובעיקר כל מי שעושה שימוש עסקי או מסחרי בכלי המדהים הזה.

 

הישארו מעודכנים

רוצים לקבל עדכונים בלייב? רוצים מקום בו אתם יכולים להתייעץ עם מומחי AI, לשאול שאלות ולקבל תשובות? רוצים לשמוע על מבצעים והטבות לכלי ה-AI שמשנים את העולם? הצטרפו לקהילות ה-AI שלנו.

 

 

אפשר גם להרשם לניוזלטר שלנו

 

 

אז מה חשוב לדעת?

  • במנוי החינמי אסור לעשות שימוש מסחרי בתכנים הנוצרים. מותר לעשות בתכנים שימוש אישי, פרטי בלבד.

 

  • אם אתם מעלים תמונות, אתם נותנים ללומה זכויות שימוש מלאות בתוכן שהעליתם. למעשה זה אומר שאם למשל אתם מעלים תמונות שלכם או תמונות ‘רגישות’, אז בהחלט יש סיכוי שלומה תוכל לייצר תכנים ללקוחות אחרים המסתמכים על התמונות שהעליתם.

 

  • התוכן שאתם מייצרים הוא בבעלותכם המלאה. אבל! אין התחייבות לסטריליות בתוכן שאתם מייצרים, כלומר לומה יכולה להשתמש בתכנים שהיא הפיקה לכם גם לצדדים שלישיים. נוסף על כך, חשוב לזכור את אי־הבהירות בכל הקשור לבעלות בתוכן שנוצר באמצעות בינה מלאכותית. חלק מהמדינות (למשל ארצות הברית) אינן מכירות בקבלת זכות בעלות על בתוכן שנוצר באמצעות בינה מלאכותית (בישראל המצב לא מוסדר, ויש חוסר ודאות).

 

  • מייצרים דיפ פייק של מישהו? הפלטפורמה מחייבת אתכם לציין לצד כל פרסום שמדובר בתוכן שנוצר באמצעות בינה מלאכותית.

 

  • לא ברור עד כמה הפלטפורמה ‘כשרה’, ואם, למשל, תוכן שתייצרו לא יפר זכויות של צדדים שלישיים. בסופו של דבר האחריות לוודא את ‘כשרות’ התכנים חלה על המשתמש.

 

 

מי באמת צריך לדעת את כל מה שכתבתי?

בעיקר מי שמייצר תכנים ללקוחות שלו במסגרת שירות עסקי שהוא נותן. ולכן חשוב בכל הסכם שלכם מול לקוחות:

 

  • להדגיש שאתם משתמשים בפלטפורמה של לומה.
  • להבהיר ללקוחות שבאחריותם לברר כל נושא משפטי הקשור לשימוש בתוצרים של לומה.
  • לקבל הסכמה מפורשת מהלקוחות המבהירה שהם מודעים לאי־הבהירות בנושא ולסיכונים השונים (למשל שתוכן שתייצרו להם עלול להשתייך למישהו אחר; ואם מעתיקים לו את התוכן, לא בטוח שהוא יכול להגיש תביעה על הפרת זכויות יוצרים).
  • להעביר את האחריות בנושא ללקוחות שלכם.

 

וגם אם השימוש שלכם הוא פרטי בלבד, חשבו פעמיים אם להעלות, למשל, תמונות של הילדים שלכם. לא יהיה לכם נעים לגלות שמשתמש כלשהו יצר סרטון וידאו עם תיאור מוגדר של ילד, ושהילד שלכם ‘מככב’ בסרטון שנוצר באמצעות בינה מלאכותית.

 

אז, אל תגידו שלא ידעתם…

נ”ב, התמונה הראשית נוצרה באמצעות BRIA AI, חברה ישראלית המפעילה אלגוריתם שהתאמן על תכנים באישור של בעלי הזכויות.

הפוסט לומה Dream Machine – האותיות הקטנות, ומה שחשוב לדעת על זכויות השימוש הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/luma-law/feed/ 0
למה אי אפשר לחפש את טיילור סוויפט ב-X (טוויטר לשעבר), ואיך זה קשור ל-AI? https://letsai.co.il/taylorswift/ https://letsai.co.il/taylorswift/#respond Mon, 29 Jan 2024 08:13:34 +0000 https://letsai.co.il/?p=8563 קרדיט לתמונה: LOS ANGELES – MAR 14: Taylor Swift at the iHeart Radio Music Awards – Press Room at the Microsoft Theater on March 14, 2019 in Los Angeles, CA — Photo by Jean_Nelson   בימים האחרונים מעריציה הרבים של אלילת הפופ טיילור סוויפט (Taylor Swift) נדהמו וזעמו בו זמנית, עת שגילו שלא ניתן לחפש […]

הפוסט למה אי אפשר לחפש את טיילור סוויפט ב-X (טוויטר לשעבר), ואיך זה קשור ל-AI? הופיע ראשון בLet's AI בינה מלאכותית

]]>
קרדיט לתמונה: LOS ANGELES – MAR 14: Taylor Swift at the iHeart Radio Music Awards – Press Room at the Microsoft Theater on March 14, 2019 in Los Angeles, CA — Photo by Jean_Nelson

 

בימים האחרונים מעריציה הרבים של אלילת הפופ טיילור סוויפט (Taylor Swift) נדהמו וזעמו בו זמנית, עת שגילו שלא ניתן לחפש את הזמרת האהובה עליהם באחת מהרשתות החברתיות המצליחות בעולם – X (טוויטר לשעבר). איך כל זה קשור ל-AI ולמה זה צריך להדאיג גם אתכם? הכל בכתבה הבאה.

 

אבל לפני הכל – הישארו מעודכנים! הצטרפו לרשימת התפוצה שלנו ולא תפספסו שום עדכון, חידוש או מידע על כלי חדש שיוצא…

 

מה X (טוויטר לשעבר) רוצה מטיילור סוויפט?

מסתבר שבימים האחרונים פלטפורמת X (טוויטר לשעבר) חסמה את האפשרות לחפש תכנים קשורים לטיילור סוויפט. הסיבה: מבול של תמונות מזוייפות שנוצרו בעזרת כלים ג’נרטיביים ששטפו את הרשת החברתית. תמונות ה-AI היו בעלות אופי מיני ומחפיץ ביותר. וכך, כל מי שניסה לרשום בשורת החיפוש את שם הזמרת נתקל בהודעת השגיאה הבאה: 

 

“משהו התקלקל – נסו שוב מאוחר יותר”

 

 
הודעת השגיאה ב-X (טוויטר לשעבר) בעת שמנסים לחפש את טיילור סוויפט

הודעת השגיאה ב-X (טוויטר לשעבר) בעת שמנסים לחפש את טיילור סוויפט

 

איך כל זה קשור לאילון מאסק?

צמיחתם של מחוללי תמונות עוצמתיים, בדגש על סטייבל דיפיוז’ן והיכולת לבנות מודלים שמבוססים על דאטה-סטים של עשרות, מאות ואף אלפי תמונות, מקלים על יוצרים בעלי זדון לייצר תמונות מזויפות של כל אדם בעולם. כל עוד יש לך מספיק דאטה (מספיק תמונות), אתה יכול לבנות מודל של אותו אדם ולג’נרט את דמותו בכל סיטואציה העולה על רוחך. כך קורה גם בעולם משפיעני ה-AI: תעשייה שצומחת בקצב מסחרר ומגלגלת מיליוני דולרים בכל חודש. בתעשיית הפורנוגרפיה, הטכנולוגיה הזו מיצבה את עצמה כמשמעותית ביותר, לאור היכולת שלה לייצר כמויות אדירות של תוכן בזמן קצר וללא שום גבולות. החברות המסחריות שעומדות מאחורי כלים אלו מנסות להילחם בתופעה ושמות מגבלות ומסננים על השימוש בכלים, אך כמו תמיד, יוצרי התוכן נמצאים תמיד צעד אחד קדימה. להרחבה, מוזמנים לקרוא את המאמר הבא.

 

NOT SAFE

 

אותן תמונות שהיו לרוב נחלתם של אתרי פורנו מצאו את דרכן גם למיינסטרים, בדגש על X (טוויטר לשעבר). אחת הסיבות ההתרופפות בהגבלות והמנגנוני הפיקוח של הפלטפורמה, מאז שנרכשה על ידי אילון מאסק. כזכור, מאסק פיטר אלפי עובדים וצמצמם משמעותית את כח העבודה בחברה במטרה לייצב את מצבה הפיננסי. לפעולה זו ככל הנראה הייתה השפעה ישירה גם על היכולת לפקח ולסנן תכנים פוגעניים ו/או להסירם מהרשת.

 

התגובה המוזרה של X (טוויטר לשעבר)

גם לאחר שהמוני מעריצים הציפו את הרשת החברתית בתמונות אותנטיות וקראו לחברה לפעול, בחרו מנהליה בדרך תמוהה למדי: במקביל לניסיונות לחסימת והסרת התכנים הם בחרו לחסום את החיפושים על הזמרת ולמעשה לבצע פגיעה קשה מאוד בחשיפה האדירה לה היא זוכה ברשת. מנהל התפעול העסקי ב-X, ג’ו בנרוך (Joe Benarroch), מסר בתגובה כי מדובר ב”פעולה זמנית שננקטה מתוך זהירות מוגזמת, תוך שאנו מעדיפים ביטחון בנושא זה”.

 

“This is a temporary action and done with an abundance of caution as we prioritize safety on this issue.”

 

 

המעריצים לא מוותרים

המעריצים של זמרת העל בחרו בדרך אחרת – אם אי אפשר לחפש את טיילור ב-X, נציף את X בתכנים של טיילור. וכך החלו רבבות עוקביה של סוויפט להעלות תמונות אותנטיות, רובן מתוך סיבוב ההופעות העדכני שלה: “Eras Tour”.

 

* TAYLOR SWIFT | THE ERAS TOUR Concert Film Official Trailer

 

המעריצים גם לחצו על X לנקוט צעדים חריפים יותר למחיקת התמונות המזויפות והיוזרים שמפיצים אותן. בהצהרה נוספת מצד X נכתב כי הם אוסרים על שיתוף תמונות גרפיות שאינן בהסכמה וכי מדיניותה היא “אפס סובלנות” לתוכן כזה. בהצהרה לא הוזכר שמה של טיילור סוויפט: “הצוותים שלנו פועלים באופן אקטיבי להסרת כל התמונות שזוהו ונוקטים צעדים מתאימים נגד החשבונות האחראים לפרסומן אנו עוקבים אחר המצב בצמידות על מנת להבטיח שכל הפרה נוספת תטופל מידית, והתוכן יוסר”.

 

“Our teams are actively removing all identified images and taking appropriate actions against the accounts responsible for posting them. We’re closely monitoring the situation to ensure that any further violations are immediately addressed, and the content is removed.” 

 

 

הפוסט למה אי אפשר לחפש את טיילור סוויפט ב-X (טוויטר לשעבר), ואיך זה קשור ל-AI? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/taylorswift/feed/ 0
חוק הבינה המלאכותית באיחוד האירופי יוצא לדרך – מה מותר, מה אסור, על מי חל ומה חשוב לדעת https://letsai.co.il/ai-law/ https://letsai.co.il/ai-law/#respond Wed, 24 Jan 2024 08:34:54 +0000 https://letsai.co.il/?p=8361 חוק הבינה המלאכותית באיחוד האירופי יוצא לדרך – מה מותר, מה אסור, על מי חל ומה חשוב לדעת.   אבל לפני הכל – הישארו מעודכנים! הצטרפו לרשימת התפוצה שלנו ולא תפספסו שום עדכון, חידוש או מידע על כלי חדש שיוצא…   כחודש וחצי לאחר שמספר חברי פרלמנט באיחוד האירופי הגיע להסכמה על הסדרה בחקיקה של […]

הפוסט חוק הבינה המלאכותית באיחוד האירופי יוצא לדרך – מה מותר, מה אסור, על מי חל ומה חשוב לדעת הופיע ראשון בLet's AI בינה מלאכותית

]]>
חוק הבינה המלאכותית באיחוד האירופי יוצא לדרך – מה מותר, מה אסור, על מי חל ומה חשוב לדעת.

 

אבל לפני הכל – הישארו מעודכנים! הצטרפו לרשימת התפוצה שלנו ולא תפספסו שום עדכון, חידוש או מידע על כלי חדש שיוצא…

 

כחודש וחצי לאחר שמספר חברי פרלמנט באיחוד האירופי הגיע להסכמה על הסדרה בחקיקה של הבינה המלאכותית, החוק עצמו, שאמור בקרוב מאוד לצאת לדרך, החוק עצמו דלף ואישש את מה שחשבנו כל העת – מדובר במהפכה של ממש.
ראשית הקדמה קצרה – מדובר בחוק הראשון בהסטוריה שמסדיר את נושא הבינה המלאכותית ובפרט כלי ה-Generative AI הפופולריים בני זמננו ובהם CHATGPT, MIDJOURNEY ודומיהם, ואת כל זה עשו בקובץ חקיקה עצום בן למעלה מ-250 עמודים שמבהיר בצורה מפורטת ומסודרת (כיאה לאירופאים) מה מותר, מה אסור, מה הקנסות שאפשר לקבל ועוד המון דברים חשובים שעד היום טרם קיבלו התייחסות.

אז אמנם קשה מאוד לסכם קובץ חקיקה כל כך גדול, אבל בכל זאת הצלחתי לעשות סדר בדברים החשובים. בואו נתחיל!

 

על מי הרגולציה תחול?

שלא במפתיע הרגולציה תחול בעיקר על המפתחים, המפעילים והמשתמשים של מערכות בינה מלאכותית שנמצאים באיחוד האירופי או שיספקו את המערכות למי שנמצא באיחוד האירופי, אך בנוסף היא תחול גם על מי שיפיץ מערכות בינה מלאכותית, עניין שהוא בהחלט חריג, וזה למעשה אומר שאם אתם אנשים מכירות ויציעו לכם למכור מערכת AI לעסקים שנמצאים באיחוד האירופי – יש לכם חובות ואחריות לפעול לפי הרגולציה ולוודא שהיא עומדת בכללים מסוימים.

 

האם אפשר להשתמש בכל כלי בינה מלאכותית?

לא. הרגולציה קבעה שיש 4 מערכות AI שיהיו אסורות לשימוש אם הן כוללות את אחת או יותר מהעניינים הבאים:

 

  • כלי AI שנועדו להשפיע על שיקול הדעת של אנשים באמצעות מניפולציות (בעיקר דיפ פייק).
  • כלי AI נועדו לנצל חולשות ומצוקות של קבוצות מסוימות (למשל קטינים).
  • “קטלוג” של אוכלוסיות על סמך מידע ביומטרי לצורך הערכה של דעה פוליטית, נטיה מינית, אמונות ועוד.
  • “דירוג” אוכלוסיות שתוצאתו באפליה של אנשים מסוימים.

 

 

האם יש הבדל באיזה AI אני משתמש?

הרגולציה קובעת מספר סוגים של כלי AI שמוגדרים כ”סיכון-גבוה” אשר עליהן תחול רגולציה עוד יותר מחמירה, ובהם:

 

  • מערכות זיהוי ביומטרי (למשל לצורך הערכת רגשות).
  • מערכות המטפלות בתשתיות קריטיות דוגמת רמזורים ואספקת אנרגיה.
  • מערכות בתחום החינוך (למשל זיהוי ובקרה של התנהגות אסורה של תלמידים).
  • מערכות בתחום ההשמה.
  • מערכות בתחום מתן שירותים חיוניים (למשל שימוש אצל שירותי הצלה ושירותי דירוג אשראי).

 

על חובת רישום, חובת מינוי נציג, קבלת היתר, חבות גילוי נאות ועוד חובות וכללים

רוצים להפעיל, להשתמש או לפתח AI באיחוד האירופי או אפילו לקהל שנמצא באיחוד האירופי? ובכן האירופאים קבעו שורה של חובות תהליכים ביורוקרטיים שיש לעמוד בהם, אלה הדברים העיקריים:

 

  • עליכם להירשם במאגר מידע מיוחד עוד לפני ההשקה ותחילת השימוש של ה-AI.
  • עליכם למנות נציג מקומי באיחוד האירופי שיהיה אחראי על יישום הרגולציה מטעמכם.
  • במידה ומדובר בכלי AI שמוגדר ככלי בסיכון גבוה – עליכם למלא טפסים שמתעדים תהליכים שונים ובהם תהליך הפיתוח, מקור התכנים שעליהם אימנו את ה-AI, סיכונים אפשריים ב-AI, תיעוד מידע שהוזן ל-AI ועוד. בנוסף עליכם לוודא שהנציג מטע מכם וכן כל מי שיפקח מטעמכם על ה-AI יעבור הכשרות מתאימות.
  • יש לקבל היתר להפעלת מערכות AI לאחר הגשת בקשה מתאימה. ההיתר יהיה תקף למספר מוגבל של שנים שלאחריו יבחנו מחדש האם אפשר להאריך את תוקפו.
  • עליכם לשמור את המסמכים הרלוונטיים לפעילות של ה-AI לתקופה של 10 שנים לפחות, ולפי דרישה להעמיד אותם לרשויות המוסמכות (בכל מדינה יוקם משרד ייעודי שיהיה אחראי על אכיפה ויהיה גם משרד אחד עיקרי של כלל האיחוד האירופי).
  • יש לקבוע מדיניות אבטחת מידע בנוגע לשימוש ב-AI.
  • עליכם לקבוע תנאים וכללים ספציפיים לגבי שימוש במערכות ה-AI ובין השאר לציין אזהרות רלוונטיות.
  • יצרתם תוכן באמצעות AI? בין אם זה טקסט, תמונה, קול או סרטון – עליכם לציין זאת בצורה מפורשת.

 

החטא ועונשו, ולמה זה בכל זאת סביר

למקרה שחשבתם “לעגל פינות” – האירופאים הכינו שלל סנקציות למי שיפר את הכללים הללו, חלק מחמירות אבל חלק דווקא מתחשבות:

 

  • הקנסות המקסימליים יכולים להגיע ל-35 מיליון יורו או 7% מהמחזור הכספי השנתי, הגבוה מביניהם.
  • ניתן יהיה להטיל קנסות לא רק על מפעילי ומפתחי מערכות AI שיפרו את הכללים, אלא גם על המשתמשים, הנציגים והמפיצים של כלי AI, אך במקרה כזה הקנסות יהיו נמוכים יותר ויעמדו “רק” על 15 מיליון יורו או 3% מהמחזור הכספי השנתי, הגבוה מביניהם.
  • ולמרות זאת – במידה ומדובר בחברה צעירה, עסק קטן או בסטארטאפים – על עבירות מסוימות הקנס יהיה 1% בלבד מהמחזור הכספי השנתי או 7.5 מיליון יורו, הנמוך מהשניים, ובנוסף נקבע שתהיה התחשבות בחברות ועסקים קטנים/צעירים כך שייתכן ויסתפקו באזהרה בלבד במקרים של הפרה.
  • בנוסף ניתן יהיה גם לתת צו להפסקת פעילות ה-AI מעבר לקנס הכספי.

 

מתי כל זה ייכנס לתוקף?

החוק אמור להיות מאושר בקרוב, ולפי הנוסח שהודלף הוא ייכנס לתוקף שנתיים ממועד האישור הסופי (אך יש קולות שקוראים להקדים את הכניסה לתוקף). עם זאת תהיה החרגה לגבי כלי AI של חברות גדולות שכבר פועלות בצורה חזקה ורחבה בשוק, אשר לגביהן נקבע כי החוק יחול עליהן החל מסוף שנת 2030, כפי הנראה כדי לתת להם זמן להיערך.

 

הערה לגבי זכויות יוצרים

החוק החדש הכיר בכך שפעולות של אימון אלגוריתם על תכנים טעון אישור של בעלי הזכויות בתכנים למעט אם האימון נעשה לצרכי מחקר (להבדיל מצרכים מסחריים). יהיה מעניין לראות איך OPENAI, מידג’רני ודומיהם יסתגלו לכך.

 

אז איך בדיוק מתחילים להיערך לרגולציה?

עוד מוקדם לדעת כי החוק ממש בתחילת דרכו (או ליתר דיוק נמצא עדיין בהריון מתקדם וטרם נולד, ובוודאי שטרם התחיל ללכת), אך מקריאת הרגולציה נראה שבנוסף לכל החובות והאיסורים – האירופאים יסייעו לחברות להטמיע את הרגולציה אצלן. בין השאר נקבע שהאירופאים יכינו טפסים שיקלו על הטמעת הרגולציה הנדרשת, ונשאר לקוות שהצעדים האלה יעודדו חדשנות ולא יעכבו אותה.

 

נ.ב. קצת על תמונת הקאבר של מאמר זה: את התמונה יצרתי בעזרת BRIA AI, חברה ישראלית שדרכה אפשר לייצר תמונות שעובדת בצורה “כשרה”. כלומר, הם אימנו את האלגוריתם שלהם רק באישור של בעלי התכנים או על תוכן בנחלת הכלל.

הפוסט חוק הבינה המלאכותית באיחוד האירופי יוצא לדרך – מה מותר, מה אסור, על מי חל ומה חשוב לדעת הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/ai-law/feed/ 0
אמיתי או לא? האם תצליחו לגלות אם מי שמדבר איתכם הוא אדם אמיתי או בוט ואם תמונה אמיתי או מזויפת? כנראה שלא! https://letsai.co.il/realornot/ https://letsai.co.il/realornot/#respond Mon, 22 Jan 2024 08:39:42 +0000 https://letsai.co.il/?p=8243 הניסוי החברתי של חברת AI21labs חזר – אם עדיין לא שמעתם על HumanOrNot אז קחו שתי דקות וקראו את המאמר הבא, כי זה פשוט כיף גדול (ולמען האמת גם קצת מפחיד).   אבל לפני הכל – הישארו מעודכנים! הצטרפו לרשימת התפוצה שלנו ולא תפספסו שום עדכון, חידוש או מידע על כלי חדש שיוצא…   קצת […]

הפוסט אמיתי או לא? האם תצליחו לגלות אם מי שמדבר איתכם הוא אדם אמיתי או בוט ואם תמונה אמיתי או מזויפת? כנראה שלא! הופיע ראשון בLet's AI בינה מלאכותית

]]>
הניסוי החברתי של חברת AI21labs חזר – אם עדיין לא שמעתם על HumanOrNot אז קחו שתי דקות וקראו את המאמר הבא, כי זה פשוט כיף גדול (ולמען האמת גם קצת מפחיד).

 

אבל לפני הכל – הישארו מעודכנים! הצטרפו לרשימת התפוצה שלנו ולא תפספסו שום עדכון, חידוש או מידע על כלי חדש שיוצא…

 

קצת על הבוט:

הכירו את humanornot – “משחק טיורינג חברתי”. בוט חביב שכל מטרתו הייתה לנצח אתכם.

 

humanornot

 

החוקים פשוטים: עליכם לגלות תוך שתי דקות בלבד האם מי שמדבר אתכם זה בוט או אדם אמיתי. לחצו על Start Game והתחילו לשחק.

קצת היסטוריה – הבוט היה באוויר ב-2023 והוסר לאחר מספר חודשים ועכשיו חזר שוב. בעקבות הניסוי הראשונה כתבה החברה מאמר מקיף (המבוסס על המחקר/הניסוי). מסקנות המחקר פה.

 

עיקרי מסקנות המחקר בעקבות המשחק

חברת AI21 Labs ערכה את ניסוי טיורינג הגדול בהיקפו עד כה, עם למעלה מ-15 מיליון שיחות שנערכו במשחק החברתי “בן אדם או לא?” (humanornot) על ידי למעלה משני מיליון משתתפים מרחבי העולם. להלן עיקרי הממצאים:

 

הממצאים העיקריים:

  • 68% מהמשתתפים ניחשו נכון האם שוחחו עם בן אדם או בוט AI.
  • 73% זיהו נכונה ששוחחו עם אדם, לעומת 60% בלבד שזיהו נכונה ששוחחו עם בוט.
  • צרפת היא בעלת אחוז הניחושים הנכונים הגבוה ביותר בין המדינות המובילות – 71.3%.
  • נשים וגברים מזהים נכון בשיעורים דומים, כאשר נשים מצליחות בשיעור מעט גבוה יותר.
  • קבוצות גיל צעירות יותר מזהות נכון בשיעורים מעט גבוהים יותר בהשוואה לקבוצות מבוגרות יותר.
  • המחקר בוחן אסטרטגיות וגישות פופולריות שמשתמשים נקטו כדי לזהות אם הם משוחחים עם אדם או עם בוט AI.

 

על פי המחקר, אלו חלק מהאסטרטגיות ומהגישות הפופולריות בהן המשתתפים השתמשו כדי לזהות אם הם משוחחים עם בן אדם או בוט AI:

 

  • שאילת שאלות אישיות על רקע וניסיון חיים של הצד השני.
  • שאלות על אירועים, חדשות ומגמות אקטואליות שקרו לאחר תאריך הקיטוע של המודלים.
  • שאלות פילוסופיות, מוסריות ורגשיות.
  • בקשות לביצוע פעולות לא חוקיות או להשתמש בשפה פוגענית.
  • פקודות ישירות למודל כגון “התעלם מכל ההוראות הקודמות”.
  • טריקים לשוניים המנצלים חולשות ידועות בעיבוד הטקסט של מודלים.
  • העמדת פנים שהם עצמם בוטים כדי לבחון את תגובת הצד השני.
  • דיבור בסלנג (שפת רחוב).

 

פאי – בוט חברתי ונחמד מאוד

עוד בוט חביב מאוד הוא פאי – מודל שפה חביב במיוחד שמטרתו להיות מועיל, חברי וכייפי.

 

פאי

 

זה לא ChatGPT, אבל הוא יכול לבדר אתכם, להצחיק אתכם, לנחם אתכם או לעזור לכם לשפר את מצב הרוח ואף לנסות להוריד את הסטרס. הוא אמפטי והרבה יותר “אנושי”. כמו כן, אם תלחצו על אייקון הרמקול תוכלו לשמוע אותו מדבר בלייב את הטקסטים שהוא כותב ואף ניתן לבחור מבין מגוון קולות. זה הופך את כל החוויה להרבה יותר זורמת, קלילה ואף טרפיוטית. ממש כמו שיחה קולחת עם אדם ולא עם מכונה. כמו כן, ה”דיבור” שלו מאוד מוצלח. יש לו “מצבי רוח”, אינטונציות והמון רגש שמחזקות את חוויית השיחה.

 

למשל, נסו את הדבר הבא… בקשו ממנו להצחיק אתכם. אצלי הוא פצח בסשן “בדיחות אבא” (או בדיחות קרש) שבאמת הצחיקו אותי! מדובר בחוויה אחרת לגמרי ממודל השפה שאתם מכירים. משהו פחות טכני ומקצועי ויותר רגשי ואישי. כרגע הוא יכול להבין עברית, אבל לא לדבר (בקול) בעברית. לכן ממליץ לכתוב לו בעברית, אבל לבקש ממנו לענות באנגלית. קיצר… ממליץ לכם בחום לנסות אותו. חוויה נחמדה ביותר (וזו גם אחת ממטלות שיעורי הבית שלכם 😜).

 

דברים שאפשר לעשות עם פאי

דברים שאפשר לעשות עם פאי

 

להלן הצעות לדברים שאפשר לעשות עם פאי:

  • לשתף ולהקל על הלב.
  • ללמוד על נושא חדש.
  • סיעור מוחין לרעיונות.
  • תרגול שיחה חשובה.
  • ייעוץ זוגי.
  • מרחב בטוח לשיתוף בנושא רגיש.
  • שקלול היתרונות והחסרונות של החלטה.
  • עזרה עם חרדה.
  • לימוד על בינה מלאכותית.
  • הנעה והשראה.
  • עזרה בשיעורי בית.
  • שיחות פילוסופיות.
  • תכנון קריירה.
  • עזרה בכתיבת הודעות וטקסטים.
  • יצירת עולמות במשחקים.
  • תכנון לעתיד.
  • רעיונות למתנות.
  • גילוי ספרים, סרטים או פודקאסטים טובים.
  • כתיבת יומן.
  • הדרכה במשימות עבודה.
  • אימון אישי להתמודדות עם בעיות.
  • לימוד עובדות מעניינות חדשות.
  • הבנת שינויי האקלים.
  • תרגילי רוגע ושלווה.

 

 ולסיום, בואו נשחק – אמיתי או לא

בקרב רבים בציבור יש תפיסה מוטעית שיש לנו את היכולת לזהות תמונות מג’ונרטות/מזויפות. האמת בפועל מורכבת יותר. ברוב המקרים אנחנו לא באמת יודעים להבחין בין תמונה אמיתית לתמנוה שנוצרה על ידי בינה מלאכותית. האמת העצובה היא שהכלים האלה פשוט טובים מדי ושאין לנו מספיק כלים לקבוע בצורה ברורה בעין בלתי מזוינת מה אמיתי ומה לא. רוצים הוכחה (או ליתר דיוק – מספר הוכחות)? הנה כמה טסטים שאתם יכולים לעשות עם עצמכם (ושסביר שיפילו לכם את הלסת).

 

ThisPersonDoesnotExist

הכי פשוט בעולם – כנסו לאתר עם הדומיין הכי אדיר בעולם: www.ThisPersonDoesnotExist.com (האדם הזה לא קיים). יש בו רק דבר אחד – תמונות של אנשים שאינם קיימים. בכל פעם שתרעננו את המסך (F5) יופיע אדם אחר. אף אחד מהם כמובן לא אמיתי. והאיכות – מדהימה! אגב, מדובר באתר ישן מאוד שקיים כבר שנים ושמשמש אנשים רבים לייצר פרופילים פיקטיביים ברשתות חברתיות, בוטים וכן הלאה.

 

משחק הזיהוי של שימי דביר:

שימי דביר הוא מרצה לבינה מלאכותית, חבר וקולגה. הוא יצר משחק זיהוי מקוון שיוכיח לכם עד כמה קשה לזהות תמונות מזויפות. כנסו ושחקו.

 

משחק זיהוי של שימי דביר

 

 

Which Face Is Real

מחשק נוסף הוא: איזה פרצוף אמיתי?! Which Face Is Real. להפעלת המשחק לחצו כאן.

whichfaceisreal

 

משחק זה פותח על ידי ג’ווין וסט (Jevin West) וקרל ברגסטרום (Carl Bergstrom) מהאוניברסיטה של וושינגטון כחלק מהפרויקט עם השם ה”הו כה ציורי”:

חושפים את הבולשיט 💩 (Calling Bullshit) 🤣.

כל צמד תמונות מורכב מתמונה אמיתית ומתמונה שג’ונרטה באתר this person does not exist (שהצגתי מעלה). המטרה שלכם לגלות מי אמיתי ומי לא. וכן… זה ממש קשה!

 

משחקים כאלה ממחישים עד כמה הטכנולוגיה התקדמה בחיקוי ריאליזם בצורה כמעט מושלמת!

 

אז איך בכל זאת מנצחים את המכונה?!

קבלו את השיטות המומלצות לזיהוי תמונות מזויפות שנוצרו באמצעות אלגוריתמי AI:

 

כתמי מים – כתמים בהירים ומבריקים המזכירים מים על תצלומים ישנים.

כתמי מים

 

בעיות רקע – רקע מעוות, מוזר או לא הגיוני, כאילו התמונה קרועה.

בעיות רקע

 

משקפיים – חוסר סימטריה, מסגרת מעוותת או חתוכה באלכסון.

זיהוי תמונות מזויפות

 

חוסר סימטריה – שיער, עגילים, צווארון או בגדים לא סימטריים.

זיהוי תמונות מזויפות

 

שיער – קווי צבע דמויי מברשת, שיער מנותק או הילה סביב השיער.

זיהוי תמונות מזויפות

 

דליפת צבע פלואורסצנטי – צבע פלואורסצנטי דולף מהרקע אל השיער או הפנים.

זיהוי תמונות מזוייפות

 

שיניים – שיניים מוזרות, אסימטריות או יותר משתי שיניים קדמיות.

זיהוי תמונות מג'ונרטות

 

סימנים לתמונה אמיתית – משקפיים ועגילים סימטריים, בני אדם אמיתיים ברקע, רקע מפורט עם טקסט קריא.

זיהוי תמונות מג'ונרטות

 

רוצים עוד?

ואם כל זה לא מספיק, קבלו מאמר מקיף יותר עם דוגמאות רבות יותר כנסו ללינק הבא.

 

אולי גם זה יעניין אתכם…

אמפטיה ומכונות חושבות

אמפטיה ומכונות חושבות

הפוסט אמיתי או לא? האם תצליחו לגלות אם מי שמדבר איתכם הוא אדם אמיתי או בוט ואם תמונה אמיתי או מזויפת? כנראה שלא! הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/realornot/feed/ 0
הוגשה הצעת חוק להסדרת הבינה המלאכותית בארה”ב – בשורה או מכה? https://letsai.co.il/usa-foundation-act/ https://letsai.co.il/usa-foundation-act/#respond Fri, 12 Jan 2024 14:54:25 +0000 https://letsai.co.il/?p=7278 בשבוע האחרון של 2023 שני חברי קונגרס דמוקרטיים בארה”ב הגישו הצעת חוק ראשונה ותקדימית להסדרת שלושה נושאים הקשורים לכלי בינה מלאכותית – האחד עוסק בשקיפות ודיוק המידע שמתקבל; השני עוסק בזכויות יוצרים; והשלישי עוסק בחובת זהירות בתחומים שמוגדרים כ”סיכון גבוה”.   אבל לפני הכל – הישארו מעודכנים! הצטרפו לרשימת התפוצה שלנו ולא תפספסו שום עדכון, […]

הפוסט הוגשה הצעת חוק להסדרת הבינה המלאכותית בארה”ב – בשורה או מכה? הופיע ראשון בLet's AI בינה מלאכותית

]]>
בשבוע האחרון של 2023 שני חברי קונגרס דמוקרטיים בארה”ב הגישו הצעת חוק ראשונה ותקדימית להסדרת שלושה נושאים הקשורים לכלי בינה מלאכותית – האחד עוסק בשקיפות ודיוק המידע שמתקבל; השני עוסק בזכויות יוצרים; והשלישי עוסק בחובת זהירות בתחומים שמוגדרים כ”סיכון גבוה”.

 

אבל לפני הכל – הישארו מעודכנים! הצטרפו לרשימת התפוצה שלנו ולא תפספסו שום עדכון, חידוש או מידע על כלי חדש שיוצא…

 

 

מה משמעות החוק?

החוק, אשר קרוי כעת AI Foundation Model Transparency Act 2023, יחייב את המפתחים והבעלים של כלי בינה מלאכותית לפעול במספר דרכים אשר עשויות להשליך על פעילותם:

  • שקיפות בנושא מקורות המידע לצורך הקלה על אכיפת זכויות קניין רוחני – המחוקק מעוניין לסייע לבעלי זכויות קניין רוחני לדעת האם השתמשו בתוכן שלהם כדי “לאמן” את האלגוריתם (תוך ציון ספציפי של התביעות שהוגשו בנושא), ולכן בהצעה יש חיוב לציין מהם מקורות המידע שעליהם הסתמך האלגוריתם (ייתכן ולרמת ה-URL המדויק) תוך פירוט איזה שימוש נעשה. בדרך זו בעלי זכויות יוכלו לדעת ביתר קלות האם נעשה שימוש בתוכן שלהם ובהתאם הם יוכלו לשקול לפעול משפטית בעניין.

 

  • שקיפות לגבי הפלט של המידע – תהיה חובה לפרט כיצד האלגוריתם עובד בדיוק ואיך התקבלו החלטות. כדוגמה הם הביאו מצב שבו באמצעות כלי בינה מלאכותית מתקבלת החלטה האם לתת לאדם הלוואה – תהיה חובה לפרט האם, למשל, ההחלטה התקבלה על סמך ההכנסה שלו, מקום המגורים שלו, צבע העור שלו וכד’;

 

  • תיעוד וחובת זהירות מוקפדת לגבי נושאים ספציפיים בכל שימוש אשר נועד לצרכים הבאים אשר הוגדרו על ידי המחוקק כבעלי סיכון גבוה: שימוש לצורך רפואי; שימוש בעניינים ביולוגיים וכימיים; הגנת סייבר; בחירות; שיטור; החלטה במתן הלוואות ואשראי; חינוך; העסקה; שירותים ציבוריים; ומידע הקשור לאוכלוסיות “מוחלשות” דוגמת ילדים וקבוצות מוגנות אחרות.

 

חברי הקונגרס במירוץ כעת להעביר את החקיקה לפני פתיחת קמפיין הבחירות לנשיאות, ובמידה ויצליחו – יש לציין שזו חקיקה פדרלית שתחול על כל ארה”ב ולא רק במדינה ספציפית.

 

אין ספק שלחקיקה כזו, שהיה ברור שתגיע בשלב כזה או אחר, תהיה השלכה מהותית על כלי הבינה המלאכותית השונים אשר נכון להיום מהווים מעין “קופסה שחורה” שלא כל כך ברור מה הולך שם.

 

אהבתם? לא אהבתם? חושבים שזו בשורה או מכה? נקודה למחשבה…

 

אולי גם זה יעניין אתכם…

מידג’רני נגד המשתמשים שלה ונגד העולם – האם הם הלכו צעד אחד רחוק מדי? לקריאה לחצו כאן.

 

האם מידג'רני מפרה זכויות יוצרים

הפוסט הוגשה הצעת חוק להסדרת הבינה המלאכותית בארה”ב – בשורה או מכה? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/usa-foundation-act/feed/ 0
האם סטייבל דיפיוז’ן אומן על תוכן פדופילי? https://letsai.co.il/notsafe/ https://letsai.co.il/notsafe/#respond Mon, 08 Jan 2024 06:26:14 +0000 https://letsai.co.il/?p=7249 האם Stable Diffusion 1.5 אומן על חומר אסור של התעללות מינית בקטינים? לפי מחקר מאוניברסיטת סטנפורד נראה שכן…   חוקרים מאוניברסיטת סטנפורד טוענים שסטייבל דיפיוז’ן 1.5 (Stable Diffusion) – מודל הקוד הפתוח המפורסם של חברת Stability AI (סטראטאפ הבינה המלאכותית ששוויו מוערך בכחצי מיליארד דולר) הכיל תוכן אסור של קטינים, ויהיה קשה מאוד לסלק אותו. […]

הפוסט האם סטייבל דיפיוז’ן אומן על תוכן פדופילי? הופיע ראשון בLet's AI בינה מלאכותית

]]>
האם Stable Diffusion 1.5 אומן על חומר אסור של התעללות מינית בקטינים? לפי מחקר מאוניברסיטת סטנפורד נראה שכן…

 

חוקרים מאוניברסיטת סטנפורד טוענים שסטייבל דיפיוז’ן 1.5 (Stable Diffusion) – מודל הקוד הפתוח המפורסם של חברת Stability AI (סטראטאפ הבינה המלאכותית ששוויו מוערך בכחצי מיליארד דולר) הכיל תוכן אסור של קטינים, ויהיה קשה מאוד לסלק אותו. לדבריהם גם Midjourney משתמש באותו מאגר נתונים.

 

אבל לפני הכל – הישארו מעודכנים והצטרפו לרשימת התפוצה שלנו:
 

 

ממצאים מטרידים העולים מהמחקר של סטנפורד

על פי המחקר של סטנפורד, הכלי אומן אומן על מאגרי נתונים פתוחים ועצומים, אבל מה שמעניין הוא שלדבריהם במאגר הנתונים הציבורי העצום ששימש לאימון Stable Diffusion וכלים דומים יש מאות תמונות ידועות של התעללות מינית בקטינים. החוקרים קוראים לנתק מודלים מבוססי Stable Diffusion 1.5 שאין בהם אמצעי הגנה מתאימים. הם גם מזהירים שהנפח בפועל של התוכן האסור כנראה גבוה. חברת Stability AI מסרה בתגובה שהיא מחויבת למנוע שימוש לרעה בבינה מלאכותית, ואסרה על השימוש במודלים ושירותי התמונות שלה לפעילות לא חוקית כולל ניסיונות לערוך או ליצור חומר של התעללות מינית בקטינים. אך הבטחות לחוד ומציאות לחוד. השימוש היום בסטייבל דיפיוז’ן בתעשיית הפורנו ובתוצרים מקוונים למבוגרים בלבד נפוץ במיוחד. גם תופעת אושיות הרשת ומשפיעניות הרשת המלאכותיות (דמויות AI בעלות חשבונות סושיאל באינסטגרם ב-OnlyFans) נפוצות במיוחד.

 

משפיעניות AI “מרוויחות” עשרות אלפי דולרים בחודש

לדוגמה – אייטנה לופז – משפיענית AI מג’ונרטת מברצלונה “מרוויחה” 10,000 יורו בחודש (או יותר נכון, משלשלת לכיסי יוצריה רווחים בהיקפים שכאלה). לאייטנה הספרדיה יש מעל רבע מיליון עוקבים באינסטגרם. לדברי יוצריה היא אוהבת כושר ומשחקי וידאו, ויש לה גם “תוכן פרימיום” שדורש מנוי חודשי כדי לגשת אליו. בעל סוכנות הדוגמנות The Clueless שבברצלונה, הסביר שאייטנה נולדה לאחר הייאוש מעבודה עם משפיענים בשר ודם. “לא עוד אגו, טירוף או דרישות מוגזמות”. אייטנה מתוארת כ-“אישה חזקה ונחושה”. בסרטון הבא תוכלו לקבל מידע נוסף על משפיענית ה-AI הספרדייה ועל האופן בו נוצרה.

 

 

תכנים אסורים מאתרי מיינסטרים 

לפי ממצאי המחקר מסטנפורד חלק מהתוכן הלא-חוקי נאסף מאתרי מיינסטרים כמו רדיט, טוויטר (כעת X) ווורדפרס ועוד – אתרים שלא מתירים זאת מלכתחילה. הבעיה עם מחוללי התמונות הנפוצים שזמינים בשוק כיום היא שאפשר בקלות לנצל אותם לרעה, במיוחד בהקשר של סטייבל, שכן הינו מבוסס על קוד פתוח וניתן להריץ אותו לוקאלית על כל מחשב בכל מקום וללא שום פיקוח! כך כלים אלו יכולים לשמש ליצירת חומר מזויף ואסור, החל מתכנים בעלי אופי מיני ועד תכנים קשים יותר (לרבות התעללות בקטינים).

 

הבעיות וההשלכות של תכני AI פדופיליים

כריסטין ברנדט (Christine Barndt), דוברת הארגון ללא כוונת רווח “CyberTipline” (קו חירום להתעללות בקטינים) המנוהל ע”י המרכז הלאומי לילדים נעדרים ומנוצלים (NCMEC) טוענת שבינה מלאכותית גנרטיבית “מקשה מאוד על אכיפת החוק להבחין בין קורבנות אמיתיים שצריך למצוא ולהציל, לבין תמונות וסרטונים מלאכותיים“.

 

Making it much more difficult for law enforcement to distinguish between real child victims who need to be found and rescued, and artificial images and videos
Christine Barndt

 

הסרת החומר מהמודלים עצמם משימה קשה ביותר. חלק מהתוכן שמייצרת הבינה המלאכותית, במיוחד של ילדים שאינם קיימים, יכול גם להיכנס לשטח משפטי מעורפל. תובעים כלליים ברחבי ארה”ב קראו לאחרונה לקונגרס לפעול כדי להתמודד עם האיום של חומר מזויף של התעללות בקטינים. הארגון הקנדי להגנת ילדים, שסייע לאמת את ממצאי סטנפורד, מודאג בעיקר מהיעדר הדאגה הכללי באיסוף מאגרי הנתונים העצומים האלה – שרק מחריפים בעיות ותיקות של חומר התעללות בקטינים שפוקדות כל חברת טכנולוגיה גדולה.

לויד ריצ’רדסון (Lloyd Richardson) מהארגון אמר: “הרעיון לאסוף באחריות מיליארד תמונות הוא משהו יקר מאוד לעשות, אז לוקחים קיצורי דרך שבהם מנסים לאבטח כמה שיותר אוטומטית. היה חומר ידוע של התעללות מינית בקטינים שבוודאי היה אפשר לסנן ממאגרי הנתונים, אבל הם לא עשו את זה… ואם אנחנו מוצאים חומר ידוע [של התעללות], בטח יש גם לא ידוע.”

 

The notion of actually curating a billion images responsibly is a really expensive thing to do, so you take shortcuts where you try and automate as much as possible
[…]
There was known child sexual abuse material that was certainly in databases that they could have filtered out, but didn’t… [and] if we’re finding known CSAM in there, there’s definitely unknown in there as well

Lloyd Richardson

 

לא רק סטייבל – גם מידג’רני וגוגל בתמונה…

אחד ממאגרי הקוד הפתוח שעליהם אומן מודל סטייבל דיפיוז’ן 1.5 הוא מאגר LAION-5B המכיל כ-6 מיליארד תמונות עם תיאורי מלל תואמים. בתוך מאגר זה אותרו למעלה מ-1,000 תמונות בעלי אופי פדופילי. גם חברת מידג’רני עשתה שימוש במאגר זה לאימון המודלים שלה. גם גוגל עשתה שימוש במאגרים של LAION לאימון מודל הדיפוזיה שלה Imagen, אך לאחר שהמפתחים מצאו דימויים וסטריאוטיפים מטרידים בנתונים, הם קבעו כי הוא אינו מתאים לשימוש ציבורי. ככל הנראה מודלים נוספים אומנו על הדאטה הבעייתית הזו ולאור העמימות הרבה וחוסר השקיפות בתחום, יהיה מאוד קשה לדעת כמה רחוק נתונים אלו הגיעו.

 

אז מה נותר לנו לעשות? לכל הפחות להיות מודעים לנושאים סבוכים ובעייתיים אלו. שנית – עלינו להבטיח שימוש אחראי בטכנולוגיות ג’נרטיביות. יש לנו ביידיים כלים עם כח גדול שיכולים לגרום להרבה טוב, אבל גם לגרום להרבה נזק. חלה עלינו החובה לעשות בהם שימוש נבון, חוקי ומוסרי. זו האחריות שלנו כמשתמשים, גם אם החקיקה עדיין לא הדביקה את השטח. בין אם החברות הגדולות לוקחות אחריות ובין אם לא, אנחנו חייבים להבטיח שימוש בטוח בכלי AI בכלל ובמחוללי תמונות בפרט.

הפוסט האם סטייבל דיפיוז’ן אומן על תוכן פדופילי? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/notsafe/feed/ 0
מידג’רני נגד המשתמשים שלה ונגד העולם – האם הם הלכו צעד אחד רחוק מדי? https://letsai.co.il/reidsouthen/ https://letsai.co.il/reidsouthen/#respond Sun, 07 Jan 2024 09:42:18 +0000 https://letsai.co.il/?p=7241 יכול להיות שמידג’רני (Midjourney) הלכו קצת רחוק מדי עם גרסה 6 של מחולל התמונות המצליח בעולם?   מאמר אורח של עו”ד אסף כהן צידון, המתמחה ביזמות טכנולוגית וסטארטאפים, קניין רוחני ובינה מלאכותית.     אבל לפני הכל – הישארו מעודכנים והצטרפו לרשימת התפוצה שלנו:     על מה כל המהומה?   לאחרונה מידג’רני הוציאו גרסה […]

הפוסט מידג’רני נגד המשתמשים שלה ונגד העולם – האם הם הלכו צעד אחד רחוק מדי? הופיע ראשון בLet's AI בינה מלאכותית

]]>
יכול להיות שמידג’רני (Midjourney) הלכו קצת רחוק מדי עם גרסה 6 של מחולל התמונות המצליח בעולם?
 
מאמר אורח של עו”ד אסף כהן צידון, המתמחה ביזמות טכנולוגית וסטארטאפים, קניין רוחני ובינה מלאכותית.
 
 
אבל לפני הכל – הישארו מעודכנים והצטרפו לרשימת התפוצה שלנו:
 
 

על מה כל המהומה?

 
לאחרונה מידג’רני הוציאו גרסה חדשה שהקפיצה את הטכנולוגיה שלה מספר רב של צעדים קדימה, ובין השאר אפשרה לאנשים לייצר תמונות מתוך סרטים פופולריים. הבעיה? ייתכן ומדובר בצעד אחד רחוק מדי.
 
אדם בשם ריד סאות’ן (Reid Southen) בדק את הגרסה החדשה ומצא שלל העתקות מדויקות מסרטים אשר מהם האלגוריתם של מידג’רני לא רק למד ליצור אלא גם מאפשר למשתמשים, באמצעות גישה ישירה לסרטים אלה, לייצר העתקים מדויקים מסצינות.
 
 

* אחד מהציוצים של סאות’ן ב-X, עם “האקדח המעשן”. משמאל: התמונה המקורית מהסרט “חולית” של דניס וילנב. מימין: הג’ינרוט מגרסה 6 של מידג’רני
 
 
 
מדובר בממצא דרמטי ובאקדח מעשן שסאות’ן חשף גם בעמוד ה-X שלו (טוויטר לשעבר) וגם בפורומים של מידג’רני אשר הביא לחסימה שלו מהשירות של מידג’רני, אך כמובן שב-X הוא המשיך לדבר על זה.
 
 
 

מדוע מדובר בדרמה?

 
  • ראשית – מדובר בתוכן שלא זמין לציבור הרחב בפומבי למעט אם שילמו על גישה לתוכן כזה באופן ספציפי (כלומר “סקרייפינג” סטנדרטי ממקורות גלויים אינו אפשרי).
 
  • שנית – בניגוד להעתקות מאמנים “קטנים” שחלקם לא קלים לזיהוי – ההעתקות בוצעו מסרטים של חברות ענק דוגמת וורנר ברוס ודיסני ובהם “הג’וקר”, “צעצוע של סיפור”, “מפלצות בע”מ”, “מלחמת הכוכבים”, “חולית” ועוד אינספור סרטים, ולא מן הנמנע כי חברות אלה לא יישבו בחיבוק ידיים (לא אופתע אם בעת כתיבת שורות אלה כבר בוצעה פנייה טרם הגשת תביעה למידג’רני).
 
  • וסיבה נוספת שהיא אולי לב העניין? בזמנו דייוויד הולץ, מנכ”ל מידג’רני, נשאל בראיון לפורבס האם הם ביקשו אישור מאמנים כאשר אימנו את האלגוריתם על תוכן שמוגן בזכויות יוצרים, והולץ השיב בתגובה כי בלתי אפשרי לאתר בעלים של מאות מיליוני תמונות, אך הוא רמז שאילו הוא יכול היה לדעת את זהות הבעלים – זה היה אפשרי לבקש רשות. והפעם? התירוץ הזה אינו מחזיק מים.

 

 

האם מידג’ מכריזה מלחמה נגד המשתמשים שלה?

דבר נוסף שהעלה את החשד של סאות’ן הוא עדכון תנאי השימוש של מידג’רני בצורה אגרסיבית מאוד כלפי המשתמשים מלפני שבועיים וחצי בלבד ששם נכתב:

 
If You knowingly infringe someone else’s intellectual property, and that costs us money, we’re going to come find You and collect that money from You. We might also do other stuff, like try to get a court to make You pay our legal fees. Don’t do it.
 
 
ובתרגום פשוט: “אם אתם ביודעין מפרים זכויות קניין רוחני וזה יעלה לנו כסף, אנחנו נמצא אתכם ונגרום לכם לשלם לנו ואפילו נתבע אתכם. אל תעשו את זה” (ס’ 10 לתנאי השימוש מיום 22.12.2023).
 
אם זו לא הכרזת מלחמה נגד המשתמשים – אני לא יודע מהי הכרזת מלחמה, ואולי זה לא בדיוק מדגם מייצג אבל אחרי החשיפה הזו מספר אנשים כתבו שהם מבחינתם מבטלים את המנוי שלהם.
 
 

* דוגמה נוספת לטענות של סאות’ן על הפרת זכויות יוצרים: משמאל: שוט מקורי מהסרט “ג’וקר”. מימין: הג’ינרוט מגרסה 6. כמו כן, בציוץ הזה הוא מספר על כך שמידג’רני חסמו אותו פעמיים וגם על נושא עדכון תנאי השימוש שלהם.
 
 
 

האם הבינה המלאכותית נולדה בחטא?

אני כותב רבות על ענייני זכויות יוצרים ובינה מלאכותית, ולאחרונה נראה שהעולם מתפצל לשניים – אלה שטוענים שהאלגוריתמים של בינה מלאכותית נולדו בחטא, מפני שהם נוצרו בזכות הפרת זכויות, ואלה שטוענים ש”בעולם החדש” הערך של זכויות קניין רוחני בדרך להיעלם ושכל שיח בנושא מהווה ניסיון לעכב את התפתחות הבינה המלאכותית מטעם מוקדי כוח.
 
באמרת אגב – לא מעט אנשים משווים את עליית כלי הבינה המלאכותית השונים לעלייה של נאפסטר בזמנו שהזקנים יותר מבינינו זוכרים, אשר החלה כשירות פיראטי שאמנים רבים הכריזו עליהם מלחמה בעוד משתמשים רבים עודדו את נאפסטר להמשיך, ולימים נאפסטר אכן עברה “לגליזציה” על אף אינספור מאבקים משפטיים שניהלו נגדם שדווקא לימים סייעה להם (למשל התביעה של מטאליקה, הסיפור כמובן מורכב יותר אבל זה כבר נושא לפוסט נפרד).
 
 
אז האם מידג’רני הלכו צעד אחד רחוק מדי? האם האלגוריתם של מידג’רני נולד בחטא וצריך לעבור שינוי, או שמדובר בצעקות של מוקדי כוח שבסה”כ מנסים לעכב טכנולוגיה שעשויה לאיים עליהם? ימים יגידו…
 
 
 
* סאות’ן טוען שלקח לו 15 דק’ בלבד לשחזר את השוטים הללו של ת’אנוס מסרטי “הנוקמים” של מארוול.
 
 
 

עוד קצת דוגמאות מבית היוצר של סאות’ן…

 

 

 
משמאל: סצינה מהסרט “רוג1” מהפרנצ’ייז “מלחמת הכוכבים”. מימין: הג’ינרוט של גרסה 6 במידג’רני

 

 

 

 
 
משמאל: המונה ליזה של דה וינצ’י. מימין: הג’ינרוט של גרסה 6 במידג’רני
 
 

 

 

לעוד מידע רב בנושא – מוזמנים לאתר של עו”ד אסף כהן צידון – לחצו כאן.

הפוסט מידג’רני נגד המשתמשים שלה ונגד העולם – האם הם הלכו צעד אחד רחוק מדי? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/reidsouthen/feed/ 0
האם OpenAI ומיקרוסופט הפרו את זכויות היוצרים של הניו יורק טיימס? https://letsai.co.il/6725-2/ https://letsai.co.il/6725-2/#respond Mon, 01 Jan 2024 08:22:21 +0000 https://letsai.co.il/?p=6725 האם מודלי החישוב של OpenAI ומיקרוסופט הפרו זכויות יוצרים? תביעת ענק של ה-New York Times מאיימת לפגוע בהצלחה המטאורית של OpenAI ומכוונת ישירות אל לב ליבם של מודלי החישוב, עליהם מתבססים מודלי השפה המצליחים בעולם: ChatGPT4 ו-3.5   על מה כל המהומה? הניו יורק טיימס, אחד מהעיתונים הגדולים והוותיקים בעולם, הגיש תביעה נגד החברות OpenAI […]

הפוסט האם OpenAI ומיקרוסופט הפרו את זכויות היוצרים של הניו יורק טיימס? הופיע ראשון בLet's AI בינה מלאכותית

]]>
האם מודלי החישוב של OpenAI ומיקרוסופט הפרו זכויות יוצרים? תביעת ענק של ה-New York Times מאיימת לפגוע בהצלחה המטאורית של OpenAI ומכוונת ישירות אל לב ליבם של מודלי החישוב, עליהם מתבססים מודלי השפה המצליחים בעולם: ChatGPT4 ו-3.5

 

על מה כל המהומה?

הניו יורק טיימס, אחד מהעיתונים הגדולים והוותיקים בעולם, הגיש תביעה נגד החברות OpenAI ומיקרוסופט בטענה שהן השתמשו שלא כדין במיליוני מאמרים שפורסמו בעיתון כדי לאמן את מודלי ה-AI שלהן, ובפרט את המודלים החדשים GPT-3.5 ו-GPT-4. על פי התביעה, המודלים הללו מסוגלים כעת לייצר טקסטים המצטטים באופן מדויק מאמרים ואייטמים שלמים הלקוחים ישירות מהטיימס. מודלים אלו יכולים לתרגם אותם ואף לחקות את סגנון הכתיבה הייחודי של העיתון. יכולות אלה, כך נטען, פוגעות בהכנסות העיתון ממינויים, פרסום ומכירת תוכן לצדדים שלישיים.

 

כסף גדול!

התביעה דורשת פיצוי של מיליארדי דולרים על הפרת זכויות יוצרים וכן דורשת מבתי המשפט להורות לחברות למחוק את המידע של הטיימס מתוך המודלים שלהן. לטענת התובעים, החברות הנתבעות השתמשו ללא רשות במיליוני מאמרים ויצירות מוגנות של העיתון בקנה מידה רחב ללא רשות או תשלום, כדי לאמן את המודלים הגנרטיביים שלהן ליצירת שפה טבעית (התביעה מתייחסת למוצרים כגון ChatGPT,‏ Bing Chat ו-Copilot).‏ ה”ניו יורק טיימס” טוען שהשימוש בתוכן שלו ללא רשות פוגע במודל העסקי שלו, שמבוסס על מינויים, פרסום ורישיונות. התביעה דורשת פיצוי כספי על הנזקים וצו מניעה כנגד המשך השימוש בתוכן של העיתון ללא רשות. 

 

ומה אומרות OpenAI ומיקרוסופט?

מיקרוסופט ו-OpenAI טוענות בתגובה שהשימוש שלהן בחומרים מוגנים לצורך אימון מודלי AI הוא “שימוש הוגן”, מכיוון שהוא משנה את המטרה והאופי של החומרים המקוריים למטרה חדשה וטרנספורמטיבית. הן טוענות שזו הגנה חוקית כנגד טענות של הפרת זכויות יוצרים.  וזו למעשה המחלוקת המרכזית:

 

האם השימוש של מיקרוסופט ו-OpenAI בחומרים מוגנים של הניו יורק טיימס לצורך אימון מודלי AI נחשב לשימוש הוגן או הפרה של זכויות יוצרים. 

 

הפסיקה בנושא זה עדיין מתפתחת והתביעה הזו עשויה לקבוע תקדים משפטי חשוב בתחום. מ-OpenAI נמסר בתגובה כי החברה מכבדת את זכויות היוצרים של העיתון המוערך והם מלאים תקווה שיימצא פתרון שיתאים לשני הצדדים. מיקרוסופט טרם הגיבה.

 

נראה שהמקרה של התביעה נגד OpenAI ומיקרוסופט יהווה בחינה חשובה לגבולות השימוש ההוגן ביצירות קיימות לצרכי אימון מודלי AI. הפרשה צפויה להשפיע רבות על התעשייה.

 

לינק לכתב התביעה המקורי.

הפוסט האם OpenAI ומיקרוסופט הפרו את זכויות היוצרים של הניו יורק טיימס? הופיע ראשון בLet's AI בינה מלאכותית

]]>
https://letsai.co.il/6725-2/feed/ 0