סגור
פאנל פרטיות

דאטה בשירות השיווק
"אם ישראל לא תקדם רגולציה על בינה מלאכותית, תעשיית הסטארט-אפים עלולה להיפגע"

כך לדברי ד"ר תהילה שוורץ אלטשולר בכנס ביג דאטה בשירות השיווק של כלכליסט. לדבריה, "אנחנו החצר האחורית של ניסויים, מחקרים וכל הדברים שמותר לעשות עלינו ואסור לעשות על אזרחי העולם". עו"ד נעמה מטרסו קרפל, מנכ"לית עמותת פרטיות ישראל: "נדרשת רגולציה רצינית שתקבע אילו החלטות יכולות להתקבל על בסיס המידע שנאסף עלינו בעשור האחרון"

אם מדינת ישראל לא תתחיל לקדם רגולציה על בינה מלאכותית, תעשיית הסטארט-אפים הישראלית עלולה להיפגע – כך הזהירה ד"ר תהילה שוורץ אלטשולר, ראשת התוכניות רפורמות במדיה ודמוקרטיה בעידן המידע במכון הישראלי לדמוקרטיה, בכנס דאטה בשירות השיווק של "כלכליסט" שנערך היום (ב').
"זה קיר שאנחנו עומדים להתנגש בו", אמרה שוורץ אלטשולר, שדיברה בפאנל בנושא פרטיות הצרכן ברשת בהנחיית עומר כביר. "ב-2018 התקבלה רגולציית הפרטיות האירופית, GDPR. שם, כל מי שאוסף מידע על אזרחי האיחוד האירופי, גם אם הוא מחוץ ליבשת, כפוף לרגולציה. בטיוטה שפורסמה החודש על רגולציית בינה מלאכותית נאמר אותו הדבר. מי שימכור שירותים לאזרחי היבשת יצטרך לעמוד בכללי הרגולציה האלו.

1 צפייה בגלריה
כנס סיילספורס מימין נעמה מטרסו קרפל תהילה שוורץ אלטשולר נמרוד וקס
כנס סיילספורס מימין נעמה מטרסו קרפל תהילה שוורץ אלטשולר נמרוד וקס
כנס סיילספורס מימין נעמה מטרסו קרפל תהילה שוורץ אלטשולר ונמרוד וקס


"מה זה אומר לגבינו? ראשית, החברות הגדולות שיש להן הרבה כסף יוכלו לקחת שירותי עריכת דין טובים שיאפשרו להם להיות תואמות לרגולציות האלו. זה יפגע בתעשיית הסטארט-אפים, בחברות הקטנות, במי שאין לו כסף להתחיל לייצר תאימות. זה החלק הראשון. החלק השני הוא שבסוף, אם מדינת ישראל, תמשיך בגרירת הרגליים המחדלית שלה, מי שלא מוגן זה אנחנו. כלומר, מה שאסור לחברות שיושבות כאן בארץ ומשלמות מסים בארץ לעשות לאזרחי אירופה מותר להן לעשות עלי. מה זה אומר? שאנחנו החצר האחורית של ניסויים, מחקרים, כל דברים שמותר לעשות עלינו ואסור לעשות על אזרחי מדינות בעולם המפותח".
ואולם, מנכ"לית עמותת פרטיות ישראל, עו"ד נעמה מטרסו קרפל, הבהירה שרגולציה שכזו לא נראית באופק. "אנחנו במקום שבו מדינות, חברות ותאגידים אספו המון מידע עלינו, ויכולים לעבור לשלב שבו הם מקבלים החלטות על סמך המידע הזה. אנחנו נכנסים לעידן הזה, ונדרשת רגולציה רצינית שתקבע אילו החלטות יכולות להתקבל על בסיס המידע שנאסף עלינו בעשור האחרון, בשני העשורים האחרונים, ואיך זה עשוי לפגוע בשיוויון, בחופש הביטוי, בהרבה זכויות יסוד בסיסיות בישראל אין עדיין רגולציה של פרטיות כמו שצריך, ורגולציה של בינה מלאכותית היא בבחינת אחרית הימים. בשנה שנתיים הקרובות אני לא רואה איך עושים בישראל רגולציה של פרטיות, כאשר בינה מלאכותית היא שלב אחד מעל. אנחנו לא שם, אין גוף שמדבר על זה בצורה עמוקה. אנחנו בחיתולים בנושא, אין רגולציה, שום אמירה רגולטורית, אנחנו לא בכיוון", היא אמרה.
נמרוד וקס, מייסד שותף וסמנכ"ל מוצר ב-BigID, הוסיף שבעת דיון בנושא חשוב לזכור שבינה מלאכותית וביג דאטה יכולים לשפר את חייהם של משתמשים: "יש הרבה ערך בביג דאטה וב-AI, גם לצרכנים, לא רק לחברות הגדולות. דרך הערך הזה אנחנו מקבלים שירותים יותר זולים, שיותר מתאימים לנו. העניין הוא שארגונים אספו את המידע הזה עשרות שנים בלי שום מגבלות, בלי ידיעה לגבי המידע שהם אוספים. הם אספו את המידע הזה שיהיה לכך צורך שאולי יבוא, ועכשיו יש מגבלות בחו"ל על האיסוף של המידע. האתגר שלהן עכשיו הוא לדעת איזה מידע הן אספו, ולעשות בקרות פנימיות לגבי השימוש בו".
וקס הבהיר עוד שאין סתירה מובנת בין שימוש בביג דאטה לפגיעה בפרטיות. "העקרונות של פרטיות מאוד פשוטים: תהיה הוגן כלפי הצרכן, תהיה שקוף לגבי אופן השימוש במידע, תשמור עליו, תגן עליו", הוא אמר. "אם אתה נוהג בצורה לא אחראית, אוסף מידע שלכולם בארגון יש גישה אליו, פה מתחילות הבעיות. במיוחד אם אתה לא מגן עליו כמו שצריך. אתה צריך להיות מסוגל לקטלג את המידע בצורה טובה, לדעת לעקוב אחרי ההשראות שנתן המשתמש, ולהיות מסוגל לאכוף את ההרשאות האלו בארגון עצמו, שלא ישתמשו בו בניגוד להרשאות המשתמש".