איזון בין פרטיות לחדשנות: צומת ההכרעה של ישראל בתחום הבינה המלאכותית
כשישראל מאותתת לעולם שהיא מחמירה יותר מהאיחוד האירופי, היא מסכנת את אמון החברות הבינלאומיות ואת היכולת של חברות מקומיות להתחרות בשוק העולמי
בישראל מתנהל בימים אלה ויכוח עקרוני, אשר השלכותיו חורגות הרבה מעבר לגבולות המדינה: כיצד להסדיר את השימוש בבינה מלאכותית מבלי לפגוע בחדשנות ובכושר התחרות של המשק? טיוטת ההנחיות שפרסמה רשות הגנת הפרטיות, שמבקשת להטיל מגבלות חמורות על כריית מידע ושימוש בנתונים, כבר מעוררת הדים בשוק הבינלאומי – עוד בטרם נכנסה לתוקף.
המסר שעולה מהטיוטה – מסר של רגולציה מחמירה ובלתי צפויה – אינו נשאר בגבולות ישראל. שחקנים גלובליים, בהם משקיעים וגורמים טכנולוגיים מובילים, מתחילים לשאול שאלות נוקבות באשר לאטרקטיביות של עשיית עסקים בישראל. האם נכון לפעול בסביבה שבה פרשנות רגולטורית עלולה להוביל לקנסות ואחריות משפטית גם במקרים שבהם בעל האתר לא יזם את איסוף המידע?
יש מקום להסדרה. השימוש בבינה מלאכותית מעלה שאלות כבדות משקל בנוגע לפרטיות, שקיפות ואחריות. אך יש הבדל בין רגולציה נבונה לבין החמרה שעלולה לחנוק את החדשנות. האיחוד האירופי, שנחשב למחמיר במיוחד בכל הנוגע להגנה על פרטיות, מכיר במקרים מסוימים באפשרות להשתמש בנתונים לצורכי AI גם ללא הסכמה מפורשת – כאשר קיים "אינטרס לגיטימי". בישראל, לעומת זאת, מוצע לאסור כליל את השימוש במידע מהאינטרנט ללא אישור פרטני, גישה שעלולה להותיר את ישראל מאחור.
הביקורת על המהלך אינה נשמעת רק מהמגזר הפרטי. גם גורמים רשמיים כמו משרד האוצר, החשב הכללי ואגף התקציבים הזהירו מפני הפגיעה האפשרית ביכולת המדינה לעבוד עם חברות בינלאומיות ולהביא טכנולוגיות מתקדמות לטובת הציבור.
מעבר להשלכות הכלכליות, יש כאן גם פן חברתי-תרבותי עמוק: בינה מלאכותית מתבססת על כמות עצומה של נתונים, ורובם אינם זמינים בשפה העברית. אם ישראל תבחר להקשות על איסוף מידע בעברית – אנו עלולים לפגוע ישירות באיכות השירותים שיקבל הציבור, ממערכות בריאות דיגיטליות ועד יישומים חינוכיים. המשמעות היא לא רק האטה בחדשנות, אלא גם ירידה ממשית באיכות החיים.
האתגר המרכזי אינו האם להסדיר את התחום – אלא כיצד לעשות זאת. האם נבחר ליישר קו עם סטנדרטים בינלאומיים, כמו ה-GDPR, או שנאמץ גישה ייחודית ומחמירה שתרחיק משקיעים, חברות, ופיתוחים פורצי דרך?
זהו רגע הכרעה. ישראל יכולה לבחור להיות חלוצה שמאזנת בין פרטיות לקדמה, או להפוך לחריג רגולטורי במערכת גלובלית שמתמקדת באיזון. הרווח או ההפסד יהיו של כולנו – לא רק של התעשייה, אלא גם של האזרחים, שייהנו (או שלא) מהכלים שיבנו כאן בעשור הקרוב.
כדי להבין שאפשר אחרת, די להביט בצעד רגולטורי אחר של רשות הפרטיות – תיקון 13 לחוק הגנת הפרטיות. החוק המקורי נחקק עוד ב־1981, כשהמידע האישי היה שמור בקלסרים, והתיקון נועד לגשר על הפערים מול מציאות ענן, ביג דאטה ו־ AI של ימינו.
התיקון מציב מסגרת עדכנית וברורה: חובת רישום מאגרי מידע גדולים, מינוי ממונה הגנת פרטיות בגופים מהותיים, חיזוק האכיפה והטלת אחריות גם על מנהלים בכירים. לצד זאת, הוא מגדיר מנגנוני שקיפות מול הציבור ואף מאפשר פיצוי ללא הוכחת נזק במקרה של הפרה. במילים אחרות – כל ארגון יודע מה מצופה ממנו, מה הסיכונים, ואיך לעמוד בדרישות.
זהו מודל שממחיש איך רגולציה יכולה לעבוד: היא מגנה על האזרחים ומעודדת תרבות פרטיות אחראית, אך לא מטילה איסור גורף שמונע פעילות עסקית. במקום לבלום את השוק, היא יוצרת ודאות – תנאי קריטי לצמיחה וחדשנות.
כאן בדיוק טמון ההבדל: רגולציה שנעשית במינון הנכון יכולה לחזק את התעשייה הישראלית ולהפוך אותה לאטרקטיבית גם בינלאומית. האתגר הוא לשמור על אותו קו איזון גם בתחום הבינה המלאכותית – לא להיבהל מהטכנולוגיה, אלא לבנות עבורה מסגרת ברורה, הוגנת וישימה.
בן פסטרנק הוא מנכ"ל ובעלים קבוצת Aman






























