מה מותר לשתף עם הצ'אט ומה לגבי כלים סיניים? המדריך לשימוש בטוח ב-AI
עידן ה-AI טומן בחובו יתרונות אך גם סיכונים - מדליפת מידע ארגוני ועד קוד זדוני. איך יודעים באלו כלים מותר להשתמש, איך לשמור על המידע - ומה לגבי שימוש בדפדפני AI וסוכנים? מדריך כלכליסט
כשאנחנו שואלים את ChatGPT שאלה או מעלים קובץ לקלוד, זה נותן לנו תחושה של שיחה עם עוזר אישי, משהו פרטי וזמני. אבל מאחורי הממשק הנוח והפרטי לכאורה מסתתרת מציאות שונה: המידע עובר לשרתים מרוחקים, עשוי להישמר, ובמקרים מסוימים - אפילו לשמש לאימון מודלים עתידיים או להגיע לידיים לא רצויות.
הפער הזה, בין התחושה של המשתמש למה שקורה בפועל, יוצר בעיה אמיתית. רבים משתמשים בכלי AI לצרכי עבודה, מעלים נתונים רגישים, מחברים אותם למייל וליומן - מבלי להבין עד הסוף מה הסיכונים. והסיכונים הללו לא תיאורטיים: מדליפת מידע ארגוני ועד קוד זדוני שהמודל מייצר, הסכנות ממשיות ודורשות מודעות.
המדריך הזה נועד לעזור לכם לנווט בבטחה בעולם ה-AI. המטרה היא פשוטה: לאפשר לכם ליהנות מהיתרונות של הטכנולוגיה, מבלי לשים את עצמכם בסיכון. לצורך הכנת המדריך שוחחנו עם ליאור זיו, סמנכ"ל טכנולוגיות (CTO) ומייסד שותף בלאסו סקיוריטי (Lasso Security), שעוסקת באבטחת GenAI.
איך לשמור שהמידע שאנו משתפים עם הצ'אט לא ידלוף?
הדרך הכי טובה למנוע דליפת מידע היא לתעדף שימוש ברישיון הארגוני. "כשהמעביד קונה רישיון ל-ChatGPT לדוגמה, אז המידע שכותבים לצ'אט לא מגיע ל-OpenAI כדי לאמן את המודל הבא על בסיסו", מסביר זיו. הבעיה בכך, לדבריו, היא ש"כל מידע שמשתמשים בו לאימון הופך להיות חלק מהמוח של המודל, הוא יכול להציע אותו כתשובה למישהו אחר". כמו כן, המעסיק יכול לשלוט בהרשאות וכל הנתונים נשמרים בסביבה מבודדת. למי שאין רישיון ארגוני, מומלץ לשנות את ההגדרות כך שהצ'אט לא ישתמש במידע לאימון (אפשרות זו נמצאת בהגדרות הפרטיות של כל צ'אט).
הגדרתי שהצ'אט לא ישתמש בשיחות שלנו לאימון. האם עדיין יש מידע שלא כדאי לשתף עם הצ'אט?
ההמלצה הבסיסית היא להימנע משיתוף כל פרט אישי מזהה כמו תעודת זהות, מספר כרטיס אשראי ואף כתובת מגורים. מעבר לכך, זיו מדגיש כי הבחירה של כל אדם מה לשתף ומה לא לשתף עם הצ'אט היא אינדיבידואלית. "אני אשווה את זה לרשתות החברתיות - יש אנשים שמשתפים פחות ויש אנשים שמשתפים יותר. אם לא מעניין אתכם המידע שאוספים עליכם - אתם יכולים לשתף כמעט הכל".
כשמדובר בשימוש ב-AI לצרכי עבודה, הסיפור פשוט יותר - פשוט היצמדו למדיניות של מקום העבודה שלכם. אולם, זיו מדגיש שבעיה חמורה לא פחות מהמידע שנותנים למודל היא המידע שלוקחים ממנו. בהקשר זה ממליץ זיו לא להסתמך אוטומטית על המידע שמגיע מהצ'אט. כך למשל, אם השתמשתם במודל כדי לכתוב קוד ואתם מטמיעים אותו במוצר שאתם עובדים עליו - ייתכן שמדובר בקוד זדוני, ואז הכנסתם אותו לארגון. לכן, ההמלצה היא לבדוק את הקוד שקיבלתם, ואף להצליב אותו עם מודל אחר כדי לוודא שאין בו בעיה.
בתוך שפע הכלים הקיימים היום, איך יודעים באיזה כלי מותר להשתמש ואיזה כלי עשוי להיות בעייתי?
כדאי להשתמש רק בכלים של חברות מוכרות. אם אתם נתקלים בכלי של חברה שאתם לא מכירים - חפשו עליה באינטרנט, בדקו כמה זמן הכלי נמצא בשוק. כמו כן, מומלץ לחפש בתנאי השימוש של הכלי את החלק שמתייחס להרשאות. לדברי זיו, "אם ההרשאות חורגות ממה שהמוצר מבטיח שהוא עושה - זה דגל אדום".
ומה לגבי כלים סיניים?
התשובה של זיו היא חד-משמעית - לא להשתמש. כך למשל, בדיקה שביצעה לאסו על המודל של דיפסיק העלתה כישלון בכל היבטי האבטחה, פרט ליוצא אחד מן הכלל - כשמדברים איתו על הממשלה הסינית. לדברי זיו, כל מידע שנכנס למודלים הללו עלול להגיע לממשלה הסינית. אם רוצים בכל זאת להשתמש בכלים הללו, ניתן לעשות זאת בסביבה מבוקרת כמו AWS, כי אז המידע לא נשמר על שרת סיני.
רבים מהכלים הקיימים כיום יכולים להתחבר לאפליקציות כמו מייל, יומן ועוד. האם ניתן לעשות זאת באופן בטוח? ומה לגבי סוכנים ודפדפני AI?
זיו מציע לחבר לאפליקציות אישיות רק כלים שאתם מכירים וניתן לבטוח בהם. אולם גם במקרה הזה, יש לשים לב להרשאות. אם נותנים לכלים הרשאה לא רק לקרוא אלא גם לעשות דברים - זה עלול להוביל לתוצאות בעייתיות. כך למשל, סוכן עשוי למחוק סביבת פיתוח או לנעול את הדאטה בייס.
לגבי דפדפני AI, כמו Comet של פרפלקסיטי, מחקר שביצעה לאסו ממחיש את הסכנות: תוקפים יכולים להחביא הוראה זדונית לדפדפן באתר אחד, והוא עלול לקחת אותה ולבצע פעולה בעייתית באתר אחר, כמו לשלוח מייל עם פרטים אישיים לתוקף (מה שנקרא בשפה המקצועית Indirect Prompt Injection).
לכן, ההמלצה למי שמעוניין להשתמש בדפדני AI ובסוכנים היא לא לתת להם הרשאות קבועות (Allow Always) אלא רק את המינימום הרשאות הנדרש ולפקח על פעולתם. באופן אישי, זיו מסתייג מהשימוש בדפדפני AI: "אנחנו עדיין לא נמצאים בשלב שאפשר להשתמש בהם בצורה בטוחה", לדבריו.































