שימו לב, אתר זה עושה שימוש בעוגיות על מנת להבטיח לך את חוויית הגלישה הטובה ביותר. קראו עוד הבנתי
דו"ח טכנולוגי

דו"ח טכנולוגי

אחד בפה, אחד בלב: תיאטרון האשליות של מר צוקרברג

הופעתו של מנכ"ל פייסבוק בקונגרס הוכיחה סופית עד כמה הוא באמת מצטער על דליפת המידע, רדיט נכנסת לפינה מסוכנת מול המשתמשים שלה, סנאפ לא מוותרת על תחום המחשוב הלביש על אף כשלונותיה בעבר ולאן נעלם האקדח של טוויטר

יוסי גורביץ 15:4112.04.18

אתה בטוח שאתה לא יודע?

 

הערכתי אתמול (ד') שבית הנבחרים יהיה אגוז קשה יותר לפיצוח במסע החנופה של מארק צוקרברג מאשר הסנאט - ונראה שההערכה הזו אוששה. חברי בית הנבחרים קטעו את צוקרברג שוב ושוב כשזה ניסה להתחיל את השפיל שלו, ולפחות אחת מהן אמרה לו שהם לא מתכוונים לאפשר לו לעשות פיליבסטר. גם השאלות היו מחודדות הרבה יותר.

 

אחד מחברי הקונגרס שאל את צוקרברג מה המשמעות של "המשתמש הוא הבעלים של המידע שלו", סיסמה שצוקרברג מפיץ ללא הפסקה, אם פייסבוק עוקבת אחרי המשתמשים גם כשהם לא מחוברים אליה, ולמעשה כשאין להם חשבון פייסבוק כלל. חברי הקונגרס חזרו שוב ושוב לשאלה הזו, שמאד לא נוחה לפייסבוק, וצוקרברג היה צריך להתחמק ולשקר פעם אחר פעם. המנכ"ל טען שהוא לא יודע על "פרופילי הצללים" שפייסבוק שומרת על אנשים שאינם משתמשיה, ושהוא איננו יודע כמה נקודות מידע שומרת פייסבוק על לא-משתמשים – או על משתמשים. באמת? אתה בטוח שאתה לא יודע?

 

מארק צוקרברג, בעת עדותו מארק צוקרברג, בעת עדותו צילום: רויטרס

 

 

כשטען צוקרברג שכל המשתמשים נותנים הסכמה מדעת לשימוש של פייסבוק במידע שלהם, עימתו אותו השואלים עם העובדה שהרשת החברתית אוספת מידע גם על אנשים שאין להם כלל חשבון אצלה.

 

הוא המשיך להתחמק ומדי פעם העלה את הרעיון שטכנולוגיות בינה מלאכותית יפתרו את כל הבעיות. גם אם נקבל את ההנחה הזאת, חשוב לזכור ש-AI יעילה כמו האדם שכתב אותה, ושמתכנתי פייסבוק אינם יעילים במיוחד בהגנה על פרטיות או מניעת הפצת שנאה. צוקרברג לא אמר מתי יפתור כישוף ה-AI את כל הבעיות, בין היתר כי זה משהו שהוא באמת לא יודע. הוא דיבר על טווח של חמש עד 10 שנים - מה שהרגיז מומחים בתחום הבינה המלאכותית. לדבריהם, הדבר היחיד ש-AI תפתור עבור צוקרברג הוא בעיית המחוקקים הזועמים.

   

שוב ושוב, הבטיח צוקרברג שהוא יחזיר לסנאטורים ולחברי הקונגרס תשובות בכתב על שאלות שלהם. שוב ושוב הקפיד לא להגיד דבר בעל ערך; זו התנהגות נבונה מבחינה משפטית, אבל גם הוכחה למה שעומד מאחורי ההתנצלויות שלו ומסע החרטה של השבועיים האחרונים. פייסבוק רוצה להמשיך להפוך את המידע שלנו לכסף, ומארק צוקרברג מוכן בשמחה להחליף את החולצה האפורה שלו בחליפה לשם כך. 

  

דמוקרטיה או אנרכיה? 

 

רדיט, אולי הקהילה העצבנית ביותר ברשת, שוב עוסקת בספורט החביב עליה, קרי הנסיון לערוף את מנהלי החברה. הפעם, לשם שינוי, המשתמשים הזועמים מגיעים מצד שמאל. מנכ"ל החברה, סטיב הופמן, התבקש ע"י אחד המשתמשים לתת הבהרה בעקבות מחיקה המונית של טרולים ממקור רוסי: האם דיבור שנאה, בכלל זה כינויי גנאי על רקע גזעי, אסורים ברדיט?

 

רדיט רדיט צילום: שאטרסטוק

 

 

הופמן השיב בשלילה. הוא אמר שכל תת-קהילה ברדיט יכולה לקבוע את כללי דיבור השנאה שלה בעצמה וטען שדיבור אינו שקול להתנהגות. זו טענה בעייתית, בלשון המעטה; אישה שמנסה להכנס לפורום ומגלה שלכולם מותר להתייחס אליה כאל אוביקט מיני ואדם נחות בהחלט תחווה את הכלל הזה כסוג של "התנהגות", שמטרתה להרחיק אותה מהקהילה. המשמעות בפועל של המדיניות של הופמן היא שקהילות גזעניות במפורש, כמו R_donald (תת הקהילה של תמיכה בדונלד טראמפ וניאו נאציזם) יכולות לקבוע לעצמן כללים שמטרתם לוודא שמי שלא חושב כמוהן לא יחוש בנוח, בלשון המעטה.

 

לאורך ההיסטוריה שלה, רדיט ניסתה למעט במשטור הקהילה שלה, ודאי ביחס לפייסבוק או טוויטר. המשתמשים הנפיצים שלה לא מהססים לתקוף את החברה (והביאו להדחתה של אלן פאו, בשל עמדותיה הפמיניסטיות). בפועל, רדיט פועלת כנגד גזענות וגזענים רק כאשר הם מושכים תשומת לב תקשורתית שלילית. הגביע הקדוש של רדיט הוא לשכנע מפרסמים לפרסם בקהילות שלה, ורובם לא רוצים את המודעות שלהן לצד תשפוכת ניאו נאצית.

  

מדרון משופע

 

מנהלת התרופות האמריקאית (FDA), רגולטור הרפואה של ארה"ב, אישרה לראשונה כלי אבחון מבוסס AI שפועל ללא התערבות אדם. התוכנה, המכונה IDx-DR, עוברת על תמונות באיכות גבוהה של רשתית העין כדי לאבחן סיכוי למחלות עיניים. התוכנה יכולה לזהות את המחלות בדיוק של 87% ויכולה לזהות אנשים ללא מחלות עיניים בדיוק של 90%. היא עצמונית לגמרי ולא צריכה השתתפות אנושית.

  

משהו דומה לזה כבר פועל בבית החולים הלל יפה: תוכנה עוברת על נתוני החולה ומחליטה האם יש צורך לנתח אותו. כל הרעיון של בינה מלאכותית שמקבלת החלטות על מצבו של חולה במקום רופא אנושי הוא בעייתי: ראשית, בעיות אתיות. אנשים נותנים את אמונם ברופא, לא בתוכנה. חולים לרוב אינם מודעים לכך שמחשב הוא זה שמקבל החלטות עבורם.

 

הרופא יראה אותך עכשיו הרופא יראה אותך עכשיו

 

  

לא צריך להגיע לפנטזיות על תבונה מלאכותית שמחליטה לרצוח חולים; יש מספיק רופאים מעולים שעושים את זה בטעות בעצמם - ולבינה מלאכותית יש הרבה מה ללמוד מהם. הבעיה פה היא דומה לשאלות שמופנות ביחס לרובוטי הרג ומכוניות עצמוניות: מי אחראי? האם העברת אחריות מידי אדם למכונה - הרובוט שהרג כתוצאה מהליך לא ברור, המכונית שיצאה משליטה ודרסה, ה-AI שהרעיל אותך כתוצאה ממינון שגוי - מאפשרת לאחראי האנושי לחמוק מאחריותו?

 

עד שאנחנו לא עונים על השאלות הבסיסיות האלה, רצוי להשאיר את התוכנות בשלב האבחון בלבד, ולוודא שיש לפחות בנאדם אחד שמעורב בתהליך.

 

קצרצרים

 

1. סנאפ הפסידה הון עתק על המחשב הלביש שלה, ה-Spectacles, משקפיים שמטרתן לאפשר למשתמש לצלם את סביבתו. החברה נתקעה עם אלפי יחידות שהיא לא הצליחה למכור. עכשיו היא מודיעה שהיא מתכוונת לנסות שוב: היא דיווחה לרשות לניירות ערך שהיא מתכוונת להוציא שני דגמים חדשים, עם יכולת חיבור מהירה יותר. ההרפתקה הקודמת בתחום עלתה לסנאפ 40 מיליון דולר, ההכנסות שלה לא משהו, וחברת החיקויים המובילה פייסבוק אוכלת את ארוחת הצהרים שלה. זה נראה כמו הימור גרוע מהמקובל.

 

משקפי סנאפ משקפי סנאפ צילום: Youtube.com

 

 

2. טסלה נערכת לקרב משפטי סביב מותו של נהג ברכב שלה שעשה תאונה בזמן שהמערכת הנהיגה העצמאית פעלה. משפחתו של ההרוג טוענת כעת שהתאונה נגרמה בשל הטייס האוטומטי ובוחנת את הצעדים המשפטיים שלה. בטסלה מודים שהנהג האוטומטי הופעל, אבל טוענים שהנהג האנושי לא נקט בצעדי הזהירות המתבקשים. עורכי הדין של המשפחה טוענים שהאוטומט לא זיהה את קיר הבטון שאליו התקרבה המכונית במהירות ולא בלם בזמן. זה ההרוג השלישי ששמו מקושר למערכת הזו של טסלה.

  

3. חוקרים אימנו AI ליצור סרטונים מצוירים של הפלינטסטונס, כשהמחשב נדרש להתבסס על תיאורי טקסט בלבד. התוכנה, שמכונה CRAFT, הוזנה במאגר מידע שבו יש 25,000 סרטוני פלינסטונס, ואחר כך התבקשה ליצור סרטונים על פי תסריטים שכתבו החוקרים. יש הצלחה, אם כי הסרטונים לא משהו. אך אחד לא יאמין שמדובר בפרק חדש של הסדרה, אבל אני מניח שהצלחה טובה יותר היא רק שאלה של זמן.

  

4. טוויטר הולכת בעקבות אפל, ומסלקת את האקדח מרשימת האמוג'ים שלה. הדבר הכי קרוב שתוכל לשלוח לאנשים יהיה מעתה אקדח מים, הרבה פחות מאיים. החברה צפויה להיות תחת התקפה מצד מעריצי רובים בתוך זמן קצר. עם זאת, סמל אקדח המים בטוויטר עדיין ייראה כמו אקדח אמיתי בפייסבוק ובשירותי המסרונים של גוגל ומיקרוסופט, כך שרצוי להביא זאת בחשבון.

  

 

 

5. ארכיאולוגים מצאו בנורווגיה קוביה מימי הביניים, שככל הנראה שימשה נוכל: במקום המספרים 1 ו-2 יש בה פעמיים 4 ו-5. העובדה שאנשים מרמים במשחקים היא לא חדשה, אבל דורות של שחקני משחקי תפקידים, שיש להם לרוב אובססיה הן עם התרבות הנורדית והן עם קוביות, מביטים בהערצה אל האיש שבנה את המכשיר הפשוט אך הערמומי הזה. יש לקוות שהוא השתמש בו רק אחרי שכולם היו שתויים כהוגן, כלומר 23 שעות ביממה, אחרת זה כנראה נגמר לא טוב. המשחק שבו שימשה הקוביה מוכר באנגלית כ-Passage: כל צד זורק שלוש קוביות עם שש פאות, ומי שמוציא פחות מ-10 מפסיד. הסתברותית, 3ק6 יביאו לך 10.5 בממוצע; עם קוביית הנוכל, ובהנחה שהיתה רק אחת כזו, 3ק6 יתנו לך 11.5. הנורווגים התמכרו כ"כ להימורים, שב-1276 יצא חוק נגד הימורים שיש להניח שנכשל חרוצות. השאלה המעניינת באמת היא איך נראה המשחק האחרון בקוביה הזו.
בטל שלח
    לכל התגובות
    x