סופר המד”ב הנהדר אייזק אסימוב הבין כבר בשנות ה-40 שרובוטים עתידים להשתלב במרקם החיים שלנו, משום שהם צפויים לבצע פעולות טוב יותר מבני אדם. הוא גם הבין שכדי שנוכל להפקיד את עצמנו לחלוטין בידי הרובוטים, אנחנו צריכים לדעת שהם ישמרו על חיינו ויהיו בטוחים לשימוש. לשם כך ניסח אסימוב את שלושת חוקי הרובוטיקה, שמתוכנתים ומוטמעים בכל רובוט והוא אינו יכול לעבור עליהם. החוק הראשון של הרובוטיקה מבהיר באופן חד משמעי: “לא יפגע רובוט באדם, ולא יניח, במחדל, שאדם ייפגע”.
בינה מלאכותית בת ימינו, כמו הרובוטים במדע הבדיוני, היא קופסה שחורה. האלגוריתמים המובילים בתחום הלמידה החישובית הם כאלה שבהם הלמידה די נסתרת מהעין. אנחנו לא יודעים להגיד מה המאפיינים שאותם המכונה לומדת, ויכולת ההשפעה שלנו על תהליך הלמידה מוגבלת מאוד (באיזשהו מקום אפשר להגיד שאנחנו גם לא מבינים איך אנחנו בעצמנו לומדים). במקרים מסוימים זה אף עשוי לגרום להתנהגות שבני אדם לא יכולים לצפות. כשזה המצב, חוקים דטרמיניסטיים כמו חוקי הרובוטים, שמוטמעים בתוך המערכת, דואגים שגם אם אנחנו לא יודעים לצפות איזו החלטה המכונה תקבל, היא לא תעשה משהו שיפגע בנו.
אחד ה”רובוטים המודרנים” שזוכה למרב תשומת לב, ובמקביל גם רבים חוששים ממנו, הוא המכונית האוטונומית. על המפתחים של מכוניות כאלו עומדת חובת ההוכחה להראות שהמכונה הזו בטוחה לשימוש. אחד המודלים המשמעותיים שבאים לענות על השאלה הזו פורסם על ידי חברת מובילאיי הישראלית ב-2017 ונקרא RSS. גם הוא, כמו אסימוב, מייצר כללים שידאגו שלא משנה מה המכונה לומדת, משהו יגביל אותה ולא יאפשר לה לעשות משהו שיגרום לתאונה.
הכותבים ניסחו חמישה חוקים בסיסיים בנהיגה שכולנו מכירים: הראשון: אסור להתנגש במכונית שלפניך, השני: אין לחתוך בצורה מסוכנת נתיבים, השלישי: זכות קדימה נותנים ולא לוקחים, הרביעי: כשהראות לקויה צריך להיזהר במיוחד, והחמישי: צריך להימנע מתאונה ככל האפשר בלי לגרום לתאונה בעצמך. כל חוק כזה נוסח באופן מתמטי, כשפרמטרים כמו המרחק שצריך לשמור נקבעו ותוכנתו, והמכונית יודעת שלא משנה מה היא עושה, היא לא יכולה לעבור על החוקים הללו.
במאמר הזה הראו הכותבים שחמשת הכללים הללו מספיקים כדי להבטיח שמערכת קבלת ההחלטות של המכונית בוודאות לא תגרום בעצמה לתאונה. זה אמנם לא אומר שהמכונית האוטונומית לא תכנס לתאונה לעולם, שכן תאונה יכולה להגרם באשמת רכב אחר, או שיכולה להיות טעות במערכת החישה של המכונית שלא תזהה טוב את המצב בשטח, אבל מערכת קבלת ההחלטות לעולם לא תהיה זו שאחראית לתאונה. זו פריצת דרך משמעותית מאוד שמראה שמכוניות אוטונומיות הן אכן בטוחות.
הרעיון הזה מזכיר מאוד את הוויכוח על מולדות בבני אדם. הרבה פעמים אנחנו חושבים שנולדנו “לוח ריק”, מה שמאפשר לנו ללמוד את העולם ולהתאים את עצמנו לסביבה שמשתנה בצורה מאוד גמישה. אבל כנראה שבכל זאת יש מידה מסוימת של דברים שאנחנו נולדים עמם בלי שנצטרך ללמוד אותם.
כשעכבר נתקל לראשונה בשתן של שועל, הוא לא צריך ללמוד שהוא צריך לברוח משם, משהו במוחו כבר טבוע ואומר לו שמשועלים הוא צריך להתרחק. אפשר לדמות את חוקי הרובוטים, ואת החוקים הדטרמיניסטיים של ה-RSS בדיוק לכך. המכונית יכולה ללמוד לבצע את עבודתה על הצד הטוב ביותר בכל דרך שהיא, אבל שורה של כללים מאוד יסודיים שטמועים בה באופן דטרמיניסטי מונעים ממנה לפעול בצורה שתסכן בני אדם.
מדהים לראות איך רעיונות מתחום המדע הבדיוני באים לידי ביטוי גם בעולם המדע האמיתי.
תודה רבה לצחי סוויסה וחברת מובילאיי על הנכונות לסייע בתחקיר למאמר זה.
המאמר נכתב לבקשתו של אחד התומכים המובילים של הבלוג. אם גם אתם רוצים להשפיע על התכנים, אתם מוזמנים להצטרף ולתמוך בבלוג בפטריאון, פרטים נוספים כאן
צילום: Phonlamai Photo / Shutterstock