הריעו בקול (מעומעם) לבינה המלאכותית בחינוך!

לפני כשבוע גרהם אטוול (Graham Attwell) דיווח בבלוג שלו על מחקר (שהתפרסם בחודש מאי השנה) שבחן כיצד למידת מכונה (לפי ויקיפדיה זה התרגום של machine learning) יכולה להשפיע לחיוב על קבלתם לעבודה של סטודנטים בסיום לימודיהם האקדמיים. אטוול הסביר שהמחקר שנערך על ידי אוניברסיטת אוהיו:

leveraged machine learning to forecast successful job offers before graduation with 87 percent accuracy

המחקר בחן מגוון נתונים אודות כ-850 סטודנטים במגמה לזהות אלו תכונות יכולות לחזות עבורם הצלחה, או אי-הצלחה, בקבלה לעבודה אחרי הלימודים. באמצעות הנתונים שנאספו הוכנה תוכנת מחשב שבאמצעותה ביקשו לחזות את הסיכויים של 212 סטודנטים להתקבל לעבודה. כזכור, אחוזי החיזויים הנכונים היו גבוהים – 87%.

בהתחשב בעובדה שהמטרה של איסוף וניתוח הנתונים היתה לחזות את הסיכויים של סטודנטים להתקבל לעבודה, אפשר לקבוע שיש כאן הישג מאד מרשים, ואטוול אכן מציין זאת לחיוב. הרי אם מחשב יוכל לזהות מיהם הסטודנטים שעבורם יש חשש שלא יתקבלו למקומות עבודה, הנהלות המוסדות יוכלו לפנות אליהם כדי לדרבן אותם, או לכוון אותם לעשות את הדברים הדרושים לשפר את סיכוייהם. עם זאת, הוא מביע אי-נוחות כלפי המחקר:

Firstly it reduces the purpose of degree level education to employment. Secondly it accepts that employers call the shots through proxies based on unquestioned and unchallenged “well recognised skills” demanded by employers.

אטוול כותב שבין האינדיקטורים לסיכוי להתקבל לעבודה (אותם “כישורים מוכרים”) נמצאת, למשל, תקופה של סטאז’ ללא תשלום אצל מעסיקים אחרים. הוא מזכיר לנו שעל פי רוב מי שיכול להרשות לעצמו לעבוד בסטאז’ כזה בדרך כלל בא ממשפחה יחסית מבוססת יותר. כך יוצא שמבלי להתכוון האלגוריתם נותן משקל מועדף לסטודנטים עשירים יותר (וזה איננו צריך להפתיע שלסטודנטים ממשפחות בעלות אמצעים יש יתרון במציאת עבודה). הוא מוסיף שגם אם הנהלות המוסדות יצליחו לזהות את הסטודנטים שזקוקים לעזרה כדי להתאים אותם למה שהמעסיקים מחפשים, במציאות הנוכחית עדיין אין מספיק משרות לכולם. עידוד סטודנטים לעשות את הדרוש להתאים לעבודה יכול להיות דבר מבורך, אבל במציאות כלכלית שבו אין מספיק משרות זה עשוי לגרום לסטודנט לחשוב שהכשלון במציאת עבודה הוא אשמתו ולא בעיה כלל חברתית.

כצפוי, אני מזדהה עם הביקורת של אטוול. נדמה שעורכי המחקר מניחים כהנחת יסוד שהיעד המרכזי של לימודים הוא להתקבל למקום עבודה. גישה כזאת מצביעה על צמצום מדאיג של יעדי ההשכלה הגבוהה, תוך יישור קו עם הציפיות והדרישות של המעסיקים. אבל עוד מעבר לחשיבות של הבעיה הזאת, נדמה לי שיש במחקר בעיה יותר גדולה. אטוול מסביר שהאלגוריתמים של המערכת כוונו כך שהם יזהו התנהגויות של סטודנטים שמעידות על קשיים פוטנציאליים בעבודה:

A key step in the project was “identifying employability signals” based on the idea that “it is well-recognized that employers desire particular skills from undergraduate students, such as a strong work ethic, critical thinking, adept communication, and teamwork.” These signals were adapted as proxies for the “well recognised” skills.

לפי עורכי המחקר ההתערבות החישובית שבמחקר שלהם היא דוגמה של “למידה מכונה”. זאת ללא ספק דרך טובה לזכות בכותרות היות והתיאור האופנתי הזה רומז על כך שהם לא סתם הריצו תוכנה, אלא שהמחשבים שלהם ביצעו פעולות חישוביות שהן בחוד החנית של התקשוב היום. היומרה עוזרת במקום שהצניעות בוודאי היתה מזיקה. ובכל זאת, במחקר מהסוג הזה אפשר היה לצפות לקצת יותר צניעות. הרי ממה שמתואר במחקר מדובר במשהו די פשוט. נדמה לי שאפילו גליון אקסל היה יכול להשיג תוצאות דומות. זאת ועוד: אחרי שהחוקרים אספו מאפיינים עבור כ-850 סטודנטים וקבעו את המאפיינים שעל פיהם המחקר נערך, הם בחנו בסך הכל 212 סטודנטים. אפשר היה לקוות, ואף לצפות, שהמספר הזה איננו גדול מדי עבור אנשי הסגל והמנהל של מוסד להשכלה גבוהה. האנשים האלה אמורים לעקוב אחר הסטודנטים שלהם ולהיות מודעים למצב הלימודים שלהם. עם כל הכבוד ל-“למידת המכונה” ויתרונותיה, אם מוסד להשכלה גבוהה זקוקה לאלגוריתם על מנת לזהות את מה שעוד לפני-כן היה די גלוי לעין, יש כאן תעודת עניות עבור האנשים שבוחרים להפעיל אותה.

כאילו לשכנע אותנו שאין גבול לתשבוחות שאפשר להרעיף על למידת המכונה ועל הבינה המלאכותית (שנוהגים לבלבל ביניהן די בחופשיות) בחינוך, יומיים אחרי פרסום המאמרון של אטוול הניו יורק טיימס דיווח על “פריצת דרך” בבינה המלאכותית – מחשב הצליח לעבור, בציון גבוה, מבחן במדעים של כיתה ח’. הכתבה מסבירה שבתחרות שנערכה לפני ארבע שנים אף לא אחד מהמחשבים המתחרים הצליח לעבור את המבחן, והנה, רק ארבע שנים מאוחר יותר יש הצלחה גדולה. הנה, יש עדות למה שאנחנו קוראים כמעט מידי יום בעיתונות – הבינה המלאכותית מתקדמת בצעדי ענק. הכתבה מוסרת לנו שאמנם רבים מהשאלות במבחן היו שאלות שבסך הכל דרשו אחזור מידע (האם למחשב מותר מבחן בספרים פתוחים? האם הוא בכלל יכול לסגור את הספרים?) אבל היו גם שאלות שדרשו חשיבה לוגית. ובכל זאת:

Aristo was built solely for multiple-choice tests. It took standard exams written for students in New York, though the Allen Institute removed all questions that included pictures and diagrams. Answering questions like that would have required additional skills that combine language understanding and logic with so-called computer vision.

דווקא כאשר רבים כבר מסכימים שמבחנים מהסוג הזה אינם באמת מסוגלים להעריך למידה יש מי שצוהל שמחשב מצליח לעבור אחד מהם? נדמה שיש כאן עוד דוגמאות לכך שמערכות חינוך הן בין המעודדות הקולניות ביותר של הבינה המלאכותית. הן מוכנות לראות בכל הישג בנאלי פריצת דרך מדהים. וכך אנחנו מוצאים את עצמנו במצב הנוכחי: משבחים “למידת המכונה” שמצליחה לעשות את מה שהיינו מצפים ממערכת חינוך מושכלת “רגילה” לעשות, ונותנים כותרת גדולה לבינה מלאכותית שמקבלת ציון יפה במבחן מהסוג שרבים משוכנעים שאין לו מקום במערכת. הישגים אדירים לתקשוב החינוכי.

תחת עין מפקחת היטב

לפני שלוש וחצי שנים תיארתי כאן “חזון” של יוזמה “חינוכית” שביקשה לגייס טכנולוגיות חדישות כדי לשמור על הערנות של תלמידים בכיתה. הרעיון הבסיסי היה מאד פשוט וינק מהאינטרנט של החפצים (IoT) השואף להטמין קישוריות לתוך כל דבר. ביסודו הרעיון היה שתלמידים יענדו צמיד שיבדוק את הנוכחות שלהם בכיתה, אבל דרכו יהיה אפשר גם לשלוח זרם חשמלי קטן כדי להחזיר את הערנות לתלמיד שאיננו מרוכז כמו שצריך בשיעור. היה זה, נדמה לי, אחד הנסיונות הראשונים לרתום “טכנולוגיה חינוכית” לניהול הכיתה על ידי מעקב אחר תלמידים. עד אז אפשר היה לחשוב שהייעוד המרכזי של “התקשוב החינוכי” היה הרחבת עולם הדעת שאליו תלמידים נחשפים. אבל אם זאת היתה אחת התפניות הראשונות, היא בוודאי לא היתה האחרונה.

אני בטוח שמספר נסיונות מהסוג הזה הצליחו להתחמק ממני, אבל אלה שבהם כן נתקלתי הראו שהתקשוב החינוכי צועד בכיוון ברור – כל חידוש טכנולוגי שמבטיח לנתח את הרגלי הקנייה של צרכנים, או שאוסף עוד ועוד נתונים על התנהגות המשתמשים, מוצא את דרכו לחינוך. מסבירים לנו שבעזרת הכלים האלה אפשר יהיה לפקח על הערנות של התלמיד בכיתה, לדאוג לכך שהוא יישאר ממוקד מטלה, ובסופו של דבר ישפר את ההישגים הלימודיים שלו.

לפני שנה וחצי דווח על חברה צרפתית שפתיחה יישום בשם Nestor שצופה בסטודנטים תוך כדי הצפייה שלהם בסרטונים לימודיים המועברים דרך הרשת. כפי שכתבה אחת תיארה את זה:

By using student computers’ webcams to track their eye movements and facial expressions, Nestor claims to be able to figure out whether or not learners are in fact learning (or at the very least, attempting to).

בסרטון שהופץ על ידי החברה רואים סטודנט שמאבד ריכוז והיישום במחשב מעיר אותו – די בכוח. סביר להניח שאם חומר הלימוד היה מעניין יותר הסטודנט לא היה משתעמם, אבל למה לעסוק בפדגוגיה כאשר אפשר להסתמך על טכנולוגיה? דווח אז שהיישום היה אמור להיות מופעל במספר קורסים ב-Paris School of Business, אם כי עד עכשיו לא מצאתי דיווח על הניסוי. אמנם כבר התרגלנו לכך שאוספים עלינו מידע תוך כדי הגלישה באתרים שבהם אנחנו מבקרים, אבל הרעיון שגם מנתחים את הבעות הפנים שלנו עשוי להתקבל אצל רבים כחדירה גדולה מדי לתחום הפרט. סביר להניח שמפתחי היישום היו מודעים לכך, ובגלל זה הם ציינו שהיישום מיועד לעזור למרצים לזהות את הרגעים שבהם הסטודנטים מאבדים ריכוז, וכך לאפשר למרצים לשפר את ההרצאות שלהם.

במאמרון מתחילת הקיץ נגעתי בסוגיה דומה. בין היתר ציינתי כתבה של בנימין הרולד (Herold) ב-Education Week שסקרה מספר נסיונות של איסוף מידע על מצבם הרגשי של תלמידים בעת שהכינו שיעורי בית. הרולד ציטט תלמידה בכיתה ח’ שהגיבה להסבר של עיתונאי שהסביר לה שהיישום שבשימוש בית הספר שלה אוסף עליה מידע כדי לשפר את הלמידה שלה:

I can see how it could be really helpful …. But home is also supposed to be a safe space. You don’t want to feel like your computer is watching you.

אבל מה שדי ברור לתלמידים בכיתה ח’ איננו בהכרח ברור למי שמבקש להביא טכנולוגיות חדישות לסביבה הלימודית. (למען האמת, היה נדמה שהתלמידים של היום כבר התרגלו למציאות שבה מידע אישי אודותם נאסף באופן תדיר כך שמעקב אחר מצב הרוח שלהם בעת הכנת שיעורי בית מול המחשב צריך להיראות להם די טבעי.) אבל למה להסתפק בבקרה מרחוק?

כבר לפני חמש שנים חברה בשם SensorStar Labs טענה שהיא מפתחת מערכת כיתתית שבה מצלמות בכיתה יכוונו על כל התלמידים והמידע שייאגר ינותח כדי לקבוע את מידת הריכוז של כל תלמיד. כתבה ב-FastCompany על המיזם דיווחה אז שבצורתה הנוכחית (של אז) המערכת:

uses webcams to shoot students’ faces and computer vision algorithms to analyze their gaze (are their eyes darting around or watching the teacher?) and expression (smiling? frowning? confused?). That, coupled with audio, can be transformed into a rough, automated metric of student engagement throughout the day.

כמובן שגם המפתחים האלה היו מודעים לכך ששורה של מצלמות בתוך הכיתה עשויה לעורר אי-נוחות, במיוחד אצל הורים שלא ירגישו נוח שמצלמים את ילדיהם במהלך היום. בגלל זה המפתחים דאגו לציין שמה שהמצלמה מצלמת הוא בסך הכל מה שהמורה רואה, כך שהמערכת רק מסייעת למורה לראות את מה שכבר נמצא לפניו. כותב הכתבה מציין בסיומה שעדיין לא ברור אם מערכת כזאת באמת תוביל להוראה טובה יותר. הוא לא ציין שעדיין לא היה ברור אם היא בכלל ישימה. נכון להיום אין אזכור של המערכת הזאת באתר של SensorStar, ואינני מצליח למצוא התייחסות עדכנית למערכת.

וזה מביא אותנו לחברת Intel שלאחרונה פרסמה כתבה:

Applying Artificial Intelligence to Transform How We Learn

בכתבה אנחנו לומדים כיצד מורים אשר מצויידים ב-dashboard המאגד נתונים על כל תלמיד יכולים לקדם את הלמידה של התלמידים שלהם. סרטון המשולב בגוף הכתבה מעניק לנו הצצה ל-dashboard הזה – טבלט שמציג צלמית של כל תלמיד בכיתה עם שקלול של מגוון נתונים שנאספים עבור כל תלמיד:

Appearance – Computer cameras used to extract facial landmarks, upper body, and head movement and pose
Interaction – How the student uses traditional input devices (keyboard, mouse)
Time to action – how long is the student taking to complete tasks or take action on a learning platform

מהיוזמה הזאת של אינטל אנחנו לומדים שעל אף העובדה שחברת SensorStar כנראה לא הצליחה להביא את הרעיון שלהם לשוק, אינטל חושבת שהיא כן תצליח. יתכן שבחמש השנים האחרונות הטכנולוגיה באמת התקדמה מספיק כך שהיום באמת הרעיון ישים, אבל אפילו אם הוא ישים, עדיין לא ברור אם הוא רצוי, או אם הוא באמת עונה על צורך אמיתי. תגובות רבות לציוץ של אינטל (שכלל את הסרטון) הדגישו, די בחריפות, את הנקודה הזאת.

רגע לפני שפרסמתי את המאמרון הזה ראיתי שגם פיטר גרין התייחס לכתבה של אינטל בבלוג שלו, ונדמה לי שבדרכו העוקצנית הוא הדגיש נקודה מאד חשובה. גרין מזכיר לנו שהפיתוחים העכשוויים של קברניטי התקשוב החינוכי מוציאים את המורה מהמלאכה החינוכית, ובגלל זה:

the tech wizards have to find ways to put some of the functions of a human back, like, say, paying attention to the student to see how she’s doing

גרין גם מציין שטבלט כמו זה של אינטל יכול להיות מתאים לכיתה של 150 תלמידים, או לכיתה שבה טכנאי מפקח על הלמידה של תלמידים שיושבים מול צגי מחשב. אבל מי רוצה כיתות כאלו? ההערות האלו דווקא הזכירו לי פיתוח חדש אחר שאיננו קשור (בינתיים?) לחינוך. לפני בערך חצי שנה, ב-Technology Review, רחל מץ דיווחה על חברה שמפתחת שתלים עם קישוריות עבור פרות. השתלים יעבירו מידע על מגוון רחב מאד של היבטים הקשורים לבריאות הפרות, מידע שיועבר למאגר וינותח כדי לקבוע כיצד לפקח על גדילתן. אין כאן הרבה חדש. יוזמות כאלה קיימות כבר שנים. אבל שני דברים ביוזמה הספציפית הזאת מתחברים ליוזמות ה-“חינוכיות” של אינטל. מץ כותבת שלפני שהוא פיתח שתל עבור פרות המפתח הראשי רצה לפתח שתל עבור בני אדם. בנוסף, היא כותבת ש:

The hope is that in the near future, this AI will help farmers figure out quickly and easily how well cows and other livestock are eating, whether they’re getting sick or about to give birth—things that are typically done today just by watching and waiting but are difficult to spot when you’ve got hundreds or thousands of animals to keep an eye on.

היות וה-“חלום” של כמה מאנשי התקשוב החינוכי החדשים הוא כיתות ענקיות כך שלא יהיה צורך לשלם לעוד ועוד מורים, יש סיכוי סביר שיש מי שיחשוב שהרעיון של שתל בתלמידים (כדי לעזור להם ללמוד, כמובן), מופרך ככל שיהיה, הוא דווקא רעיון הגיוני וישים.

למה הכלב הזה מסרב להפסיק לנבוח

שנת הלימודים נפתחה, ואחרי תקופה ארוכה של שקט כאן הגיע הזמן לשאול את השאלה הנצחית – “בשביל מה?”. הכוונה איננה “בשביל מה בית הספר?” – שאלה שהיא בהחלט לגיטימית בעיני, אבל בכל זאת גדולה עלי. ה-“בשביל מה?” שלי הרבה יותר ממוקדת: האם יש בכלל טעם לפרסם רשימה הולכת ומתארכת של תלונות כלפי המציאות המדאיגה של התקשוב בחינוך היום? מה שהיום נחשב “טכנולוגיה חינוכית” שונה באופן מהותי ממה שבזמנו, לפני יותר משני עשורים, משך אותי לתחום. אולי פשוט הגיע הזמן להודות שהנביחות של הכלב הזה בכלל לא השפיעו על השיירה שלא רק עברה, אלא דהרה בכיוון אחר.

פעם הכיוון היה לרוחי. זמינות ה-WWW פתחה את בית הספר למקורות מידע מעבר לספר הלימוד וכלי Web 2.0 הרחיבו את הסביבה הלימודית מעבר לכיתה הפיסית. שני אלה בישרו על העצמת הלומד, וההעצמה הזאת התאימה לגישות חינוכיות שביקשו להעמיד את התלמיד במרכז. אבל כבר זמן די רב היישומים הדיגיטאליים שפותחו בהמשך לא גוייסו להעצמה, אלא להקניה יעילה יותר. ה-“למידה מותאמת אישית” אמנם לפעמים קורצת לכיוון של הרחבת הבחירה של הלומד, אבל על פי רוב ביסודו של דבר הכוונה היא להתאים את התלמיד לחומר הנלמד. והכלים שהיום עומדים לרשות המערכת כדי לעשות זאת חזקים עשרות מונים מדפי ווב או בלוגים פשוטים. היום יש שפע של נתונים ואלגוריתמים שמסוגלים לנתח את קשיי הלמידה של התלמיד כדי לשפר את יכולת הקליטה שלו. אולי יש מי שמוצא בכך ברכה, אבל לא לילד הזה פיללתי.

בספרו מ-2015 Machines of Loving Grace ג’ון מרקוף מתאר שתי מגמות מתחרות במהלך ההיסטוריה של התפתחות התקשוב. הוא מכנה אותן AI מול IA – המחשב ככלי של הבינה המלאכותית מול המחשב ככלי שמסייע לאדם להרחיב את היכולות השכליות שלו. שתי המגמות האלו אינם בהכרח לגמרי מנוגדות זו לזו – לפעמים המדענים והמהנדסים שפיתחו אותן עבדו באותם מכוני מחקר. מרקוף מתאר מאבק מתמשך בין הגישות, כאשר היום הוא רואה את ידה של ה-AI, במיוחד בזכות שילוב ה-big data עם הרובוטיקה, על העליונה. יותר ויותר האדם מוצא את עצמו מיותר בתוך עולם טכנולוגי שמתפקד באופן עצמאי.

בשנים הראשונות של חדירת האינטרנט לחינוך גישת ה-IA, ה-augmented intelligence, היתה הגישה המובילה (מדובר באחרי דעיכת ההתלהבות מקופסאות סקינר למיניהן). המאגר האדיר של ה-WWW ושל מנועי חיפוש שזירזו את הגישה למידע הזה היו ביטוי לכך. אבל היום, אפילו כאשר לכאורה אלגוריתמים אמורים לסייע למורים ולא בהכרח להחליף אותם, ה-AI, ה-artificial intelligence, שולטת. ואולי יותר מאשר בכל מקום אחר זה בא לביטוי באותה “התאמה אישית” שאני חוזר אליה שוב ושוב.

לפני חודש, בבלוג שלו, פיטר גרין ציין שהיום ההתאמה האישית איננה מסתפקת באיתור ובזיהוי קשיי ההבנה של התלמיד, אלא מבקשת גם לחדור לתוך העולם הרגשי של התלמיד:

So we’re seeing attempts to mine other sorts of data. NWEA, the company that brought us the MAP test, now offers a feature that tells you whether or not the student taking the computer test is engaged or not. They believe that by analyzing the speed with which a student is answering questions, they can determine whether or not said student is trying. During test time, the teacher dashboard will toss up a little warning icon beside the name of any not-trying-hard-enough student so that the teacher can “redirect” the student.

בהמשך המאמרון גרין מתאר מיזמים עוד יותר בעייתיים (מומלץ מאד להכיר אותם). אבל לפני הדוגמאות האלה הוא מעיר הערה שנראית לי קולעת מאד לבעייתיות של יישום ה-AI בחינוך:

That is more redundant than creepy; many teachers perform a similar analysis and intervention with a technique called “looking with their eyes.”

במילים אחרות, התקשוב של היום מאפשר משהו שכל מורה טוב ידע לעשות. אפשר לטעון שבעזרת הטכנולוגיה המלאכה הזאת נעשית טוב יותר (טענה שמאד מוטלת בספק) אבל מה שחשוב כאן הוא המגמה של הוצאת המורה האנושי מתוך תהליך ההוראה, וראיית התלמיד ככלי ריק שיש למלא ב-“ידע” בדרך היעלה ביותר. חשוב להבין שלא מדובר במשהו יוצא דופן, אלא בגישה המעוגנת היטב בתפיסת ה-AI. אפשר לראות זאת בציוץ די אירוני שג’ונתן נוליס (Nolis), “מדען דאטה” עצמאי, העלה בחשבון ה-Twitter שלו לפני מספר ימים:

The most underrated algorithm in data science is “go talk to people who deal with the problem every day and learn from them.”

במילים אחרות, מי צריך בני אדם כאשר יש אלגוריתמים שמסוגלים לנתח את הנתונים – נתונים שלפי חסידי ה-AI בוודאי אמינים יותר מאשר מראית עין או משמע אוזן.

האם אני מגזים? הרי ללא ספק אפשר לדלות מידע חשוב מהנתונים שאלגוריתמים מפותחים יכולים לנתח עבורנו. גארי קספרוב הבין שאין ביכולתו לנצח את Deep Blue או את תוכנות השחמט שבאו בעקבותיה. אבל הוא גם גילה שאם הוא עובד בשיתוף פעולה עם תוכנת שחמט התוצאה היא צוות מנצח. זאת כנראה הגישה שבכתבה חדשה ב-Washington Monthly:

Why More Colleges Should Treat Students Like Numbers

הכתבה מדווחת על הנסיון של האוניברסיטה של דרום פלורידה שמנתחת את שלל נתוני הסטודנטים במגמה לעזור להם לסיים בהצלחה את לימודיהם. קשה למצוא פגם במטרה כזאת, אבל בכל זאת יש משהו קצת תמוה בכמה מהקביעות שבכתבה, לדוגמה:

Students who log on to the LMS, download materials, click on lectures, and contribute to discussions are much less likely to drop out than students who don’t. Student engagement can now be measured in real time.

קביעה כזאת דומה מאד להערה של גרין שמורים יכולים ללמוד הרבה על התלמידים שלהם אם פשוט יצפו בהם ברצינות. אודרי ווטרס רואה כאן ביטוי ל-“חוק” של ג’וסטין רייך. נדמה לי שרייך ביטא אותו לראשונה בכתבה ב-Education Week משנת 2014:

Students who do stuff will perform better on stuff than those who don’t do stuff.

וספק אם באמת יש צורך באלגוריתם משוכלל כדי להגיע למסקנה מרעישה כזאת.

לפני שנים רבות קהילת התקשוב בחינוך נהגה לטעון שהפדגוגיה חייבת להוביל את הטכנולוגיה. הטענה נשמעת מאד הגיונית, אם כי אני מניח שכבר אז ידענו שיותר מאשר מדובר בהובלה היה זה ענין של הדדיות שבה הטכנולוגיה מאפשרת דברים שאולי לא יכלו לבוא לביטוי פדגוגי במציאות טכנולוגית אחרת. באותה תקופה הטכנולוגיות הדיגיטאליות החדשות יכלו “להוביל” אותנו ליישום תפיסות פדגוגיות שהיה קשה יותר לממש בלעדיהן. וכאן ההבחנה של מרקוף עוזרת לנו להבין את הבעיה שלי עם הכיוון הנוכחי של התקשוב החינוכי.

הטכנולוגיות של עז היו טכנולוגיות IA, והן סייעו בקידום גישה חינוכית שהעצימה את הלומד, שעודדה לו לקחת פיקוד על הלמידה של עצמו. לעומת עז, הטכנולוגיות המובילות של היום, אלה שמכונים AI (גם אם לא פעם הכינוי מוטעה) מסתמכות על אלגוריתמים כדי לייעל את מלאכת ההקניה, והן עושות זאת תוך צמצום הנגיעה האנושית. יתכן מאד שה-AI מייעל את מלאכת ההוראה. אבל היא כמובן איננה שואלת אם זה החינוך שאנחנו רוצים. זאת שאלה שעליה רק בני אדם יכולים לענות. לצערי, במציאות התקשובית של היום, מציאות שבה אנשי טכנולוגיה ואנשי חינוך לכאורה משתפים פעולה, איננו מוצאים מספיק אנשים שאפילו שואלים את השאלה הזאת. ולכן נדמה לי שאצטרך להמשיך לכתוב כאן.

לא, זה איננו הסוף (אפילו אם כך אפשר להתרשם)

הקיץ התחיל, וכל הסיכויים הם שבמשך חודש או יותר לא אצליח להעלות משהו חדש לבלוג. יהיה כאן שקט. סביר להניח שהשקט יורגש פחות או יותר כמו שהרעש היחסי שנוצר כאן מורגש, כך שספק אם יש סיבה להודיע על השינוי. אבל יותר מאשר הכותרת של המאמרון הזה מתייחסת לפגרת השקט, היא נותנת ביטוי לאוסף של מאמרונים שהתפרסמו בשבועות האחרונים בבלוגוספירה החינוכית. המאמרונים האלה, רובם של פעילים ותיקים ומוערכים בתחום התקשוב החינוכי, מביעים אכזבה מרה מאד ממצבו של התחום היום.

לפני כמעט חודש ליסה ליין הכריזה:

The ed tech dream is dead

ליין מציינת שבמהלך עשרים השנים שבהן היא מלמדת בצורה מקוונת היא נעזרה בכלים רבים ומגוונים, עם הדגש על כלים ברשת שמאפשרים שיתוף פעולה פתוח בין לומדים. אבל לאחרונה הדאגה לשמירה על הפרטיות של הסטודנטים שלה גוברת. היא אמנם נזהרה לא להכנע במגבלות של ה-LMS, אבל מצד שני היא לא היתה ערנית מספיק לבעיות הגדולות שהגיעו מהכלים שהבטיחו חופש:

So whatever else Facebook and Google have done (and none of it struck me as exceptional or unusual), they have underlined my concerns about students working openly, and undermined public confidence in living portions of our lives on the web. We were so concerned about not being sold by Learning Management Systems that we were sold by the very providers who gave us freedom.

היא חשה שהיא כבר איננה יכולה להצדיק את השימוש בכלים שפעם היא אהבה. מה שנשאר לה לעשות הוא לנסות ליצור סביבה שמעודדת למידה תוך יצירת מטלות משמעותיות במסגרת של ה-LMS שהמוסד שלה כופה עליה.

בערך באותו הזמן ג’ון ורנר, במדור שלו ב-Inside Higher Ed, כתב על:

Ed-Tech That Makes Me Want to Scream

ורנר קובל על כך שההצמדות לסטנדרטים והדרישות כלפי המורים “ללמד” לפי תבניות מוצקות יוצרות מצב שבו בתי הספר אינם מאפשרים לתלמידים לפתח את האוטונומיה הדרושה ללמידה אמיתית:

One of the great projects of childhood is to become an autonomous person. School can and should be one of the places where we’re simultaneously most encouraged and most protected when it comes to developing this autonomy, working on our skills of self-regulation as we figure out who we are and what we believe. It is hours together with other small humans, interacting in a cooperative space under adult supervision, where ideally we are encouraged to identify and explore our curiosities.
Sometimes that means we need to just be left alone.

אבל בבתי הספר של היום לתלמידים פחות ופחות הזדמנויות להיות עם עצמם. ורנר מזכיר לנו שהיום יש כלים תקשוביים שעוקבים אחרי ההקלדות של התלמידים, ואחרי ההתנהגות שלהם לא רק בכיתה אלא גם במסדרונות בית הספר ובנסיעה באוטובוס, ויש גם מצלמות שבודקות, באמצעות אלגוריתמים, את הבעות הפנים של התלמידים כדי להבחין במידת הריכוז שלהם. כתבתי כאן בעבר על מספר כלים כאלה. ורנר מתאר כלי חדש, FaceMetrics, שכצפוי נעזר ב-“בינה מלאכותית” כדי “לשפר” את הלמידה. ורנר כותב:

Utilizing video working in concert with AI, FaceMetrics monitors the child’s behavior as they read, tracking eye movement to see how carefully or closely they might be reading, possibly saying, “You missed some paragraphs,” if it suspects skimming.

כלים “חינוכיים” כאלה שהיום נעשים יותר ויותר נפוצים בבתי הספר פועלים מתוך גישה שקובעת שחשוב לנצל כל רגע של נוכחות התלמיד בבית הספר כדי שהוא יקלוט כמה שיותר “ידע”.

מספר ימים אחרי שוורנר פרסם את המאמרון שלו ויל ריצ’רדסון הצטרף לאווירה הקודרת. הוא כתב:

There’s a growing sense that we’ve reached a breaking point with technologies in the classroom.

בין היתר ריצ’רדסון מתייחס למאמרון של ורנר (וגם, כמו ורנר, לכתבה ארוכה של בנימין הרולד ב-Education Week שסוקרת אוסף די מדכא של טכנולוגיות מעקב שמתיימרות להיות טכנולוגיות למידה). הוא מדגיש שבמשך שנים רבות הוא נשאר נאמן לרעיון שבני אדם וטכנולוגיות יכולים ללכת יד ביד כדי לקדם את הלמידה. אבל משהו בתקשוב החינוכי השתנה, והדגש שלו איננו מה שהיה פעם. היום:

More often than not, ed tech is something done to the student rather than done in service of the student.

כל אלה בוודאי מספיקים להכניס את הקורא (טוב, אולי “הקורא האובססיבי”) למצב רוח, אבל הם עדיין לא הכל. לפני שבוע מייק קראולי (Crowley) דיווח מכנס ה-ISTE, אחד הכנסים, והתערוכות, החשובים בתחום טכנולוגיות וחינוך. קראולי תיאר את אווירת הציפיה וההתרגשות בכנס לקראת הכרזה של חברת גוגל בדבר מרכיב חשוב חדש ב-Google Classroom. עם ההכרזה הוא באמת נדהם, אבל לא מפני שמדובר בכלי שמחולל שינוי חינוכי:

When the launch was announced, I was aghast. The big news was “locked mode” in Google Forms and, bizarrely, this news created quite an excited stir. The locked function permits teachers to eliminate distractions while students are taking an online quiz or test by preventing them from opening other windows and tabs. It also prevents students from performing an internet search. So much for empowerment. What, one must ask, is the tough problem being solved here that inspires innovation? Prohibiting students from cheating on traditional assessments using expensive tech tools to perform very basic 20th century tasks is the new transformation.

כמו רבים אחרים שמלווים את התקשוב בחינוך שנים רבות גם אני השתמשתי בכלים של גוגל, ומצאתי בהם ערך חינוכי משמעותי, אם כי כבר מספר שנים לא הרגשתי שהכלים החדשים שלה, או התוספות החדשים לכלים הישנים, באמת מקדמים את הלמידה. אבל קשה לי להבין כיצד האפשרות של נעילת החלונות של תלמידים בשעת מבחן יכולה לגרום להתלהבות. אינני בקיא ברזי הפיתוח כדי לקבוע אם יש כאן הישג טכנולוגי, אבל ברור לי שאין כאן הישג לימודי או חינוכי. קראולי רואה בסיפור הזה מטפורה למצב התקשוב החינוכי היום: השאיפות החינוכיות הגדולות של העבר מסתכמות היום בלהפוך את המוכר המסורתי ליותר יעיל. הוא איננו טוען שעלינו לנטוש את הדיגיטאליות בחינוך. הוא עדיין בדעה שאפשר, וצריך, לנצל כלים דיגיטאליים לקדם את הלמידה. אבל הוא איננו אופטימי:

Make no mistake about it. EdTech as we currently know it is dead, it’s over. We should retire the phrase right now. If education is to be the target of an industry that has grown increasingly obsessed with standardization, control, automation, and delivery efficiencies, then we must opt out.

ליין, ורנר, ריצ’רדסון, קראולי, ולא מעט אחרים שלא כתבו בשבועות האחרונים לא היו צריכים לשכנע אותי. כבר זמן רב מדי אני קובל כאן על הכיוון המוטעה, הלא חינוכי בעיני, שאליו התקשוב החינוכי פנה. דפי עבודה דיגיטאליים ומבחנים מקוונים הם עדיין דפי עבודה ומבחנים. מעקב אלגוריתמי אחר מידת הריכוז של תלמיד הוא אולי הישג טכנולוגי, אבל הוא איננו חינוך. יתכן מאד שקשה להרוויח מכלים נחמדים שמעצימים את הלמידה העצמית של התלמיד, ולכן מי שרוצה להרוויח צריך להמציא כלי חדש, ויקר, שיכול להבטיח שתלמידים יישארו ממוקדי משימה על מנת שהציונים שלהם ישתפרו. יתכן, אבל למה אנשי חינוך ירצו לקנות כלים כאלה?

ואם התקשוב החינוכי אכן מת, מה יעשה מי שבכל זאת חושב שהתקשוב צריך לשרת את הלמידה? אני מקווה שעל אף העובדה שאני שותף לדעות הדי מדכאות שהבאתי כאן, עדיין לא הרמנו דגל לבן. לחודש הקרוב יהיה כאן שקט, אבל אולי אי שם בעתיד הלא רחוק (אחרי הקיץ?) נגלה שעדיין יש תקווה.

מתן תשובות איננה התשובה

לפני מספר ימים ויל ריצ’רדסון פרסם מאמרון בבלוג שלו שבמרכזו סרטון YouTube שמציג אוזניות המאפשרות תרגום סימולטני של שיחה. הסרטון מראה כיצד מפתח האוזניות מדבר באנגלית וחברתו הצרפתייה שומעת בצרפתית. אין ספק, ממש מגניב.

אינני יודע בדיוק כיצד התרגום מתבצע, אבל זה כנראה באמצעות אפליקציה שמתווכת בין האוזניות (או בין האנשים שמשתמשים בהן) ומבצעת את התרגום. סביר להניח שאיכות התרגום דומה ליכולות התרגום הנוכחיות של גוגל, והיכולות האלו, כיודע, אינן תמיד משכנעות. אולי בגלל זה כתבה על האוזניות שהתפרסם בעיתון בריטי מציינת בפתיחה שההמצאה עשויה להיות שימושי להזמנת ארוחה במסעדה, או במציאת הדרך לבית מלון, בארץ זרה. שימוש מהסוג הזה קצת צנוע יותר מאשר הצהרתו של המפתח בסרטון:

This wearable uses translation technology to allow two people to speak different languages but still clearly understand each other. It’s the dream, you know?
ריצ’רדסון מתלהב מהסרטון, ושואל אלו השתמעויות יכולות להיות לאוזניות כאלו בשדה החינוך. הוא כותב שהוא איננו מתכחש לכך שיש חיוב רב בלימוד שפה זרה, אבל הוא מדגיש שלימוד שפה במסגרת בית ספרית איננו מציאה גדולה. הוא כותב שעכשיו, בזכות מכשיר כזה, קשה לדרוש שתלמידים ילמדו שפה זרה בבית הספר, והוא מסביר:
More important than speaking a foreign language is being understood. That’s getting easier and easier.
כמו ריצ’רדסון, אני רחוק מלהיות משוכנע שבית הספר הוא המקום המתאים ללימוד שפה זרה. הישיבה בכיתה מול מורה שכותב מילים חדשות על הלוח, והעתקת המילים האלו למחברת ושינונן עד אשר הן נקלטות איננה דרך יעילה לרכוש שפה (אפשר, כמובן, לטעון שזאת איננה דרך לרכוש ידע חדש כלשהו). כמו-כן, אני נוטה להסכים עם ריצ’רדסון שעל פי רוב חשוב יותר ליצור מצב שבו יבינו אותנו מאשר ממש לדעת שפה אחרת. אבל אולי דווקא מפני שאני מסכים עם הדברים האלה אני חש צורך לבחון את נושא האוזנייות יותר לעומק.

החינוך מציב את פיתוח היכולת של האדם להשפיע על הסביבה שלו כמטרה מרכזית. הוא מבקש להקנות לאדם את הכלים שיאפשרו לו להבין את עולמו ואת מקומו בו, וגם לפעול לעצב ולשנות אל אלה. על אף העובדה שלימוד שפה במסגרת בית הספר עשוי להיות משעמם ומייגע, השפה שנרכשת היא כלי שיכול לקדם את המטרות האלה. לעומת זאת, על אף העובדה שאוזניות ואפליקציה שמתרגמות משפה אחת לאחרת פותחת אפשרות של תקשורת, הן יוצרות תלות טכנולוגית. במקום לדעת מה אנחנו רוצים להגיד ולמצוא את הדרך לבטא את עצמנו, אנחנו מסתמכים על כלים לעשות זאת. העולם שלנו נעשה שטחי ונטול רבדים של רגש ממשי. איננו מרחיבים ומעשירים את העולם שלנו. מכשיר מתרגם, מגניב ככל שיהיה, איננו מעצים אותנו. הוא בסך הכל מייעל את החיים. אמנם יש כאן דוגמה של פלאי הטכנולוגיה, אבל משום מה אני חושש שהתרגומים שהמכשיר יבצע יהיו נטולי רגש ואנושיות. באמצעות מכשיר כזה אנחנו אולי מעבירים מסר במהירות, אבל אנחנו מוותרים על האתגר של ללמוד לבטא את עצמנו באופן מדויק ומעמיק.

יתכן שהתגובה שלי חריפה מדי. הרי שוב, קשה להתנגד למכשיר שמרחיב את יכולת התקשורת שלנו. במידה מסויימת התגובה שלי מושפעת משפע הפיתוחים האחרים שאנחנו עדים להם לאחרונה, מכשירים שבצורה דומה מייעלים את חיינו, אבל באותו הזמן גם הופכים אותנו לפסיביים לסביבה שלנו. לפני שבוע נערך ה-Google I/O, כנס המפתחים של חברת גוגל. אתר The Verge דיווח על כמה מהפיתוחים שסונדר פיצ’אי, מנכ”ל גוגל, הציג:

At the event, Pichai demonstrated the assistant’s ability to parse context by asking it what movies were playing tonight, specifying that he wanted to bring the kids, and then buying tickets, all without leaving the app and more or less in the way you’d speak to a human. … Google, Pichai said, sees the future of computing as an “ambient experience that extends beyond devices.”
מהתיאור הזה ניתן להתרשם שבעתיד הלא רחוק אנחנו ננהל שיחות עם המכשירים שלנו, ואלה יצייתו לפקודות שלנו. אבל מהדוגמאות של פיצ’אי נדמה שאותן שיחות יהיו תכליתיות ובנאליות. הבינה המלאכותית שגוגל מפתחת תשרת אותנו בסידרה ארוכה של פעולות יום-יומיות, רובן קשורות לקניות. גוגל איננה רואה אותנו כאנשים צמאי דעת שפונים לאינטרנט כדי ללמוד על העולם, אלא כצרכנים שאת חיינו אפשר לייעל באמצעות הכלים שהיא מציעה לנו. השימוש באפליקציה ואוזניות כדי לדבר עם מישהו שאיננו מבין את השפה שלנו בוודאי מרחיב אופקים יותר מאשר הפיתוחים האחרונים של גוגל, אבל משום מה אני חושש שגם השיחות האלו יהיו נטולי מהות.

לא קל למי שלפני שנים ראה כיצד התקשוב יכול לחולל שינויים חיוביים בחינוך לראות כיצד ההבטחה הזאת איננה מתממשת. סמוך לפרסום המאמרון של ריצ’רדסון גם ג’ף אוטכט פרסם מאמרון בבלוג שלו. אוטכט הוא איש חינוך שמעורב כבר שנים רבות בנסיון להעזר בתקשוב לחולל שינוי חיובי בחינוך. במאמרון הזה אוטכט דיווח על כנס המפתחים של גוגל – והוא די התלהב. הוא כותב על הפוטנציאל של machine learning – המצב שבו מחשבים ילמדו ללמד את עצמם – להשפיע בגדול על החינוך:

The idea that a student could soon be sitting at home and simply ask their Google Home device “How do I solve this problem?” and instead of the device giving the answer, it talks the student through how to solve the problem. It will ask the student questions, respond to those questions and actually teach the student. Now….yes….this is what parents do (and should do) and I’m not saying I want students talking to computers all the time. But it does open up some interesting possibilities for the future.
אכן, האפשרויות מעניינות, אבל מוזר בעיני שאוטכט חושב שאותו Google Home ידרבן את התלמיד למצוא פתרונות בעצמו. המגמה של גוגל, כפי שהיא באה לביטוי בדבריו של פיצ’אי, כמו המגמה הטכנולוגית הנוכחית בכללותה כפי שאפשר לזהות אותה בפיתוחים כמו אוזניות התרגום, היא להפוך את האדם לפסיבי. Google Home לא ידרבן את התלמיד לחשוב, אלא יגיש לו את התשובה באופן מיידי, ובעיני גוגל זאת תהיה תרומה לאנושות. עם כל הכבוד לנפלאות התקשוב, הפסיביות הזאת איננה מה שאנחנו מבקשים מהחינוך.

האם ההחלפה כבר התחילה?

סביר להניח שכל איש חינוך שמע לפחות פעם בעבר את המשפט:

Any teacher that can be replaced by a computer deserves to be.
לפעמים זוקפים את המפשט לסופר המדע-בדיוני ארתור סי קלארק ולפעמים לאיש החינוך דייוויד תורנברג. כך או כך, מדובר במשפט שבוודאי מעורר אי-נחת אצל מורים. (אי-שם קראתי שקלארק [או תורנברג] גם חש אי-נחת והצטער על כך שהוא בכלל אמר אותו.) אבל אפילו אם הוא מעורר אי-נחת, קשה לא להרגיש שיש בו יסוד של אמת. אם המורה הוא רובוט שפועל באופן מתוכנת, למה לא להחליף אותו עם הדבר האמיתי?

חשוב להבין שאם קלארק הוא אכן זה שאמר את המשפט הוא כנראה עשה זאת בספר משנת 1982. המחשבים של אז היו הרבה פחות מפותחים מאשר היום, ולכן אפשר להבין שבמשפט טמונה הציפייה שמורה עושה הרבה יותר מאשר רק מגיש מידע לתלמידים ובוחן אם הם קלטו את המידע הזה. אלה, הרי, היו השימושים המרכזיים של המחשב בחינוך באותה תקופה. לפני יותר משלושים שנה כבר היו מכונות הוראה, אבל ספק אם למורים היה מה לחשוש מהמכונות ההם, או מהמחשבים הראשונים שחדרו לחינוך. ברור היה שהמורה ממלא הרבה יותר פונקציות מאשר מה שהמחשב היה מסוגל לעשות אז.

אבל הרבה השתנה מאז, והיכולות של המחשב התרחבו וחדרו לתוך תחומים שעד לפני לא הרבה זמן עדיין נראו כדורשים תבונה אנושית. היום יש יישומי מחשב שמסוגלים לאבחן את קשיי הלמידה של התלמיד ולהכין עבורו מסלול לימוד שמתאים לרמתו ולדרכי הלימוד המועדפות עליו (או לפחות כך טוענים מפתחי היישומים האלה). בנוסף, המחשב מכיל בתוכו, או מאפשר גישה אל, הרבה יותר מידע מאשר ביכולתו של המורה לדעת. פתאום משפט שלפני דור נשמע כאזהרה כללית אך רחוקה מיישום הופך לאיום של ממש.

בפברואר 2012 קתי דייווידסון פרסמה מאמרון עם כותרת שבהחלט נראתה כאיום:

משום מה, דייווידסון, שבוודאי יודעת למי בדרך כלל משייכים את המשפט הדומה והמוכר יותר, בחרה לנסח אותו בצורה אחרת. אבל אחרי הכותרת היא הבהירה שלא מדובר בהמלצה אלא באתגר. היא הסבירה:
What I mean is that, given how sophisticated online technologies are becoming, given how many people around the world are clamoring for quality and low-cost education, given how seriously people in the online educational business (like Kahn Academy) are studying how people learn and what kind of help and interaction they need to learn, given all that, then, if we profs are adding no other value to our teaching but that which could be replicated on line, then, well, turn on the computers and get the over-priced profs out of the classrooms now.
לפני שנה ב-The Atlantic מיכאל גודסי כתב משהו דומה, אבל לא כאיום ולא כאתגר, אלא כנבואה. גודסי, מורה לכישורי שפה בבית ספר תיכון בקליפורניה, כותב שכאשר סטודנטים פונים אליו ושואלים אם כדאי להם להיות מורים הוא מתאר להם את מה שנראה לו כנוף הבית ספרי העתידי. בתיאור שלו יש אמצעי הוראה משוכללים ומורה מומחה (כוכב על!) המשודרים למסך גדול בכיתה, ואילו מנחה זוטר, שהוא מכנה “tech”, דואג להתנהלות התקינה של הכיתה. גודסי ממשיך ומתאר מצב שבוודאי די קוסם לאנשי כלכלה, והרבה פחות לאנשי חינוך:
Since the “tech” won’t require the extensive education and training of today’s teachers, the teacher’s union will fall apart, and that “tech” will earn about $15 an hour to facilitate a class of what could include over 50 students. This new progressive system will be justified and supported by the American public for several reasons: Each lesson will be among the most interesting and efficient lessons in the world; millions of dollars will be saved in reduced teacher salaries; the “techs” can specialize in classroom management; performance data will be standardized and immediately produced (and therefore “individualized”); and the country will finally achieve equity in its public school system.
גודסי מוסיף שהוא נהג להגיד שכל זה יקרה בעוד כ-20 שנים, וחשב שהוא מגזים. אבל בדיון עם עמית שהוא יועץ קריירות הוא הגיע למסקנה שהוא טועה – לא בנוגע למה שיתרחש, אלא לקצב ההתרחשות. לפי העמית שלו כל זה יתרחש תוך חמש או עשר שנים.

ואולי אנחנו כבר עדים לתחילת התהליך. לפני שבוע מקורות רבים דיווחו על כך שבקורס מקוון בנושא בינה מלאכותית ב-Georgia Institute of Technology אחד מתוך תשעה עוזרי ההוראה של הקורס היה מחשב שבעזרת תוכנת Watson של IBM השיב לפניות של הסטודנטים. עד סוף הקורס הסטודנטים לא ידעו שמדובר במחשב (על אף הרמז אשר בשם ה-“עזור” – Jill Watson), והסטודנטים היו מאד מרוצים מהאינטראקציה שלהם עם עוזר ההוראה הרובוטי.

בהתחשב בעובדה שבמהלך הקורס 300 הסטודנטים פנו לעוזרי ההוראה עם כ-10,000 שאלות, עוזר הוראה נוסף בוודאי הקל על עומס העבודה. מרצה הקורס הסביר:

One of the main reasons many students drop out is because they don’t receive enough teaching support. We created Jill as a way to provide faster answers and feedback.
ועל אלו שאלות המחשב ענה? שוב ממרצה הקורס:
One of the secrets of online classes is that the number of questions increases if you have more students, but the number of different questions doesn’t really go up…. Students tend to ask the same questions over and over again.
מתברר שרוב השאלות שהגיעו לעוזר ההוראה הרובוטי היו שאלות הקשורות לניהול הקורס – מתי יש להגיש עבודה, היכן נמצאת המטלה. כמו-כן, לא הזיק שעוזרי ההוראה האנושיים לא הכניסו הרבה מהאופי האישי שלהם להתכתבות שניהלו עם הסטודנטים. כתבה ב-Wall Street Journal מצטטת סטודנט שפנה לעזרה מהמחשב, ולא לרגע פקפק באנושיותו:
“I didn’t see personality in any of the posts,” he recalls. “But it’s what you’d expect from a TA, somewhat serious and all about giving you the answer.”

Indeed, most of the other TAs were equally deadpan, helping to keep up the charade.

רוג’ר שאנק כותב על הניסוי הזה, וכצפוי הוא איננו מתרשם. שאנק, בעל נסיון של שנים רבות בתחום של בינה מלאכותית, שואל מה צריכים לעשות על מנת ליצור עוזר הוראה רובוטי ומשיב:
We would first want to see what good teachers do when presented with problems students are having. The Georgia Tech program apparently was focused on answering student questions about due dates or assignments. That probably is what TA’s actually do which makes the AI TA question a very uninteresting question. Of course, a TA can be simulated if the TA’s job is basically robotic in the first place.
נדמה לי שבכך שאנק נוגע בשורש הבעיה, לפחות במקרה הספציפי הזה. ומתברר שהבעיה איננה בקיומו של מחשב שמחליף עוזר הוראה, אלא בציפייה שמה שעוזר הוראה עושה הוא לענות על שאלות ניהוליות. זה איננו שאנחנו צריכים לחשוש שהמחשב נעשה חכם מדי, אלא שאנחנו מתעקשים לטמטם את עצמנו. יתכן שאי-שם בעתיד הבינה המלאכותית תתפתח לרמה שבה מחשב יוכל ללמד קורס. אינני יודע. אבל נכון לעכשיו אם מחשבים יתחילו להחליף מורים זה לא יהיה בזכות החוכמה שלהם.

   —  —  —  —  —

הגיוני היה לסיים את המאמרון הזה בפיסקה הקודמת, אבל מתבקשת הערה נוספת. בתגובות לכתבה ב-Wall Street Journal קוראת אחת מעירה נקודה מעניינת. היא כותבת שהתפקיד של עוזר הוראה איננו רק לסייע לסטודנטים בקורס. הוא אמור גם לרכוש נסיון שיסייע בהתפתחות המקצועית שלו כמרצה:

Graduate students (PhDs) typically are required to be a TA not only to be assessed by their quality as a future professor, but a learning experience for them to know their teaching style, etc. If we start replacing TAs, I am curious what type of future professors we will create? It is unacceptable that the role of a TA is being replaced by a robot to create “efficiency” or to “Save money.” Learning in a classroom is a two-way street and I feel as though the introduction of robotic TAs makes it’s a one-way lane.
כאשר אנחנו מקדמים את הרובוטיזציה של תפקיד עוזר ההוראה אנחנו גם מצמצמים את הנסיון ההוראתי של עוזר ההוראה האנושי. אנחנו עשויים ליצור מעגל קסמים שבו בסופו של דבר נזדקק לרובוטים כמרצים מפני שסגל ההוראה העתידי לא רכש את הנסיון הדרוש כדי ללמד באופן מוצלח.

האם הבינה המלאכותית המשוחררת תתפרע?

סטיבן קראשן הוא פרופסור אמיריטוס בבית הספר לחינוך של האוניברסיטה של דרום קליפורניה. הוא גם בלשן עם פרסומים רבים על תהליך רכישת הקריאה. דרך סטיבן דאונס הגעתי לסדרה של מאמרונים שקראשן פרסם בימים האחרונים שמתייחסים לחוברת PDF חדשה בת 60 עמודים על בינה מלאכותית בחינוך שפורסם על ידי חברת פירסון:

פירסון נחשבת החברה הגדולה ביותר בעולם בענייני חינוך. במשך שנים היא היתה בין המו”לים הגדולים ביותר של ספרי לימוד, ובשנים האחרונות היא חודרת לתחום המבחנים המקוונים. היום היא מרחיבה את העיסוק ה-“חינוכי” שלה – במידה רבה בכיוון של שילוב של מבחנים לתוך ספרי לימוד דיגיטאליים. נדמה לי שהחוברת החדשה אמורה לשקף את הכיוון הזה, ולהצביע על לאן המגמה הזאת עשויה להתפתח.

כפי שכבר אפשר היה להתרשם בעבר, אינני בין אוהבי פירסון. בגלל זה אוזני היתה קרויה לביקורת החריפה של קראשן על החוברת. אבל דווקא גם בגלל זה ראיתי לנכון לקרוא את החוברת במלואה ולהתרשם ממנה בעצמי ולא סתם לאמץ את הגישה של קראשן באופן עיוור. כזכור, מדובר בחוברת בת 60 עמודים, אם כי שליש מהם מכילים איורים או כותרות, הקדמות וביבליוגרפיה. גם בטקסט עצמו יש שוליים מאד רחבים. קל להסיק שבמידה רבה מדובר בחוברת פרסומית. זאת ועוד: מחברי החוברת מגדירים את הבינה המלאכותית בחינוך (AIEd) בצורה מאד רחבה כך שהיא כמעט חופפת לכל מה שנעשה בתקשוב בחינוך באופן כללי. בנוסף, דוגמאות רבות בחוברת יונקות מנסיונות ה-CAI מלפני דור ויותר, כך שבמידה רבה ה-AIEd נתפסת כ-CAI המסורתי שהיום משתכללת בעזרת תוספת של ניתוח נתונים. לפי מחברי החוברת, בלב ה-AIEd:

is the scientific goal to “make computationally precise and explicit forms of educational, psychological and social knowledge which are often left implicit.” In other words, in addition to being the engine behind much ‘smart’ ed tech, AIEd is also a powerful tool to open up what is sometimes called the ‘black box of learning,’ giving us deeper, and more fine-grained understandings of how learning actually happens (for example, how it is influenced by the learner’s socio-economic and physical context, or by technology.)
חשוב לשים לב שהקטע באותיות נטויות שבטקסט למעלה לקוח ממאמר של ג’ון סלף משנת 1999. במילים אחרות, ל-AI החינוכי של פירסון שורשים עמוקים בהוראה הממוחשבת המסורתית. מחברי החוברת אמנם מתייחסים להתפתחויות ולשינויים בעולם התקשוב, אבל לכל אורכה שורשי ה-CAI מורגשים. קראשן רגיש מאד לרמזים האלה, ונדמה לי שהרגישות הזאת מוצדקת.

במאמרון הראשון בסדרה קראשן מצטט מעמוד 36 של החוברת:

With ongoing AIEd analysis of a student’s learning activities, there will be no need for the stop-and-test approach that characterises many current assessments. Instead of traditional assessments that rely upon evaluating small samples of what a student has been taught, AIEd-driven assessments will be built into meaningful learning activities, perhaps a game or a collaborative project, and will assess all of the learning (and teaching) that takes place, as it happens.
הקטע הזה אמנם מזכיר משחקים ופרויקטים שיתופיים, אבל בעיני קראשן אלה רק כיסוי למעקב מתמיד. קראשן מזכיר לנו שלפי החזון של פירסון:
new competency-based programs, now in development, will replace standardized testing
הוא מציין שבתגובה לתלונות של הורים על המספר ההולך וגדל של מבחנים שמוטלים על ילדיהם בפירסון התחילו לדבר על צמצום מערך המבחנים. אבל לפי קראשן הצמצום הזה נובע משילוב המבחנים לתוך ספרי הלימוד עצמם. הוא טוען שהחזון של פירסון איננו פחות מעקב, אלא ההפך – התלמידים “יזכו” להיבחנות מתמדת:
Imagine: real time data always available from every classroom on the planet.

This will make testing fever worse than ever. We can expect daily reports about schools, school districts, states and countries announced on radio, television, newspapers, and on dedicated internet websites, just like sports news, announcing how much progress has been made in mastering modules. This will result it even more testing pressure on the schools.

בעמוד 34 של החוברת המחברים מתארים כמה מההתערבויות שה-AIEd מאפשרת (קראשן מצטט רק חלק מהפיסקה הזאת):
The increasing range of data capture devices – such as biological data, voice recognition, and eye tracking – will enable AIEd systems to provide new types of evidence for currently difficult to assess skills. For example, a practice-based learning experience that incorporates elements of problem solving or collaboration might be assessed using a combination of data sources including voice recognition (to identify who is doing and saying what in a team activity) and eye tracking (to explore which learner is focusing on which learning resources at any particular moment in time).
מצד אחד המידע שנאסף מההתערבויות האלו בוודאי יכול למפות את הידע ואת הכישורים שתלמידים רוכשים, אבל קשה לא להרגיש שהתלמיד נמצא תחת זכוכית מגדלת (במקרה הטוב) במהלך כל יום הלימודים, וגם כל הזמן שספר הלימוד נמצא בידיו. קראשן, שמלכתחילה איננו סומך על כוונות פירסון, מהרהר שיותר מאשר המעקב הזה מיועד לעזור לתלמיד, זאת בעצם דרך לפקח עליו. כמו-כן, מפני שפירסון אוספת ואוגרת עוד ועוד מידע (חשוב, בוודאי) אודותיו, והמידע הזה שימושי רק אם הוא מרוכז תחת מטריה אחת, זאת דרך להבטיח שבמהלך לימודיו כל חומרי הלימוד שלו יבואו מפירסון:
This and other intrusions are designed to make sure students are focused on just the task in front them right now, and are participating in exactly the way the Pearson wants them to participate.
אחרי קריאת החוברת כולה, וגם את כל המאמרונים של קראשן שהתייחסו אליה (יש ארבעה) שאלתי את עצמי אם החששות של קראשן מוצדקים. הרי על אף בעייתיות לא מבוטלת, נדמה לי שיותר מאשר החוברת חושפת תכניות זדוניות של פירסון, היא מציגה התייחסות די לא מעמיקה, אפילו רדודה, של החברה לשילוב “הבינה המלאכותית” לתוך החינוך. ואולי במקום חזון פשוט יש כאן חומר פרסומי שתופס טרמפ על מונח חם בחדשות כדי לגרום לנו לחשוב שהמרכול הדי משומש שמוכר לנו כבר שנים רבות הוא בעצם חדש ומהפכני.

נכון לפרסום המאמרון הזה כמעט ולא מצאתי התייחסויות אחרות לחוברת של פירסון. אינני יודע אם זה מפני שרבים טרם ראו אותו, או מפני שמי שקרא אותו לא התרשם ולא הרגיש שיש טעם להתייחס. ב-Education Week טום ונדר ארק פרסם מאמרון בו הוא כינה את החוברת “חשובה”. היה צפוי שהחוברת תמצא חן בעיני ונדר ארק. אפשר להגיד שכותרת המאמרון שלו:

היתה כמעט צפויה – ונדר ארק ידוע כאחד שמתלהב מהיוזמות הדיגיטאליות של חברות גדולות. אין בכך שום פסול, אם כי במקום שהמאמרון שלו יתייחס לחוברת וירחיב על הרעיונות שבה הוא פשוט מתקצר אותה.

באתר של NPR אנייה קמנץ כותבת על החוברת וגם מדווחת על ראיון שהיא ערכה עם אחת מכותביה. ההתייחסות של קמנץ ביקורתית, אבל להבדיל מקראשן היא איננה מוצאת כוונות נסתרות בעייתיות. קמנץ מציינת שכאשר מדובר בהקניית יכולות רגשיות סביר להניח שמורים אנושיים טובים יותר מאשר מכונות ואלגוריתמים, אבל בעיניה אין זה אומר שבחינוך תמיד יעדיפו אנשים על מכונות. היא כותבת:

to beat people out for jobs, computer systems don’t necessarily have to be better at those jobs…. Because they work, more or less, for free.
מחברי החוברת אינם מבטלים את מקומם של המורים בנעשה החינוכי. הם אפילו מדגישים ששילוב מוצלח של הבינה המלאכותית בחינוך דורש שיתוף פעולה עם מורים. ובכל זאת, מורגש שבעתיד במקרה הטוב המורים עשויים לסייע לאלגוריתמים יותר מאשר האלגוריתמים לשרתו את המורים. קמנץ בוודאי צודקת כאשר היא מציינת שכתוצאה מהצלחת ה-AIEd, אם כי לא בהכרח מהחזון שלה, ההשפעה של המורים (האנושיים) על תהליך הלמידה תצומצם. היא צודקת גם בקביעה שעם חדירת ה-AIEd אנחנו עתידים לראות ריבוד מעמדי: תלמידים ממשפחות בעלות אמצעים יזכו למורים אנושיים ואילו תלמידים עניים ישבו מול צגי מחשב והתקדמותם בלימודים תיקבע על ידי אלגוריתמים.

הביקורת של קמנץ איננה חריפה כמו זאת של קראשן. היא אמנם מזהה נקודות מדאיגות בחוברת של פירסון, אבל להבדיל מקראשן היא איננה חוששת לשלום תלמידי בתי הספר אם וכאשר הרעיונות שבחוברת ייושמו. אבל כאשר מצרפים את הביקורת של קמנץ לזאת של קראשן התמונה העתידית של הבינה המלאכותית בחינוך נראית הרבה פחות נוצצת מאשר זאת שחברת פירסון מציירת. דווקא לא צריכים להיות פרנואידיים על מנת להרגיש שסדר היום האלגוריתמי של הבינה המלאכותית בחינוך עלול להרע לתלמידי בתי הספר.