מידע מכובס היטב?

הנסיון מלמד שעל אף כל הכוונות שלי להקדיש לפחות חלק מכל קיץ לכתיבה לבלוג הזה, תמיד עולים עניינים אחרים והכתיבה לבלוג נדחקת הצידה. קיוויתי שבמשך הקיץ הזה אצליח לכתוב ביקורות על שני ספרים (שכבר התפרסמו לפני מספר שנים) שקשורים לתקשוב החינוכי. גם אם הספרים כבר אינם חדשים, לטעמי הם חשובים להבנת התחום. לכן בתחילת הקיץ התחלתי לאסוף את הפתקאות שלי ולארגן אותן למשהו פחות או יותר קוהרנטי. אבל כרגיל, הכוונות לא הפכו למעשים, ולקראת סוף הקיץ אני מגלה שהדבר היחיד שהצלחתי לכתוב עבור הבלוג הוא פתיחה יחסית קצרה למאמרון המשך למשהו שפרסמתי כאן עוד בחודש אפריל. את הפתיחה הזאת התחלתי בסוף יוני, ואולי אחרי איחור כל כך ארוך ראוי שהיא פשוט תיגנז. אבל בעיני הנושא עדיין רלוונטי, לא רק בתחום היחסית צר של החינוך, אלא באופן כלל “מידעי”. ולכן …

עוד בחודש אפריל (בגירסה המקורית של המאמרון הזה כתבתי “לפני קצת יותר מחודשיים”) קבלתי על השילוב של כלים כמו ChatGPT לתוך חיפוש מידע באינטרנט. טענתי שהשילוב הזה עתיד להעניק לנו “תשובות”, כאשר צריך להיות ברור שלפי תפיסה חינוכית בריאה “תשובות” אינן המטרה שאליה צריכים לשאוף. טענתי שכלים כמו ChatGPT מגישים לנו מידע שהוא ארוז היטב ובצורה משכנעת, וכתוצאה מכך המחפש איננו חש צורך לשאול אם המידע הזה אכן “אמין” או “נכון” אלא פשוט מקבל אותו כמוסמך. המצב החדש הזה שונה מאשר חיפוש המידע האינטרנטי ה-“מסורתי”, אותו חיפוש שעד היום ערכנו באמצעות מנועי חיפוש. בחיפוש ה-“מסורתי” התוצאות של החיפושים שלנו הוצגו כ-“הצעות” – קישורים שמזמינים אותנו להקליק עליהם, וכך לצלול פנימה לתוך מרחבי מידע שונים ומגוונים. קיבלנו על עצמנו את התפקיד של הערכת המידע וגיבוש דעה כלפי התוצאות השונות. בסביבה החינוכית החיפוש הראשוני הזה היה בסך הכל התחלה של תהליך – תהליך שהזמין אותנו לקבוע “דעה” אישית, ויש לקוות מנומקת, על הנושא אותו ביקשנו לחקור. נדרשנו למלא תפקיד פעיל בתהליך איסוף המידע – לשקול את פרטי המידע השונים שקיבלנו ולברור ביניהם לקראת נקיטת עמדה. באותו מאמרון מחודש אפריל הבעתי את דעתי שה-“תשובות” המוגשות לנו דרך טקסט שנוצר על ידי ChatGPT לכאורה מייתרות את שלב ההערכה ובכך מהוות סכנה לימודית מדאיגה.

עד כאן עיקר הטענה שלי באותו מאמרון מחודש אפריל. וכאילו אותה סכנה לא היתה מספיק בעייתית, לקראת סוף יוני, ב-The Verve, ג’יימס וינסנט (James Vincent) תיאר סכנה נוספת – סכנה שאפשר לכנות אותה לא לימודית בלבד, אלא כלל מידעית. הוא ביטא את הסכנה הזאת בכותרת המשנה של הכתבה שלו:

Generative AI models are changing the economy of the web, making it cheaper to generate lower-quality content. We’re just beginning to see the effects of these changes.

הטענה המרכזית של וינסנט היא שכבר היום הרשת מוצפת בטקסטים ובתמונות שהופקו על ידי כלים של Generative AI, ושכבר היום קיימת סכנה שהתפוקה הזאת תעלה על התפוקה ה-“אנושית”. אם עד היום כלים של Generative AI “למדו” מטקסטים ומתמונות שהיו “אנושיים” במקור, המצב הזה כבר משתנה וטקסטים רבים שנוצרים על ידי ה-AI נעשים לחלק מכובד ממאגר הטקסטים שעומד לרשות ה-AI. בעיני וינסנט ככל שהתהליך הזה ממשיך איכות המידע שמופק על ידי המערכות האלו תהיה יותר ויותר ירודה. עם זאת, זה לא ימנע מה-Generative AI להפוך למקור ה-“מידע” הראשי ברשת.

אפשר להבין למה מדובר בתהליך כמעט בלתי-הפיך. ה-Large Language Models הפופולריים היום נעזרים במאגר עצום של טקסטים שעליהם אפשר להמשיך לחבר עוד ועוד טקסטים. בתחילת הדרך המאגר הזה הוא, כמובן, כלל הכתיבה האנושית. אבל ככל שהכלים של Generative AI ממשיכים ליצור טקסטים שנעשים לחלק מהמאגר שעומד לרשות אותם מודלים, נוצר מצב שבו האמינות של המאגר הולכת ומצטמצמת. גם אם בתחילת הדרך כלי כמו ChatGPT מתבסס על מידע אמין, עם הזמן מאגר הטקסטים שממנו הוא “לומד” מזדהם, ואמיתוּת הטקסטים שמהם הכלים האלה לומדים מוטלת בספק.

וינסנט בוחן את השינוי הזה – הפקת מידע על ידי בני אדם מול הפקתו באמצעות כלי AI – במספר תחומים שונים. הוא מביא דוגמה מ-Stack Overflow, אתר שבו מתכנתים מעלים ומשיבים על שאלות תכנות. בנוגע לתשובות שה-AI מחולל הוא מצטט מנחים של האתר:

The primary problem is that while the answers which ChatGPT produces have a high rate of being incorrect, they typically look like they might be good and the answers are very easy to produce.

במילים אחרות, מה שנראה אמין נחשב “מספיק” אמין כדי שרבים יסמכו עליו, ודי מהר אנחנו מוצאים את עצמנו גולשים במדרון חלקלק לתוך מאגרי “מידע” שהם רחוקים מלהיות מהימנים.

עבור וינסנט הבעיה, או הסכנה, הגדולה ביותר נמצאת בכוונות של גוגל לשלב את ה-AI לתוך תוצאות החיפוש שלה. הוא כותב שבעקבות שילוב ChatGPT לתוך תוצאות חיפוש של Bing גוגל עורכת נסיונות של החלפת ה-traditional 10 blue links בתקצירים שה-AI מחולל. הוא מביע את החשש שהמשמעות של צעד כזה תהיה בעייתית ביותר. הוא כותב שזה עשוי להשפיע לרעה על אזורים נרחבים של הרשת שאליהם כולנו פונים (ביקורות על מוצרים, מתכונים, חדשות ועוד) ומוסיף:

In the end, Google might kill the ecosystem that created its value, or change it so irrevocably that its own existence is threatened.

כאן, אגב, חשוב לציין שהיתה בעייתיות גם באותם traditional 10 blue links. על אף העובדה שבקלות ובמהירות למדנו לסמוך עליהם, גם הם, והדרך שבה הסדר שלהם נקבע, היוו בעיה לא קטנה מבחינה מידעית.

הדאגה שלי, כמובן, איננה לקיומה של גוגל – היא בוודאי תשרוד ללא קשר לחיפושים שאני אערוך או לא אערוך. הדבר החשוב בעיני הוא איכות המידע שאפשר יהיה למצוא ברשת. לא ברור עד כמה כדאי יהיה ללמד את הסטודנטים שלנו כיצד לערוך חיפושי מידע מושכלים אם כבר מלכתחילה אמיתוּת אותו מידע שאליו הם מגיעים מוטלת בספק. אבל ממילא צריך להיות ברור שמערכות חינוך אינן מתקיימות במנותק מהעולם הסובב אותן, ובימינו “אמת” היא כבר מצרך די נדיר.

4 תגובות בנושא “מידע מכובס היטב?”

  1. חשיבות התהליך לרכישת ידע יורדת. אין זמן או רצון לעסוק בחיפוש, אימות או שלילה, קריאה מרובה, מיון ופסילה, אלא לקבל את התוצר המעובד מיד ליד. קל יותר, נגיש יותר, שטחי יותר. אנחנו מאבדים את התהליכים המשמעותיים ביותר לנו כבני אדם – את תהליכי החשיבה. וחבל.

  2. ג’יי
    כתמיד אתה חד ובהיר – הבעיה לחלוטין ברורה – כעת מידע חסר אמינות מוגש ב”אריזה” של אמינות ומהימנות כלומר – עוד לא אמדנו על היכולת ללמד כיצד להצליב מידע ולאתר עובדות מול פייק ניוז והנה אנחנו מקבלים חבילות של מידע בעל מראה אמין / מרשים בתוך מהלך מהיר של אובדן פרטיות אובדן הערכה של יכולות מקצועיות – וריצת אמוק לתוך המערכות ששואבות מאיתנו מידע ומחזירות אותו כפי שהן בוחרות להחזיר. זה אכן מעלה שאלות נוקבות לדיון וכמובן לא במנותק מכל המתרחש סביבנו. הקול שלך חייב להשמע ולעלות לדיון כך דעתי

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *