בבדיקה החדשה שלה שורן הכינה “עבודות” שכללו 37 העתקות ממגוון סוגים וממקורות שונים והריצה את העבודות ב-Turnitin, ב-SafeAssign, ובגוגל. היא מצאה ש-Turnitin לא הצליח לזהות כמעט 40% מההעתקות, ו-SafeAssign לא זיהה יותר מ-56%. לגבי גוגל:
Google — which Schorn notes is free and worked the fastest — trounced both proprietary products. By searching for a string of three to five nouns in the essays, the search engine missed only two sources. Neither Turnitin nor SafeAssign identified the sources Google missed.
We say that we’re using this software in order to teach students about academic dishonesty, but we’re using software we know doesn’t work. … In effect, we’re trying to teach them about academic dishonesty by lying to them.
הבדיקות של שורן אינן היחידות שבוצעו. בעשור האחרון נערכו מספר בדיקות דומות, ובאופן עקבי התוצאות מצביעות על הצלחה חלקית בלבד בזיהוי העתקות. ובכל זאת אני מודה שתוצאות הבדיקה של שורן הפתיעו אותי. השנים האחרונות ראו שיפורים רבים ביכולת של מחשבים “לקרוא” טקסטים (ואפילו לכתוב אותם), ואפשר היה לצפות ש-Turnitin וכלים דומים יצליחו לשכלל את הכלים שלהם. גם אם אינני תומך בשימוש בכלים כאלה יכולתי להבין שהיום מכונות מסוגלות לעשות את המלאכה.
בעיית ההעתקות איננה חדשה, וככל שמבחר המקורות ברשת גדלה היא נעשית יותר ויותר חמורה. שורן מסבירה את המשיכה לכלים תקשוביים לטיפול בבעיה: הכיתות כל כך גדולות כך שהמרצים אינם יכולים לקרוא את כל מה שהם מבקשים מהסטודנטים שלהם לכתוב. וזה בעצם מציב בפנינו שאלה: האם האקדמיה באמת רואה את שיפור יכולת הכתיבה של הסטודנט כמטרה מרכזית, או האם היא פשוט מנציח מצב שבו היא מצפה לרמה של כתיבה אצל הסטודנט, ומענישה אותו כאשר הוא מעתיק, אבל לא נותנת לו את ההדרכה הדרושה כדי שילמד לכתוב. הכתבה מצטטת את שורן:
The real ethical question is how you can sell a product that doesn’t work to a business — the sector of higher education — that is really strapped for cash right now. … We’re paying instructors less, we’re having larger class sizes, but we’re able to find money for this policing tool that doesn’t actually work.
They are warlords who are arming both sides in this plagiarism war.