آیا لازم است برای کارهای درسی از هوش مصنوعی استفاده کنید؟ 94 درصد از نوشتههای تولیدشده با هوش مصنوعی از سوی معلمان شناسایی نمیشود!
دو سال از معرفی عمومی ChatGPT میگذرد و در هیچ بخشی تأثیر این فناوری به اندازه آموزش عمیق و زیانبار نبوده است. روزبهروز بیشتر میبینیم که تکالیف و مقالات امتحانی به جای دانشآموزان و دانشجویان، توسط هوش مصنوعی مولد نوشته میشوند و بهعنوان کار واقعی برای دریافت نمره، اعتبار یا مدرک ارائه میگردند.
این مسئلهای جدی است که ارزش دیپلم دبیرستانی و مدارک دانشگاهی را کاهش میدهد. همچنین، تعداد زیادی از افرادی که ظاهراً دارای صلاحیتهای لازم هستند، به مشاغل حساس مانند پرستاری، مهندسی و آتشنشانی وارد میشوند؛ در حالی که کمبود واقعی دانش آنها میتواند عواقب جدی و خطرناکی به همراه داشته باشد.
با این حال، جلوگیری از تقلب تحصیلی با استفاده از هوش مصنوعی هنوز اولویت بسیاری از مدارس و مؤسسات آموزشی نیست. باورنکردنی است که برخی از مدارس حتی استفاده از هوش مصنوعی را با اجازه دادن به استفاده از این فناوری و در عین حال ممنوع کردن فناوریهای قابل اعتمادی که میتوانند آن را تشخیص دهند، سادهتر و کمریسکتر کردهاند.
خاموش کردن این سیستمهای هشداردهنده یک اشتباه بزرگ است. چرا که تحقیقات جدید در بریتانیا بار دیگر نشان میدهد معلمان یا نمیتوانند و یا متوجه نمیشوند که آثار تحصیلی ارائهشده توسط دانشآموزان در واقع توسط یک ربات چت تولید شده است.
مطالعهای که توسط پیتر اسکارف و همکارانش در دانشگاه ردینگ انگلستان انجام شده، بررسی کرده است که اگر محققان پروفایلهای جعلی دانشجویی ایجاد کرده و کارهای ابتدایی تولیدشده توسط هوش مصنوعی را بهعنوان تکالیف این دانشجویان جعلی بدون اطلاع معلمان ارسال کنند، چه اتفاقی خواهد افتاد. نتایج این تحقیق نشان داد که: «بهطور کلی، پاسخ های تکالیف تولیدشده توسط هوش مصنوعی تقریباً غیرقابل شناسایی بودند، به طوری که 94 درصد آنها شناسایی نشدند. اگر معیار سختگیرانهتری برای شناسایی اعمال کنیم که در آن الزاماً باید بهطور مشخص از هوش مصنوعی نام برده شود، این عدد به 97 درصد افزایش مییابد.»
بله، درست خواندید – 97 درصد از کارهای تولیدشده توسط هوش مصنوعی در دروس دانشگاهی به عنوان احتمالاً تولید شده با هوش مصنوعی توسط معلمان پرچمگذاری نشدهاند. اما اوضاع بدتر از این است، زیرا گزارش همچنین اشاره میکند که: «بهطور کلی، نرخ شناسایی 6 درصدی ما احتمالاً توانایی واقعی ما در تشخیص استفاده از هوش مصنوعی برای تقلب در آزمونها را بیش از حد نشان میدهد.»
این اولین باری نیست که به ما هشدار داده شده که انسانها بهتنهایی قادر به تشخیص کارهای تولیدشده توسط هوش مصنوعی نیستند. سال گذشته، مطالعهای از دانشگاه فلوریدای جنوبی نتیجه گرفت که حتی زبانشناسان نیز نمیتوانند تفاوت بین متنی که توسط هوش مصنوعی تولید شده و متنی که توسط انسان نوشته شده است را تشخیص دهند.
در مطالعهای دیگر که سال گذشته توسط دانشگاههای آمریکایی ویتنام انجام شد، مشخص شد که سیستمهای تشخیص هوش مصنوعی در شناسایی متون تولیدشده توسط هوش مصنوعی بسیار بهتر از معلمان عمل میکنند. تیم تحقیقاتی ویتنام نوشت: «اگرچه سیستم تشخیص هوش مصنوعی Turnitin به درستی 91 درصد از مقالات را بهعنوان دارای محتوای تولیدشده توسط هوش مصنوعی شناسایی کرد، اما اعضای هیئت علمی فقط 54.5 درصد از مقالات را بهعنوان موارد احتمالی سوءرفتار تحصیلی گزارش کردند.»
در آن مطالعه، به معلمان از قبل اطلاع داده شده بود که مقالاتی با استفاده از هوش مصنوعی در دورههای آنها ارسال خواهد شد، اما آنها تنها کمی بیش از نیمی از این مقالات را شناسایی کردند. این تحقیق همچنین از «مهندسی درخواست» استفاده کرده بود تا مقالات را برای سیستمهای تشخیص هوش مصنوعی پیچیدهتر کند. با این وجود، ماشینها 91 درصد از مقالات را شناسایی کردند، در حالی که انسانها تنها موفق به شناسایی 55 درصد شدند. و با این حال، مدارس در حال غیرفعال کردن این سیستمهای تشخیص هستند.
باز هم تأکید میکنیم: حتی زمانی که به انسانها گفته شده بود به دنبال استفاده از هوش مصنوعی بگردند، باز هم به میزان قابلتوجهی ناکام بودند. وقتی انسانها در حالت آمادهباش نیستند و سیستمهای تشخیص هوش مصنوعی استفاده نمیشوند، همانطور که در مطالعه اخیر بریتانیا مشاهده شد، تقریباً تمام کارهای تولیدشده توسط هوش مصنوعی از دست میروند.
از این بدتر، مطالعه بریتانیا همچنین نشان داد که به طور میانگین، کارهای تولیدشده توسط هوش مصنوعی نمرات بهتری نسبت به کارهای واقعی دانشجویان دریافت کردهاند. گزارش بیان میکند: «ما دریافتیم که در 83.4 درصد موارد، نمرات مقالات تولیدشده توسط هوش مصنوعی از مقالاتی که بهصورت تصادفی از بین دانشجویان انتخاب شده بودند، بالاتر بود.»
به عبارت دیگر، یک دانشجو که از سادهترین درخواست تولید متن توسط هوش مصنوعی استفاده کرده بود، بدون هیچ ویرایش یا بازبینی، احتمالاً در 83 درصد موارد نمره بهتری نسبت به همکلاسیاش که واقعاً کار را انجام داده بود، کسب کرده است؛ آن هم در حالی که تنها 6 درصد احتمال داشت که کارش در صورت عدم استفاده از نرمافزارهای تشخیص هوش مصنوعی، پرچمگذاری شود.
به یاد داشته باشید که در کلاسهای واقعی، پرچمگذاری استفاده احتمالی از هوش مصنوعی معمولاً اهمیت چندانی ندارد، چرا که اساتید معمولاً تمایل چندانی به پیگیری موارد تخلف علمی ندارند. حتی زمانی که اساتید این تخلفات را شناسایی کنند، مدارس اغلب تمایلی به اعمال مجازات ندارند.
اخیراً بیبیسی به موردی پرداخته است که در آن یک دانشجوی دانشگاه به دلیل استفاده از هوش مصنوعی در یک مقاله علمی شناسایی شد؛ البته این شناسایی توسط یک سیستم تشخیصی هوش مصنوعی انجام شد. این دانشجو اعتراف کرد که با استفاده از هوش مصنوعی قوانین کلاس و دانشگاه را نقض کرده است. با این حال، بیبیسی گزارش داد: «او تبرئه شد زیرا هیئت تصمیمگیرنده اعلام کرد شواهد کافی علیه او وجود ندارد، حتی با وجود اینکه خودش به استفاده از هوش مصنوعی اعتراف کرده بود.»
در حال حاضر، اگر یک مدرسه یا معلم از فناوری تشخیص هوش مصنوعی استفاده نکند، استفاده از هوش مصنوعی برای تقلب نهتنها احتمالاً نمره بهتری برای دانشجو به همراه خواهد داشت، بلکه تقریباً هیچ عواقب منفیای هم نخواهد داشت. به بیان ساده، اگر مدرسه شما از سیستمهای تشخیص هوش مصنوعی استفاده نمیکند، عدم استفاده از هوش مصنوعی در تکالیف و امتحانات، بهویژه وقتی همکلاسیهایتان از آن استفاده میکنند، چیزی جز حماقت نیست. و حقیقت این است: همکلاسیهایتان از آن استفاده میکنند.
یکی از نکات مهم در نتایج مطالعه جدید بریتانیا این است که دانشجویان غیر واقعی در کلاسهای آنلاین شرکت داشتند و تکالیف جعلی خود را بهصورت آنلاین ارسال میکردند – جایی که معلمان نمیتوانستند هیچ اطلاعی از دانشجویان داشته باشند، از جمله اینکه آیا آنها واقعاً انسان هستند یا نه. این موضوع نشان میدهد که دورههای آنلاین نسبت به تقلب، بهویژه تقلب با هوش مصنوعی، آسیبپذیرتر هستند؛ چرا که معلمان دانشجویان خود را نمیشناسند و نمیتوانند کارهای آنها را مشاهده کنند.
طبیعتاً مدارس میتوانند از فناوری برای حل این مشکل استفاده کنند؛ مثلاً با نظارت بر انجام تکالیف و امتحانات یا استفاده از محیطهای نوشتاری که تغییرات و ویرایشها را ردیابی میکنند. اما دقیقاً مانند استفاده از سیستمهای تشخیص هوش مصنوعی، بسیاری از مدارس تمایلی به انجام این کارها ندارند، چرا که این اقدامات نیاز به صرف زمان و هزینه دارند.
به جای این کارها، آنها ترجیح میدهند دورههای آنلاین را بدون سیستمهای تشخیص هوش مصنوعی، بدون نظارت بر امتحانات و بدون امکان تأیید صحت کارها برگزار کنند – و این مسئولیت را بر عهده معلمان میگذارند که نقش کارآگاه هوش مصنوعی را ایفا کنند. این رویکردی است که کارآمد نیست، نبوده و نخواهد بود.
نتیجه این است که تقلب گسترده شده است، عمدتاً به این دلیل که مدارس علاقهای به شناسایی و اعمال پیامدها ندارند. دو سال از ظهور هوش مصنوعی میگذرد، اما هنوز هیچ تمایلی برای محدود کردن تأثیرات مخرب آن دیده نمیشود.