مقالات علمی-تحلیلی

آیا لازم است برای کارهای درسی از هوش مصنوعی استفاده کنید؟ 94 درصد از نوشته‌های تولیدشده با هوش مصنوعی از سوی معلمان شناسایی نمی‌شود!

دو سال از معرفی عمومی ChatGPT می‌گذرد و در هیچ بخشی تأثیر این فناوری به اندازه آموزش عمیق و زیان‌بار نبوده است. روزبه‌روز بیشتر می‌بینیم که تکالیف و مقالات امتحانی به جای دانش‌آموزان و دانشجویان، توسط هوش مصنوعی مولد نوشته می‌شوند و به‌عنوان کار واقعی برای دریافت نمره، اعتبار یا مدرک ارائه می‌گردند.

این مسئله‌ای جدی است که ارزش دیپلم دبیرستانی و مدارک دانشگاهی را کاهش می‌دهد. همچنین، تعداد زیادی از افرادی که ظاهراً دارای صلاحیت‌های لازم هستند، به مشاغل حساس مانند پرستاری، مهندسی و آتش‌نشانی وارد می‌شوند؛ در حالی که کمبود واقعی دانش آن‌ها می‌تواند عواقب جدی و خطرناکی به همراه داشته باشد.

با این حال، جلوگیری از تقلب تحصیلی با استفاده از هوش مصنوعی هنوز اولویت بسیاری از مدارس و مؤسسات آموزشی نیست. باورنکردنی است که برخی از مدارس حتی استفاده از هوش مصنوعی را با اجازه دادن به استفاده از این فناوری و در عین حال ممنوع کردن فناوری‌های قابل اعتمادی که می‌توانند آن را تشخیص دهند، ساده‌تر و کم‌ریسک‌تر کرده‌اند.

خاموش کردن این سیستم‌های هشداردهنده یک اشتباه بزرگ است. چرا که تحقیقات جدید در بریتانیا بار دیگر نشان می‌دهد معلمان یا نمی‌توانند و یا متوجه نمی‌شوند که آثار تحصیلی ارائه‌شده توسط دانش‌آموزان در واقع توسط یک ربات چت تولید شده است.

مطالعه‌ای که توسط پیتر اسکارف و همکارانش در دانشگاه ردینگ انگلستان انجام شده، بررسی کرده است که اگر محققان پروفایل‌های جعلی دانشجویی ایجاد کرده و کارهای ابتدایی تولیدشده توسط هوش مصنوعی را به‌عنوان تکالیف این دانشجویان جعلی بدون اطلاع معلمان ارسال کنند، چه اتفاقی خواهد افتاد. نتایج این تحقیق نشان داد که: «به‌طور کلی، پاسخ های تکالیف تولیدشده توسط هوش مصنوعی تقریباً غیرقابل شناسایی بودند، به طوری که 94 درصد آن‌ها شناسایی نشدند. اگر معیار سختگیرانه‌تری برای شناسایی اعمال کنیم که در آن الزاماً باید به‌طور مشخص از هوش مصنوعی نام برده شود، این عدد به 97 درصد افزایش می‌یابد.»

بله، درست خواندید – 97 درصد از کارهای تولیدشده توسط هوش مصنوعی در دروس دانشگاهی به‌ عنوان احتمالاً تولید شده با هوش مصنوعی توسط معلمان پرچم‌گذاری نشده‌اند. اما اوضاع بدتر از این است، زیرا گزارش همچنین اشاره می‌کند که: «به‌طور کلی، نرخ شناسایی 6 درصدی ما احتمالاً توانایی واقعی ما در تشخیص استفاده از هوش مصنوعی برای تقلب در آزمون‌ها را بیش از حد نشان می‌دهد.»

این اولین باری نیست که به ما هشدار داده شده که انسان‌ها به‌تنهایی قادر به تشخیص کارهای تولیدشده توسط هوش مصنوعی نیستند. سال گذشته، مطالعه‌ای از دانشگاه فلوریدای جنوبی نتیجه گرفت که حتی زبان‌شناسان نیز نمی‌توانند تفاوت بین متنی که توسط هوش مصنوعی تولید شده و متنی که توسط انسان نوشته شده است را تشخیص دهند.

در مطالعه‌ای دیگر که سال گذشته توسط دانشگاه‌های آمریکایی ویتنام انجام شد، مشخص شد که سیستم‌های تشخیص هوش مصنوعی در شناسایی متون تولیدشده توسط هوش مصنوعی بسیار بهتر از معلمان عمل می‌کنند. تیم تحقیقاتی ویتنام نوشت: «اگرچه سیستم تشخیص هوش مصنوعی Turnitin به درستی 91 درصد از مقالات را به‌عنوان دارای محتوای تولیدشده توسط هوش مصنوعی شناسایی کرد، اما اعضای هیئت علمی فقط 54.5 درصد از مقالات را به‌عنوان موارد احتمالی سوءرفتار تحصیلی گزارش کردند.»

در آن مطالعه، به معلمان از قبل اطلاع داده شده بود که مقالاتی با استفاده از هوش مصنوعی در دوره‌های آن‌ها ارسال خواهد شد، اما آن‌ها تنها کمی بیش از نیمی از این مقالات را شناسایی کردند. این تحقیق همچنین از «مهندسی درخواست» استفاده کرده بود تا مقالات را برای سیستم‌های تشخیص هوش مصنوعی پیچیده‌تر کند. با این وجود، ماشین‌ها 91 درصد از مقالات را شناسایی کردند، در حالی که انسان‌ها تنها موفق به شناسایی 55 درصد شدند. و با این حال، مدارس در حال غیرفعال کردن این سیستم‌های تشخیص هستند.

باز هم تأکید می‌کنیم: حتی زمانی که به انسان‌ها گفته شده بود به دنبال استفاده از هوش مصنوعی بگردند، باز هم به میزان قابل‌توجهی ناکام بودند. وقتی انسان‌ها در حالت آماده‌باش نیستند و سیستم‌های تشخیص هوش مصنوعی استفاده نمی‌شوند، همان‌طور که در مطالعه اخیر بریتانیا مشاهده شد، تقریباً تمام کارهای تولیدشده توسط هوش مصنوعی از دست می‌روند.

از این بدتر، مطالعه بریتانیا همچنین نشان داد که به طور میانگین، کارهای تولیدشده توسط هوش مصنوعی نمرات بهتری نسبت به کارهای واقعی دانشجویان دریافت کرده‌اند. گزارش بیان می‌کند: «ما دریافتیم که در 83.4 درصد موارد، نمرات مقالات تولیدشده توسط هوش مصنوعی از مقالاتی که به‌صورت تصادفی از بین دانشجویان انتخاب شده بودند، بالاتر بود.»

به عبارت دیگر، یک دانشجو که از ساده‌ترین درخواست تولید متن توسط هوش مصنوعی استفاده کرده بود، بدون هیچ ویرایش یا بازبینی، احتمالاً در 83 درصد موارد نمره بهتری نسبت به همکلاسی‌اش که واقعاً کار را انجام داده بود، کسب کرده است؛ آن هم در حالی که تنها 6 درصد احتمال داشت که کارش در صورت عدم استفاده از نرم‌افزارهای تشخیص هوش مصنوعی، پرچم‌گذاری شود.

به یاد داشته باشید که در کلاس‌های واقعی، پرچم‌گذاری استفاده احتمالی از هوش مصنوعی معمولاً اهمیت چندانی ندارد، چرا که اساتید معمولاً تمایل چندانی به پیگیری موارد تخلف علمی ندارند. حتی زمانی که اساتید این تخلفات را شناسایی کنند، مدارس اغلب تمایلی به اعمال مجازات ندارند.

اخیراً بی‌بی‌سی به موردی پرداخته است که در آن یک دانشجوی دانشگاه به دلیل استفاده از هوش مصنوعی در یک مقاله علمی شناسایی شد؛ البته این شناسایی توسط یک سیستم تشخیصی هوش مصنوعی انجام شد. این دانشجو اعتراف کرد که با استفاده از هوش مصنوعی قوانین کلاس و دانشگاه را نقض کرده است. با این حال، بی‌بی‌سی گزارش داد: «او تبرئه شد زیرا هیئت تصمیم‌گیرنده اعلام کرد شواهد کافی علیه او وجود ندارد، حتی با وجود اینکه خودش به استفاده از هوش مصنوعی اعتراف کرده بود.»

در حال حاضر، اگر یک مدرسه یا معلم از فناوری تشخیص هوش مصنوعی استفاده نکند، استفاده از هوش مصنوعی برای تقلب نه‌تنها احتمالاً نمره بهتری برای دانشجو به همراه خواهد داشت، بلکه تقریباً هیچ عواقب منفی‌ای هم نخواهد داشت. به بیان ساده، اگر مدرسه شما از سیستم‌های تشخیص هوش مصنوعی استفاده نمی‌کند، عدم استفاده از هوش مصنوعی در تکالیف و امتحانات، به‌ویژه وقتی همکلاسی‌هایتان از آن استفاده می‌کنند، چیزی جز حماقت نیست. و حقیقت این است: همکلاسی‌هایتان از آن استفاده می‌کنند.

یکی از نکات مهم در نتایج مطالعه جدید بریتانیا این است که دانشجویان غیر واقعی در کلاس‌های آنلاین شرکت داشتند و تکالیف جعلی خود را به‌صورت آنلاین ارسال می‌کردند – جایی که معلمان نمی‌توانستند هیچ اطلاعی از دانشجویان داشته باشند، از جمله اینکه آیا آن‌ها واقعاً انسان هستند یا نه. این موضوع نشان می‌دهد که دوره‌های آنلاین نسبت به تقلب، به‌ویژه تقلب با هوش مصنوعی، آسیب‌پذیرتر هستند؛ چرا که معلمان دانشجویان خود را نمی‌شناسند و نمی‌توانند کارهای آن‌ها را مشاهده کنند.

طبیعتاً مدارس می‌توانند از فناوری برای حل این مشکل استفاده کنند؛ مثلاً با نظارت بر انجام تکالیف و امتحانات یا استفاده از محیط‌های نوشتاری که تغییرات و ویرایش‌ها را ردیابی می‌کنند. اما دقیقاً مانند استفاده از سیستم‌های تشخیص هوش مصنوعی، بسیاری از مدارس تمایلی به انجام این کارها ندارند، چرا که این اقدامات نیاز به صرف زمان و هزینه دارند.

به جای این کارها، آن‌ها ترجیح می‌دهند دوره‌های آنلاین را بدون سیستم‌های تشخیص هوش مصنوعی، بدون نظارت بر امتحانات و بدون امکان تأیید صحت کارها برگزار کنند – و این مسئولیت را بر عهده معلمان می‌گذارند که نقش کارآگاه هوش مصنوعی را ایفا کنند. این رویکردی است که کارآمد نیست، نبوده و نخواهد بود.

نتیجه این است که تقلب گسترده شده است، عمدتاً به این دلیل که مدارس علاقه‌ای به شناسایی و اعمال پیامدها ندارند. دو سال از ظهور هوش مصنوعی می‌گذرد، اما هنوز هیچ تمایلی برای محدود کردن تأثیرات مخرب آن دیده نمی‌شود.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *