مقالات علمی-تحلیلی

مردم از چت‌بات‌ها چه چیزی می‌پرسند؟

چت‌بات‌های هوش مصنوعی دنیا را تکان داده‌اند. ما هزاران مکالمه را تحلیل کردیم تا ببینیم مردم واقعاً از آنها چه می‌پرسند و چه موضوعاتی بیشتر مورد بحث قرار می‌گیرد.

آنها ایمیل‌های کاری ما را تهیه می‌کنند و به ما کمک می‌کنند تا برای نوشتن رمان بزرگ آمریکایی ایده‌پردازی کنیم. آنها به سوالات ما درباره مشکلات به طرز شگفت‌انگیزی خصوصی پاسخ می‌دهند و به ما مشاوره شخصی می‌دهند.

انتشار ChatGPT توسط OpenAI در اواخر سال ۲۰۲۲ وعده یک عصر جدید از هوش مصنوعی را داد. اما تا کنون، ما اطلاعات کمی در مورد نحوه استفاده واقعی از چت‌بات‌های هوش مصنوعی داشتیم.

بنابراین روزنامه واشنگتن پست به نزدیک به ۲۰۰,۰۰۰ مکالمه به زبان انگلیسی از مجموعه داده‌های تحقیقاتی WildChat نگاه کرد که شامل پیام‌هایی از دو چت‌بات هوش مصنوعی ساخته شده بر اساس همان تکنولوژی پایه‌ای ChatGPT است. این مکالمات یکی از بزرگترین پایگاه داده‌های عمومی تعامل انسان و ربات در دنیای واقعی را تشکیل می‌دهند. پژوهشگران می‌گویند این مکالمات به طور زیادی نمایانگر نحوه استفاده مردم از چت‌بات‌هایی مانند ChatGPT هستند.

مردم از چت‌بات‌ها چه چیزی می‌پرسند؟

یونتیان دنگ، پسادکتری در موسسه Allen برای هوش مصنوعی که این پروژه در آنجا توسعه یافته است، گفت: “بزرگترین انگیزه پشت این کار این بود که بتوانیم تعاملات واقعی کاربران را به‌دست آوریم، برخلاف آزمایش‌هایی که در آزمایشگاه‌ها انجام می‌شود.” این چت‌بات‌ها رایگان هستند و کاربران می‌توانند به‌طور نامحدود با آن‌ها مکالمه کنند.

تحلیل نهایی واشنگتن پست شامل نزدیک به ۴۰,۰۰۰ مکالمه با WildChat بود که بر روی اولین دستوری که هر روز توسط هر کاربر ارسال شده بود، متمرکز بود. اینجا آنچه را که واشنگتن پست درباره چگونگی استفاده هزاران نفر از چت‌بات‌ها آموخت، آورده‌ایم.

چه چیزی بهتر از یک همکار ایده‌پرداز برای رفع مشکل نویسندگی است؟ یک‌پنجم از همه درخواست‌ها شامل درخواست‌های کمک به نوشتن داستان‌های طرفداران، فیلمنامه‌ها، جوک‌ها یا اشعار، یا انجام نقش‌بازی بود.

پژوهشگران می‌گویند چت‌بات‌های هوش مصنوعی برای ایده‌پردازی ساخته شده‌اند که از مهارت‌های واژه‌سازی این تکنولوژی بهره می‌برد و نیاز به رعایت دقیق حقایق ندارد. واشنگتن پست دریافت که مردم از چت‌بات‌ها برای کمک به نام‌گذاری کسب‌وکارها، ایجاد شخصیت‌های کتاب و نوشتن دیالوگ‌ها استفاده می‌کنند.

سایمون ویلیسون، برنامه‌نویس و محقق مستقل، گفت: «من فکر نمی‌کنم قبلاً تکنولوژی‌ای را دیده باشم که این‌همه مورد استفاده داشته باشد.»

او گفت که برخی از خلاقانه‌ترین داستان‌ها زمانی به وجود می‌آیند که کاربران سیستم را با سوالات اضافی به چالش می‌کشند به جای اینکه پاسخ اول آن را بپذیرند. به‌عنوان مثال، او گفت که شنیده است افرادی از آن برای کمک به ساخت شخصیت‌ها و داستان‌های Dungeons & Dragons استفاده می‌کنند؛ موردی که چندین بار در تحلیل واشنگتن پست از WildChat مشاهده شد.

بسیاری از چت‌بات‌ها محتوای جنسی صریح را محدود می‌کنند، اما این مانع از آن نمی‌شود که مردم سعی کنند از قوانین عبور کنند. بیش از 7 درصد از مکالمات دربارهٔ جنسیت است، از جمله درخواست‌های نقش‌بازی تحریک‌آمیز یا تصاویر تند.

در دوران همه‌گیری، مردم به چت‌بات‌های هوش مصنوعی که به عنوان همراه عمل می‌کنند، مانند Replika، هجوم آوردند. و برخی افراد از چت‌بات‌های معمولی برای ارتباط احساسی و گفتگوی جنسی استفاده می‌کنند. اما کارشناسان می‌گویند وابستگی عاطفی به نرم‌افزار خطرناک است: شرکت‌ها می‌توانند تغییراتی ایجاد کنند که «شخصیت» چت‌بات را تغییر دهد. و برخی کاربران گزارش داده‌اند که چت‌بات‌ها ممکن است تبدیل به رفتار تهاجمی شوند.

بسیاری از کاربران سعی کردند چت‌بات‌های WildChat را وادار به نقش‌بازی جنسی کنند با استفاده از روش‌هایی به نام جیل بریک، یا دستورات طراحی‌شده برای فریب سیستم. مقاله موسسه Allen برای هوش مصنوعی که مجموعه داده‌های WildChat را معرفی کرد، نشان داد که فرار از زندان در حدود نیمی از مواقع موفق به عبور از محافظ‌ها بود.

WildChat برای دسترسی به چت‌بات‌هایش نیازی به ایجاد حساب ندارد. نیلوفر میرشغله، پژوهشگر پسادکتری در علوم کامپیوتر در دانشگاه واشنگتن که مکالمات در WildChat را تحلیل کرده است، گفت: «کاربران ممکن است احساس کنند که WildChat از نظر ناشناس بودن نسبت به چیزی مانند ChatGPT بیشتر محافظت می‌کند. این ممکن است باعث راحتی بیشتر مردم در تلاش برای جلب محتوای جنسی صریح شده باشد.»

بیش از یک نفر از هر شش مکالمه به نظر می‌رسد که دانشجویانی هستند که به دنبال کمک با تکالیف درسی خود می‌باشند. برخی از آن‌ها به طور مشابه با یک معلم خصوصی، به چت‌بات‌ها مراجعه کردند و امید داشتند که درک بهتری از موضوعات درسی پیدا کنند.

دیگران به‌طور کامل از چت‌بات‌ها کمک می‌خواستند، سوالات چندگزینه‌ای را از نرم‌افزارهای آموزش آنلاین کپی کرده و پاسخ صحیح را طلب می‌کردند. چت‌بات‌ها معمولاً این درخواست‌ها را برآورده می‌کردند.

چت‌بات‌ها معمولاً بر روی داده‌های عمومی موجود، که می‌توانند شامل مقالات آنلاین، کتاب‌های درسی یا نوشته‌های تاریخی باشند، آموزش داده می‌شوند. این موضوع آن‌ها را به گزینه‌های جذابی برای دانشجویانی که به دنبال خلاصه کردن متون تاریخی و پاسخ به سوالات جغرافیایی هستند، تبدیل می‌کند. اما این کار با خطراتی همراه است. چت‌بات‌ها در واقع نمی‌فهمند چه می‌گویند؛ آن‌ها فقط گفتار انسانی را تقلید می‌کنند. و گاهی اوقات اطلاعات اشتباه یا خودساخته ارائه می‌دهند.

معلمان و اساتید با هجوم ناگهانی یادگیری مبتنی بر هوش مصنوعی دچار مشکل شده‌اند. برخی دانشگاه‌ها از آشکارسازهای متن‌های هوش مصنوعی برای تشخیص اطلاعات تولید شده در کار دانشجویان استفاده می‌کنند، اما این سیستم‌ها ناقص هستند و گاهی اوقات دانشجویان بی‌گناه را علامت‌گذاری می‌کنند.

حدود ۵ درصد از مکالمات شامل سوالات شخصی بود – مانند درخواست راهنمایی در مورد طریقه نظربازی یا اینکه وقتی شریک دوستی خیانت می‌کند، چه باید کرد.

ویلیسون گفت که انسان‌ها بسیار به متن حساس هستند. اگر کسی (یا چیزی) به خوبی بنویسد، ما آن شخص (یا چیز) را باهوش می‌پنداریم. اما چت‌بات‌ها معروف به ارائه اطلاعات نادرست یا توهین‌آمیز هستند و کارشناسان هشدار می‌دهند که نباید با آن‌ها مانند ماشین‌های حقیقت‌گو برخورد کرد.

ایتان مولیک، استادیار دانشکده وارتون که درباره هوش مصنوعی و تجارت تحقیق می‌کند، گفت: «تمام این موضوع به این برمی‌گردد که کاربران چگونه نتایج را تفسیر می‌کنند. آیا کاربران هوش مصنوعی را به عنوان مکانی دیگر برای دریافت بازخورد پس از مشاوره با دوستان و حرفه‌ای‌ها می‌بینند؟ یا اینکه آن را به عنوان منبع اصلی حکمت می‌پندارند؟»

او ادامه داد: «چت بات ها به عنوان منبع ارزان قیمت برای نظرات تکمیلی، فوق‌العاده است.»

افراد همچنین احساس راحتی می‌کردند که مقدار زیادی از اطلاعات شخصی خود را در مکالمات خود با چت‌بات‌ها ریخته‌اند. میرشغله، که ۵,۰۰۰ مکالمه در WildChat را بررسی کرده بود، نام کامل کاربران، نام‌های کارفرمایان و سایر اطلاعات شخصی را پیدا کرد. او گفت که انسان‌ها به راحتی به چت‌بات‌ها اعتماد می‌کنند.

کارشناسان حفظ حریم خصوصی به مردم هشدار داده‌اند که در مکالمات خود با چت‌بات‌ها بیش از حد باز نباشند، به‌خصوص به این دلیل که شرکت‌های توسعه‌دهنده این چت‌بات‌ها معمولاً چت‌های شما را ذخیره کرده و از آن‌ها برای آموزش فناوری‌هایشان استفاده می‌کنند.

اجزای مکالمات با Wildchat

بخش عظیمی از مکالمات WildChat دربردارنده کدنویسی رایانه‌ای است. حدود ۷ درصد از مکالمات درخواست کمک برای نوشتن، رفع اشکال یا درک کدهای رایانه‌ای بود. یک درصد دیگر از مکالمات به عنوان کمک به تکالیف طبقه‌بندی شد اما شامل سوالاتی درباره وظایف کدنویسی بود.

کاربران WildChat ممکن است از نظر تکنولوژیکی بیشتر از مخاطبان عام آگاه باشند، زیرا چت‌بات‌ها در انجمن هوش مصنوعی Hugging Face میزبان شده‌اند که بین کارکنان و محققان فناوری محبوب است. به هر حال، پژوهشگران می‌گویند که چت‌بات‌ها به‌ویژه در تجزیه و تحلیل و ارتباط با کد رایانه‌ای خوب عمل می‌کنند، زیرا زبان برنامه‌نویسی به قوانین سخت و قابل پیش‌بینی پایبند است.

ویلیسون گفت، چت‌بات‌ها به یاران معمولی مهندسان کامپیوتر تبدیل شده‌اند که از آن‌ها برای بررسی کار یا انجام وظایف تکراری استفاده می‌کنند.

این قابلیت سوالاتی را درباره آینده شغل‌های کدنویسی، به‌ویژه برای برنامه‌نویسان مبتدی، مطرح کرده است. اما شواهد قوی‌ای برای پیشنهاد این که چت‌بات‌ها جایگزین شغل‌های کدنویسی خواهند شد، وجود ندارد. حاتم رحمان، استادیار دانشکده مدیریت کلاگ در دانشگاه نورث‌وسترن که تاثیر هوش مصنوعی بر کار را بررسی می‌کند، این مطلب را بیان کرد.

در عوض، او گفت که این فناوری کدنویسی را برای افرادی که پیش‌زمینه‌ای در علوم رایانه ندارند، دسترس‌پذیرتر کرده است. او این موضوع را با برنامه‌های آماده‌سازی مالیات مثل TurboTax مقایسه کرد.

او گفت: «اکنون همه می‌توانند از آن برای تکمیل اظهارنامه مالیاتی پایه استفاده کنند. اما حسابداران ناپدید نشده‌اند، بلکه بر روی کارهای دارای مهارت بالا متمرکز شده‌اند.»

حدود ۱۵ درصد از مکالمات به نظر می‌رسد که درباره کار باشند — از جمله نوشتن ارائه‌ها، خودکارسازی وظایف تجارت الکترونیک یا تهیه ایمیلی برای اصرار بر گرفتن گواهی دکتر برای کودک بیمار از یک کارمند.

سال گذشته، واشنگتن پست دریافت که استفاده از این فناوری برای جایگزینی برخی از وظایف رایج مانند ارسال پیام‌ها یا تکمیل ارزیابی‌های خود، یک نقطه شروع مفید بود اما مستلزم مداخله زیاد انسانی برای اصلاح اشتباهات بود.

برخی کارفرمایان چت‌بات‌ها را پذیرفته و حتی به جای کارگران انسانی از آن‌ها استفاده می‌کنند. سایر صنایع همچنان نسبت به این فناوری نوظهور مردد هستند. سال گذشته، یک وکیل پس از استفاده از ChatGPT برای تهیه یک درخواست حقوقی از کار برکنار شد: این چت‌بات چندین استناد قانونی جعلی خلق کرده بود.

علاوه بر افرادی که به دنبال کمک در کارهای روزانه بودند، ۲ درصد دیگر از مکالمات به دنبال کمک برای یافتن شغل، نوشتن رزومه یا نامه پوششی، یا آماده‌سازی برای مصاحبه شغلی بودند.

عقلانی است که مردم بخواهند این فرآیندهای اغلب خسته‌کننده را خودکار کنند. اما رحمان هشدار داد که استفاده از این ابزارها برای درخواست شغل می‌تواند باعث شود که افراد برجسته نشوند، به‌خصوص وقتی که استفاده از آن‌ها رایج‌تر شود. او گفت: «شما ممکن است در نهایت موادی ایجاد کنید که بسیار شبیه به دیگران باشد.»

چت‌بات‌های WildChat برخلاف برخی دیگر از ربات‌های هوش مصنوعی که در تولید تصویر تخصص دارند، نمی‌توانند برای شما تصویری رسم کنند. با این حال، برخی از کاربران از آن درخواست کردند که برایشان تصویری ایجاد کند. (تولیدکننده متن این درخواست‌ها را رد کرد.)

چت‌بات‌های WildChat به کاربران کمک می‌کنند با یکی از آن تولیدکننده‌های تصویر هوش مصنوعی ارتباط برقرار کنند — حدود ۶ درصد از مکالمات درخواست کمک برای ایجاد دستورات برای Midjourney، یک تولیدکننده تصویر هوش مصنوعی، داشتند. اسم‌ عمومی که کاربران بیشتر درخواست کردند به تصویر کشیده شود «دختر» بود.

ربات‌های تولیدکننده تصویر، از جمله Midjourney، Stable Diffusion و DALL-E، به مردم این امکان را می‌دهند که تصاویر نیمه‌واقعی از تقریباً هر چیزی که دلشان می‌خواهد ایجاد کنند. هر چه دستور دقیق‌تر باشد، تصویر نیز دقیق‌تر خواهد بود. راهنماهای ایجاد دستورات نیز به صورت آنلاین ظاهر شده‌اند.

هرچند خلاقانه، ربات‌های تولید تصویر می‌توانند بحث‌برانگیز نیز باشند. آن‌ها گاهی تصاویر کلیشه‌ای یا دارای تعصب تولید می‌کنند و صنعت هنر را نیز مختل کرده‌اند، زیرا هنرمندان در تلاش هستند که تصمیم بگیرند چقدر از این تولیدکننده‌ها استفاده کنند یا آن‌ها را نادیده بگیرند.

حدود ۱۳ درصد از دستورات شامل کلمه «لطفاً» بودند. کارشناسان انتظار دارند که با گذر زمان، مردم به ارتباط با چت‌بات‌ها بیشتر اعتماد کنند، همان‌طور که بهترین روش‌های تعامل با موتورهای جستجو را یاد گرفتند. در تحلیل واشنگتن پست، بیشتر مردم فقط یک‌بار از چت‌بات‌های WildChat استفاده کردند.

اما چند کاربر پرکار تقریباً روزانه با چت‌بات‌ها صحبت می‌کردند. یک کاربر ۱۳,۲۱۳ مکالمه طی ۲۰۱ روز داشت. کاربر دیگری ۵,۹۶۰ مکالمه طی ۳۵۰ روز انجام داد — تقریباً هر روزی که WildChat فعال بود.

و همه هم محترمانه صحبت نمی‌کردند. در چند مورد، مردم با یک ناسزا یا استفاده از توهین‌های معمول علیه افراد سیاه‌پوست، همجنس‌گرا یا معلول پاسخ دادند.

فعلاً مردم هنوز در حال کشف زمان اعتماد یا نادیده گرفتن نتایج چت‌بات‌ها هستند.

مولیک از وارتون گفت: «هیچ دفترچه راهنمایی وجود ندارد. در نتیجه، شما شاهد هستید که مردم در زمان واقعی در حال اکتشاف نحوه استفاده از این تکنولوژی هستند.»

درباره این مقاله

تمام مکالمات ویژگی‌دار در اینجا بخشی از یک پایگاه‌داده عظیم تعاملات واقعی انسان-چت‌بات هستند که توسط مؤسسه Allen برای هوش مصنوعی منتشر شده است. ویرایش توسط کارلی دامب سادوف، مگان هویر و الکسیس فیتس. ویرایش نهایی توسط کری ال. بیرون.

روش‌شناسی

مؤسسه Allen برای هوش مصنوعی مجوز کاربران را برای ضبط تمام تعاملاتشان با چت‌بات‌های WildChat دریافت کرده و امسال یک پایگاه‌داده شامل حدود ۱ میلیون متن مکالمه را به عموم منتشر کرد. واشنگتن پست این پایگاه‌داده را تا تاریخ ۳ می تحلیل کرد.

تحلیل واشنگتن پست تعاملات چت‌بات‌ها که از خارج از ایالات متحده آمده بودن براساس دسته‌بندی موقعیت‌های جغرافیایی آدرس‌های IP توسط مؤسسه Allen را مستثنی کرد. همچنین مکالماتی که به زبان‌های غیر از انگلیسی انجام شده بود، یا درخواست‌های دستورات تولید تصویر Midjourney که شامل توضیحاتی به زبان چینی در قالب انگلیسی بود، فیلتر شدند. پست همچنین زیردسته‌احتمالی دستورات خودکار که هر نیم‌ساعت یک‌بار از ربات‌ها می‌خواستند “این عبارت را تکرار کنند” را خارج کرد.

چون بیش از نیمی از مکالمات انگلیسی آمریکایی در مجموعه داده از کمتر از 100 آدرس IP می‌آمد، تحلیل پست فقط اولین درخواست روزانه هر آدرس IP را شامل شد. تحلیل نهایی شامل 39,000 مکالمه از 16,000 آدرس IP مختلف بود. بیشتر مجموعه داده‌هایی که پست تحلیل کرد بر مبنای API GPT 3.5 Turbo بود، در حالی که برخی از GPT 4 پیشرفته‌تر استفاده کرده بودند.

تقسیم‌بندی دسته‌بندی‌های پست براساس نمونه‌ای تصادفی از 458 مکالمه بود که به‌صورت دستی توسط یک خبرنگار پست دسته‌بندی شده بودند. حاشیه‌خطای نمونه‌گیری حدود 5 درصد است.

مکالمات براساس کلمات کلیدی به عنوان مرتبط با سیاست و جنسیت کدگذاری شدند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *