مقالات علمی-تحلیلی

توصیه های یک کارشناس امنیتی برای ایمنی در استفاده از مدل های زبانی و چت بات های هوش مصنوعی

  • یک کارشناس امنیت سایبری هشدار می‌دهد که نباید اطلاعات زیادی را با چت‌بات‌های هوش مصنوعی مانند ChatGPT و گوگل Gemini به اشتراک گذاشت.
  • داده‌های چت می‌توانند برای آموزش هوش مصنوعی مولد استفاده شوند و اطلاعات شخصی را قابل جستجو کنند.
  • بسیاری از شرکت‌ها فاقد سیاست‌های هوش مصنوعی هستند که باعث می‌شود کارکنان به‌طور ناخواسته اطلاعات محرمانه را به خطر بیندازند.

این مقاله ترجمه ای از مقاله ای از بیزنس اینسایدر است. مقاله ی مذکور بر اساس گفتگو با سباستین گیئرلینگر، معاون مهندسی شرکت Storyblok که یک سیستم مدیریت محتوا با ۲۴۰ کارمند در اتریش است، نوشته شده است. متن برای اختصار و وضوح ویرایش شده است:

من یک کارشناس امنیت و معاون مهندسی در یک شرکت سیستم مدیریت محتوا هستم که مشتریان آن شامل نتفلیکس، تسلا و آدیداس می‌شوند.

من معتقدم که هوش مصنوعی و پیشرفت‌های اخیر آن برای فرایندهای کاری مفید هستند، اما قابلیت‌های جدید این چت‌بات‌های هوش مصنوعی مولد نیز نیازمند دقت و آگاهی بیشتری هستند.

در اینجا چهار موردی که باید در تعامل با چت‌بات‌های هوش مصنوعی مانند ChatGPT شرکت OpenAI، گوگل Gemini، Anthropic’s Claude یا Perplexity AI به خاطر بسپارید را آورده‌ام.

مانند استفاده از شبکه‌های اجتماعی

یکی از نکات مهمی که در استفاده از این چت‌بات‌ها باید به خاطر داشت این است که گفتگو تنها بین شما و هوش مصنوعی نیست.

من خودم از ChatGPT و مدل‌های زبانی بزرگ مشابه برای پیشنهادهای تعطیلات استفاده می‌کنم و مثلاً سوالی مثل این می پرسم: چه مکان‌های آفتابی خوب با سواحل مناسب در ماه مه و حداقل 25 درجه هستند.»

اما اگر جزئیات زیادی بدهم، مشکلاتی می‌تواند پیش بیاید. شرکت می‌تواند از این جزئیات برای آموزش مدل بعدی استفاده کند و کسی ممکن است از سیستم جدید درباره جزئیات زندگی من بپرسد و قسمت‌هایی از زندگیم قابل جستجو شود.

همین امر در مورد به اشتراک گذاشتن جزئیات مالی یا دارایی خالص شما با این مدل‌های زبانی بزرگ  نیز صدق می‌کند. هنوز موردی ندیده‌ایم که این اتفاق افتاده باشد. وارد کردن اطلاعات شخصی به سیستم و سپس فاش شدن آنها در جستجوها بدترین نتیجه ممکن خواهد بود.

ممکن است مدل‌هایی وجود داشته باشد که قادر به محاسبه دارایی خالص شما بر اساس محل زندگی، صنعتی که در آن فعالیت می‌کنید و جزئیات مربوط به والدین و سبک زندگی شما باشند. این اطلاعات احتمالاً برای محاسبه دارایی خالص و تعیین اینکه آیا شما هدف مناسبی برای کلاهبرداری هستید یا نه، کافی است.

اگر در مورد به اشتراک گذاشتن جزئیات شک دارید، از خود بپرسید آیا آن را در اینستاگرام منتشر می‌کنید؟ اگر پاسخ شما نه است، پس آن را در مدل‌های زبانی بزرگ آپلود نکنید یا از این مدل ها نپرسید.

رعایت راهنمایی‌های شرکت در مورد هوش مصنوعی

با رایج شدن استفاده از هوش مصنوعی در محیط‌های کاری برای وظایفی مانند کدنویسی یا تحلیل، ضروری است که از سیاست‌های هوش مصنوعی شرکتتان پیروی کنید.

برای مثال، شرکت ما فهرستی از موارد محرمانه دارد که ما مجاز به آپلود آنها به هیچ چت‌بات یا مدل زبانی بزرگی (LLM) نیستیم. این موارد شامل اطلاعاتی مانند حقوق‌ها، اطلاعات مربوط به کارکنان و عملکرد مالی است.

ما این کار را می‌کنیم زیرا نمی‌خواهیم کسی عباراتی مانند استراتژی کسب‌وکار Storyblok چیست را وارد کند و بعد ChatGPT همپین پاسخ بدهد:« استوری‌بلوک در حال حاضر بر روی ۱۰ فرصت جدید کار می‌کند، که شامل شرکت‌های ۱، ۲، ۳، ۴ است و انتظار دارد که در سه‌ماهه آینده درآمدی معادل X، Y، Z دلار داشته باشد.» این برای ما یک مشکل بزرگ خواهد بود.

برای کدنویسی، ما سیاستی داریم که هوش مصنوعی مانند Microsoft’s Copilot مسئول هیچ کدی شناخته نمی‌شود. تمامی کدهای تولید شده توسط هوش مصنوعی باید توسط یک توسعه‌دهنده انسانی بررسی شوند قبل از اینکه در کد های شرکت داخل شوند.

استفاده محتاطانه از مدل‌های زبانی بزرگ (LLM) در محیط کار

در واقعیت، حدود ۷۵٪ از شرکت‌ها هنوز سیاست مشخصی در زمینه هوش مصنوعی ندارند. بسیاری از کارفرمایان نیز اشتراک‌های هوش مصنوعی شرکتی را تهیه نکرده‌اند و فقط به کارکنان خود گفته‌اند:«هی، شما مجاز به استفاده از هوش مصنوعی در محل کار نیستید.»

اما مردم به استفاده از هوش مصنوعی با حساب‌های شخصی خود گرایش پیدا می‌کنند، چون انسان‌ها همیشه راهی پیدا می‌کنند. اینجاست که باید دقت کنیم چه اطلاعاتی را در یک مدل زبانی بزرگ (LLM) وارد می‌کنیم.

در گذشته، دلیلی واقعی برای آپلود داده‌های شرکت به یک وب‌سایت تصادفی در اینترنت وجود نداشت. اما اکنون، کارمندان مالی یا مشاورانی که می‌خواهند بودجه‌ای را تحلیل کنند، می‌توانند به سادگی اعداد شرکت یا مشتری را در ChatGPT یا یک پلتفرم دیگر آپلود کرده و سؤالات خود را بپرسند. آنها بدون اینکه حتی متوجه شوند، اطلاعات محرمانه را فاش می‌کنند.

تمایز بین چت‌بات‌ها

بسیار مهم است که بین چت‌بات‌های هوش مصنوعی تمایز قائل شویم زیرا همه آنها به یک شکل ساخته نشده‌اند.

وقتی از ChatGPT استفاده می‌کنم، به OpenAI و همه کسانی که در زنجیره تأمین آن دخیل هستند اعتماد دارم که تمام تلاش خود را برای اطمینان از امنیت سایبری انجام می‌دهند و اطلاعات من به دست افراد بد نخواهد افتاد. در حال حاضر به OpenAI اعتماد دارم.

به نظر من، خطرناک‌ترین چت‌بات‌های هوش مصنوعی، آنهایی هستند که به‌صورت داخلی توسعه داده شده‌اند. این چت‌بات‌ها روی وب‌سایت‌های شرکت‌های هواپیمایی یا پزشکان پیدا می‌شوند و ممکن است در تمامی به‌روزرسانی‌های امنیتی سرمایه‌گذاری نکرده باشند.

برای مثال، ممکن است پزشکی یک چت‌بات بر روی وب‌سایت خود قرار دهد تا تریاژ اولیه مراجعان را انجام دهد. در این صورت کاربر شروع به وارد کردن اطلاعات بسیار محرمانه سلامتی خود می کند. در صورت نفوذ به این سایت و نشت داده‌ها، دیگران از بیماری‌های او مطلع خواهند شد.

هر چه چت بات های هوش مصنوعی بیشتر به انسان شبیه شوند، ما به اشتراک گذاشتن موضوعات بیشتر و محرمانه تری تشویق می شویم. به عنوان یک قاعده کلی، توصیه من این است: افراد بدون ملاحظه از هر چت‌باتی استفاده نکنند و صرف نظر از اینکه با کدام مدل زبانی بزرگ (LLM) در حال گفتگو هستند، از وارد کردن جزئیات خیلی خاص خودداری کنند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *