توصیه های یک کارشناس امنیتی برای ایمنی در استفاده از مدل های زبانی و چت بات های هوش مصنوعی
- یک کارشناس امنیت سایبری هشدار میدهد که نباید اطلاعات زیادی را با چتباتهای هوش مصنوعی مانند ChatGPT و گوگل Gemini به اشتراک گذاشت.
- دادههای چت میتوانند برای آموزش هوش مصنوعی مولد استفاده شوند و اطلاعات شخصی را قابل جستجو کنند.
- بسیاری از شرکتها فاقد سیاستهای هوش مصنوعی هستند که باعث میشود کارکنان بهطور ناخواسته اطلاعات محرمانه را به خطر بیندازند.
این مقاله ترجمه ای از مقاله ای از بیزنس اینسایدر است. مقاله ی مذکور بر اساس گفتگو با سباستین گیئرلینگر، معاون مهندسی شرکت Storyblok که یک سیستم مدیریت محتوا با ۲۴۰ کارمند در اتریش است، نوشته شده است. متن برای اختصار و وضوح ویرایش شده است:
من یک کارشناس امنیت و معاون مهندسی در یک شرکت سیستم مدیریت محتوا هستم که مشتریان آن شامل نتفلیکس، تسلا و آدیداس میشوند.
من معتقدم که هوش مصنوعی و پیشرفتهای اخیر آن برای فرایندهای کاری مفید هستند، اما قابلیتهای جدید این چتباتهای هوش مصنوعی مولد نیز نیازمند دقت و آگاهی بیشتری هستند.
در اینجا چهار موردی که باید در تعامل با چتباتهای هوش مصنوعی مانند ChatGPT شرکت OpenAI، گوگل Gemini، Anthropic’s Claude یا Perplexity AI به خاطر بسپارید را آوردهام.
مانند استفاده از شبکههای اجتماعی
یکی از نکات مهمی که در استفاده از این چتباتها باید به خاطر داشت این است که گفتگو تنها بین شما و هوش مصنوعی نیست.
من خودم از ChatGPT و مدلهای زبانی بزرگ مشابه برای پیشنهادهای تعطیلات استفاده میکنم و مثلاً سوالی مثل این می پرسم: چه مکانهای آفتابی خوب با سواحل مناسب در ماه مه و حداقل 25 درجه هستند.»
اما اگر جزئیات زیادی بدهم، مشکلاتی میتواند پیش بیاید. شرکت میتواند از این جزئیات برای آموزش مدل بعدی استفاده کند و کسی ممکن است از سیستم جدید درباره جزئیات زندگی من بپرسد و قسمتهایی از زندگیم قابل جستجو شود.
همین امر در مورد به اشتراک گذاشتن جزئیات مالی یا دارایی خالص شما با این مدلهای زبانی بزرگ نیز صدق میکند. هنوز موردی ندیدهایم که این اتفاق افتاده باشد. وارد کردن اطلاعات شخصی به سیستم و سپس فاش شدن آنها در جستجوها بدترین نتیجه ممکن خواهد بود.
ممکن است مدلهایی وجود داشته باشد که قادر به محاسبه دارایی خالص شما بر اساس محل زندگی، صنعتی که در آن فعالیت میکنید و جزئیات مربوط به والدین و سبک زندگی شما باشند. این اطلاعات احتمالاً برای محاسبه دارایی خالص و تعیین اینکه آیا شما هدف مناسبی برای کلاهبرداری هستید یا نه، کافی است.
اگر در مورد به اشتراک گذاشتن جزئیات شک دارید، از خود بپرسید آیا آن را در اینستاگرام منتشر میکنید؟ اگر پاسخ شما نه است، پس آن را در مدلهای زبانی بزرگ آپلود نکنید یا از این مدل ها نپرسید.
رعایت راهنماییهای شرکت در مورد هوش مصنوعی
با رایج شدن استفاده از هوش مصنوعی در محیطهای کاری برای وظایفی مانند کدنویسی یا تحلیل، ضروری است که از سیاستهای هوش مصنوعی شرکتتان پیروی کنید.
برای مثال، شرکت ما فهرستی از موارد محرمانه دارد که ما مجاز به آپلود آنها به هیچ چتبات یا مدل زبانی بزرگی (LLM) نیستیم. این موارد شامل اطلاعاتی مانند حقوقها، اطلاعات مربوط به کارکنان و عملکرد مالی است.
ما این کار را میکنیم زیرا نمیخواهیم کسی عباراتی مانند استراتژی کسبوکار Storyblok چیست را وارد کند و بعد ChatGPT همپین پاسخ بدهد:« استوریبلوک در حال حاضر بر روی ۱۰ فرصت جدید کار میکند، که شامل شرکتهای ۱، ۲، ۳، ۴ است و انتظار دارد که در سهماهه آینده درآمدی معادل X، Y، Z دلار داشته باشد.» این برای ما یک مشکل بزرگ خواهد بود.
برای کدنویسی، ما سیاستی داریم که هوش مصنوعی مانند Microsoft’s Copilot مسئول هیچ کدی شناخته نمیشود. تمامی کدهای تولید شده توسط هوش مصنوعی باید توسط یک توسعهدهنده انسانی بررسی شوند قبل از اینکه در کد های شرکت داخل شوند.
استفاده محتاطانه از مدلهای زبانی بزرگ (LLM) در محیط کار
در واقعیت، حدود ۷۵٪ از شرکتها هنوز سیاست مشخصی در زمینه هوش مصنوعی ندارند. بسیاری از کارفرمایان نیز اشتراکهای هوش مصنوعی شرکتی را تهیه نکردهاند و فقط به کارکنان خود گفتهاند:«هی، شما مجاز به استفاده از هوش مصنوعی در محل کار نیستید.»
اما مردم به استفاده از هوش مصنوعی با حسابهای شخصی خود گرایش پیدا میکنند، چون انسانها همیشه راهی پیدا میکنند. اینجاست که باید دقت کنیم چه اطلاعاتی را در یک مدل زبانی بزرگ (LLM) وارد میکنیم.
در گذشته، دلیلی واقعی برای آپلود دادههای شرکت به یک وبسایت تصادفی در اینترنت وجود نداشت. اما اکنون، کارمندان مالی یا مشاورانی که میخواهند بودجهای را تحلیل کنند، میتوانند به سادگی اعداد شرکت یا مشتری را در ChatGPT یا یک پلتفرم دیگر آپلود کرده و سؤالات خود را بپرسند. آنها بدون اینکه حتی متوجه شوند، اطلاعات محرمانه را فاش میکنند.
تمایز بین چتباتها
بسیار مهم است که بین چتباتهای هوش مصنوعی تمایز قائل شویم زیرا همه آنها به یک شکل ساخته نشدهاند.
وقتی از ChatGPT استفاده میکنم، به OpenAI و همه کسانی که در زنجیره تأمین آن دخیل هستند اعتماد دارم که تمام تلاش خود را برای اطمینان از امنیت سایبری انجام میدهند و اطلاعات من به دست افراد بد نخواهد افتاد. در حال حاضر به OpenAI اعتماد دارم.
به نظر من، خطرناکترین چتباتهای هوش مصنوعی، آنهایی هستند که بهصورت داخلی توسعه داده شدهاند. این چتباتها روی وبسایتهای شرکتهای هواپیمایی یا پزشکان پیدا میشوند و ممکن است در تمامی بهروزرسانیهای امنیتی سرمایهگذاری نکرده باشند.
برای مثال، ممکن است پزشکی یک چتبات بر روی وبسایت خود قرار دهد تا تریاژ اولیه مراجعان را انجام دهد. در این صورت کاربر شروع به وارد کردن اطلاعات بسیار محرمانه سلامتی خود می کند. در صورت نفوذ به این سایت و نشت دادهها، دیگران از بیماریهای او مطلع خواهند شد.
هر چه چت بات های هوش مصنوعی بیشتر به انسان شبیه شوند، ما به اشتراک گذاشتن موضوعات بیشتر و محرمانه تری تشویق می شویم. به عنوان یک قاعده کلی، توصیه من این است: افراد بدون ملاحظه از هر چتباتی استفاده نکنند و صرف نظر از اینکه با کدام مدل زبانی بزرگ (LLM) در حال گفتگو هستند، از وارد کردن جزئیات خیلی خاص خودداری کنند.