راهکار متن باز موسسه ایمنی هوش مصنوعی بریتانیا
موسسه ایمنی هوش مصنوعی بریتانیا که اخیرا از سوی دولت این کشور برای ایمنی هوش مصنوعی تاسیس شده است، مجموعه ابزاری را برای تقویت ایمنی هوش مصنوعی منتشر کرده است. این ابزارها به دنبال آسان سازی فرایند توسعه روش های ارزیابی هوش مصنوعی برای سازمان های تحقیقاتی و دانشگاه ها هستند.
این مجموعه Inspect یا بازرس نام دارد، تحت مجوز MIT به صورت متن باز با هدف ارزیابی قابلیت های خاصی از مدل های هوش مصنوعی، مانند دانش کلی و توانایی استدلال منتشر شده و پس از ارزیابی، به نتایج نمره می دهد.
در بیانیه ای موسسه ادعا کرد که این اولین باری است که یک پلتفرم ایمنی هوش مصنوعی که توسط نهاد های دولتی اداره می شود، منتشر شده است.
ایان هوگارث، رییس این موسسه ایمنی هوش مصنوعی در بیانیه ای گفت:« همکاری موفقیت آمیز در آزمایش ایمنی هوش مصنوعی به این معناست که ما یک رویکرد در دسترس و مشترک برای ارزیابی داشته باشم. ما امیدواریم که فعالان هوش مصنوعی از “Inspect” نه فقط برای آزمون ایمنی مدل های هوش مصنوعی ، بلکه برای ارزیابی و کمک به ایجاد پلتفرم متن باز استفاده شود تا بتوانیم ارزیابی هایمان را با کیفیتی بالا در جهان گسترش بدهیم.»
معیار های امنیتی هوش مصنوعی می تواند بسیار سخت گیرانه باشد، بنابراین مدل های پیچیده تر و بزرگتر هوش مصنوعی در جهان، داده های آموزشی و جزییات مهم و کلیدیشان را همیشه مخفی می کنند. Inspect چه گونه این مسائل را حل می کند؟ با قابلیت گسترش و استفاده در مدل ها و تکنیک های آزمایشی جدید.
Inspect از سه جز اصلی تشکلی شده است:
- داده ها
- راه حل ها
- امتیاز دهی
مجموعه داده ها نمونه هایی را برای آزمون های ارزیابی پیشنهاد می دهد. راه حل ها، ارزیابی و تست را انجام می دهند. و امتیازدهندگان نتیجه راه حل ها را ارزیابی کرده و نمره می دهند. از سوی دیگر، Inspect را می توان با بسته های خارجی در زبان پایتون استفاده کرد.
دیبورا راژ؛ محقق در موزیلا و متخصص اخلاق هوض مصنوعی ، در صفحه خود در شبکه اجتماعی ایکس، این ابزار را گواهی بر قدرت سرمایه گذاری عمومی در ابزارهای متن باز با هدف مسئولیت پذیری هوش مصنوعی خواند.
وای! یک ابزار جدید آنالیز جدید از سیستم شناسایی خودکار بریتانیا!کلیمنتِ دیلانگو مدیر عامل استارت آپ هوش مصنوعی هاگینگ فیس(Hugging Face) ایده ادغام Inspect با کتابخانه های این سایت و ساخت یک تابلوی امتیاز عمومی را در هاگینگ فیس مطرح کرد.
انتشار Inspect بعد از راه اندازی Nist GenAI از سوی سازمان ملی استاندارد و فناوری ایالات متحده بود. برنامه ی GenAI برای ارزیابی فناوری های مختلف، مانند هوش مصنوعی تولید متن و عکس ایجاد شده است.سازمان ملی استاندارد ایالات متحده به دنبال انتشار بنچمارک های این برنامه است و قصد دارد سیستم های شناسایی اعتبار محتوا و ترغیب توسعه نرم افزارهایی برای شناسایی محتوای گمراه کننده ی تولید شده با هوش مصنوعی است.
در ماه آوریل، ایالات متحده آمریکا و بریتانیا برنامه هایی برای توسعه هکاری ها برای توسعه راهکارهای آزمایش هوش مصنوعی اعلام کردند. تعهدات اعلام شده در راستای اجلاس های امنیتی هوش مصنوعی بریتانیا است.
به عنوان بخشی از این همکاری ها، ایالت متحده آمریکا قصد دارد موسسه ایمنی هوش مصنوعی خود را راه اندازی کند، که مسولیت ارزیابی خطر های هوش مصنوعی مولد و هوش مصنوعی به طور کلی را بر عهده بگیرد.