مقالات علمی-تحلیلی

سم آلتمن به یکی از قدرتمندترین انسان‌های زمین تبدیل می شود. همه ی ما باید بترسیم!

سم آلتمن یکی از مدیران مشهور و طراز اول دره سیلیکون است. اما او به سرعت در حال قدرتمندتر شدن است. با این مقاله در مورد قدرت او و خطراتش از گری مارکوس همراه باشید.

در تاریخ ۱۶ مه ۲۰۲۳، من و سم آلتمن، مدیرعامل میلیارد دلاری و همیشه خوش‌بین OpenAI که فردی جذاب و آرام صحبت‌کننده است، در مقابل کمیته فرعی قضایی مجلس سنای ایالات متحده آمریکا برای نظارت بر هوش مصنوعی ایستادیم. ما در واشنگتن دی‌سی بودیم و این در اوج جنون هوش مصنوعی بود. آلتمن که در آن زمان ۳۸ سال داشت، شمایل این همه هیجان بود.

آلتمن که در سنت لوئیس، میزوری بزرگ شده بود، ترک تحصیل از دانشگاه استنفورد بود که قبل از ۳۰ سالگی به ریاست مرکز شتاب‌دهی استارتاپ Y Combinator رسید که بسیار موفق بود. چند ماه قبل از این جلسه، محصول شرکت او، ChatGPT، دنیای فناوری را تحت تأثیر قرار داده بود. در تمام طول تابستان ۲۰۲۳، با آلتمن همانند عضوی از گروه بیتلز رفتار می‌شد؛ او به عنوان بخشی از یک تور جهانی به واشنگتن دی‌سی سر می‌زد و با نخست‌وزیران و رؤسای جمهور در سراسر جهان ملاقات می‌کرد. سناتور آمریکایی کریستن سینما با بیان این کلمات او را تحسین کرد: «من هرگز شخصی به باهوشی سم ندیده‌ام… او فردی درون‌گرا، خجالتی و فروتن است… اما… بسیار در برقراری روابط با افراد در کنگره ماهر است و… می‌تواند به افراد دولت در درک هوش مصنوعی کمک کند.»

در آن زمان، تصاویر آلتمن جوان را به عنوان فردی صادق، با استعداد، ثروتمند و علاقه‌مند به توسعه بشریت به تصویر می‌کشیدند. پیشنهاد‌های مکرر او که هوش مصنوعی می‌تواند اقتصاد جهانی را تغییر دهد، رهبران جهان را هیجان‌زده می‌کرد.

سناتور ریچارد بلومنتال ما (و کریستینا مونتگومری از IBM) را به واشنگتن دعوت کرده بود تا درباره هوش مصنوعی، فناوری دوگانه‌ای که هم امید‌ها و هم خطرات زیادی دارد، گفتگو کنیم؛ از امواج عظیم اطلاعات نادرست گرفته تا احتمال ایجاد سلاح‌های زیستی جدید. دستور کار این جلسه سیاست‌ها و مقررات هوش مصنوعی بود. ما سوگند یاد کردیم که تمام حقیقت را بگوییم و بس.

آلتمن نماینده یکی از شرکت‌های پیشرو در زمینه هوش مصنوعی بود؛ من به عنوان یک دانشمند و نویسنده که به خاطر نظریه‌های مشکوک و انتقادی‌ام درباره هوش مصنوعی شهرت داشتم، در آنجا حضور داشتم. آلتمن برخلاف انتظاراتم بسیار گیرا و جذاب بود. لحظاتی بود که او از پاسخ دادن به سوالات طفره می‌رفت (به‌ویژه سوال بلومنتال درباره «بیشترین نگرانی شما چیست؟» که من آلتمن را ترغیب کردم با صداقت بیشتری پاسخ دهد)، اما به طور کلی او صادق به نظر می‌رسید و من این را به سناتورها هم گفتم. هر دوی ما به شدت از مقررات‌گذاری در زمینه هوش مصنوعی حمایت کردیم. با این حال، اندک‌اندک متوجه شدم که من، مجلس سنا و در نهایت مردم آمریکا احتمالاً بازی خورده‌ایم.

در واقع، همیشه نوعی بدگمانی نسبت به OpenAI داشتم. به عنوان مثال، کمپین‌های مطبوعاتی شرکت معمولاً اغراق‌آمیز و حتی گمراه‌کننده بودند، مانند نمایش شیک رباتی که یک روبیک کیوب را حل می‌کرد که در واقع دارای سنسورهای ویژه‌ای در داخل بود. این نمایش توجه زیادی را به خود جلب کرد، اما در نهایت هیچ نتیجه‌ای نداشت.

برای سال‌ها، نام OpenAI که به نوعی از شفافیت علمی درباره کارهای شرکت اشاره داشت، به نظرم دروغی بیش نبود، زیرا در واقعیت شرکت کمتر و کمتر شفافیت داشت. اشارات مکرر شرکت به اینکه AGI (هوش مصنوعی عمومی که می‌تواند حداقل به توانایی‌های شناختی هر انسانی برسد) نزدیک است، همیشه به نظرم هیجان‌زده و بی‌اساس بود. اما در مواجهه‌ی حضوری، آلتمن مرا مات و مبهوت کرد؛ از خودم پرسیدم که آیا قبلاً درباره او اشتباه کرده بودم. در بازبینی، متوجه شدم که در حقیقت، در مورد او بسیار نرم بودم.

پس از دریافت یک نکته کوچک اما معنادار از شخصی، شروع به تجدید نظر کردم. در مجلس سنا، آلتمن خودش را بسیار نوع‌دوست‌تر از آنچه واقعاً بود به تصویر کشید. سناتور جان کندی پرسید: «خیلی پول درمی‌آوری. درسته؟»

آلتمن پاسخ داد: «من هیچ درآمدی ندارم… به اندازه بیمه سلامت حقوق می‌گیرم. هیچ سهمی در OpenAI ندارم. من این کار را انجام می‌دهم چون عاشقش هستم.»

سناتورها این حرف‌ها را به خوبی قبول کردند. اما آلتمن حقیقت کامل را نگفت. او هیچ سهمی در OpenAI نداشت، اما سهام Y Combinator را داشت و Y Combinator نیز سهامی در OpenAI داشت. این به این معنا بود که سم به‌طور غیرمستقیم در OpenAI سرمایه‌گذاری کرده بود، چیزی که در وب‌سایت OpenAI نیز به آن اذعان شده بود. اگر این سهام غیرمستقیم تنها ۰.۱٪ ارزش شرکت بود، (که به نظر معقول می‌رسید)، ارزش آن تقریباً ۱۰۰ میلیون دلار می‌شد.

این نکته پنهان یک علامت هشداری بود. و وقتی موضوع دوباره مطرح شد، او می‌توانست آن را تصحیح کند. اما نکرد. مردم داستان فداکارانه‌اش را دوست داشتند. (او در مقاله‌ای با فورچون، مدعی شد که نیازی به سهام OpenAI ندارد چون پول کافی دارد.) کمی بعد از آن، متوجه شدم که OpenAI با یک شرکت چیپ‌سازی که آلتمن در آن سهم داشت، قرارداد بسته است. روایت نوع‌دوستانه او شروع به کم‌ارزش شدن کرد.

رویکرد آلتمن برای قانون گذاری در حوزه هوش مصنوعی

نگاهی به گذشته نشان می‌دهد که بحث درباره پول تنها موضوعی نبود که در مجلس سنا به‌طور کامل صادقانه نبوده است. مسأله مهم‌تر، موضع OpenAI درباره مقررات‌گذاری هوش مصنوعی بود. به‌طور عمومی، آلتمن به سنا گفت که از آن حمایت می‌کند. اما واقعیت بسیار پیچیده‌تر است.

شاید بخش کوچکی از آلتمن واقعاً خواستار مقررات‌گذاری هوش مصنوعی باشد. او علاقه‌مند به نقل قول از اوپنهایمر است (و به خوبی می‌داند که تاریخ تولدش با رهبر پروژه منهتن مشترک است) و قبول دارد که مانند سلاح‌های هسته‌ای، هوش مصنوعی نیز برای بشریت ریسک‌های جدی دارد. به گفته خودش که در مجلس سنا (اگرچه با اندکی ترغیب از سمت من) گفت: «ببینید، ما سعی کرده‌ایم درباره بزرگی خطرات اینجا بسیار شفاف باشیم… بدترین ترس‌های من این است که ما [ما، این حوزه، این فناوری، این صنعت] به جهان آسیب عمده‌ای بزنیم.»

ظاهراً آلتمن نمی‌خواهد با حسرت و بدنامی زندگی کند. اما پشت درهای بسته، لابی‌گرانش همچنان در تلاش‌اند تا مقررات‌گذاری ضعیف‌تری داشته باشند، یا اصلاً نداشته باشند. یک ماه پس از جلسه سنا، معلوم شد که OpenAI تلاش می‌کرد تا قانون هوش مصنوعی اتحادیه اروپا را تضعیف کند. وقتی که در نوامبر ۲۰۲۳ به دلیل “عدم صراحت مداوم” با هیئت مدیره از OpenAI اخراج شد، زیاد تعجب نکردم.

در آن زمان، تعداد کمی از افراد از تصمیم هیئت مدیره برای اخراج آلتمن حمایت می‌کردند. تعداد زیادی از حامیان به کمک او آمدند و بسیاری با او همانند یک قدیس رفتار کردند. خبرنگار معروف، کارا سوئشر (که به داشتن رابطه دوستانه با آلتمن مشهور است)، به دلیل اینکه من صرفاً پیشنهاد داده بودم که هیئت مدیره ممکن است دلیلی داشته باشد، مرا در توییتر بلاک کرد. آلتمن به خوبی با رسانه‌ها بازی کرد. پنج روز بعد، با کمک سرمایه‌گذار اصلی OpenAI، یعنی مایکروسافت، و یک درخواست حمایت از کارمندان، او مجدداً به سمت خود بازگردانده شد.

صداقت آلتمن در بوته نقد

اما از آن زمان تاکنون، بسیاری چیزها تغییر کرده‌اند. در ماه‌های اخیر، نگرانی‌ها درباره صداقت آلتمن به نظر مد روز تبدیل شده است. خبرنگار ادوارد زیتورن نوشت که آلتمن «پیامبری دروغین – یک متقلب دست‌دوم که از توانایی قابل‌توجه خود برای تحت تأثیر قرار دادن و دستکاری نخبگان سیلیکون ولی استفاده می‌کند» است.

الن هویت از بلومبرگ نیوز در پادکست Foundering به این نتیجه رسید که «وقتی [آلتمن] چیزی می‌گوید، نمی‌توانید مطمئن باشید که واقعاً به آن اعتقاد دارد». پاریس مارکس نسبت به «بینش خودخواهانه سم آلتمن» هشدار داد. پیشگام هوش مصنوعی، جفری هینتون، اخیراً انگیزه‌های آلتمن را زیر سوال برده است. خود من مقاله‌ای با عنوان «دست‌نامه سم آلتمن» نوشتم که به تجزیه و تحلیل این می‌پردازد که چگونه او با ترکیبی از هیاهو و ظاهری متواضعانه توانست این همه افراد را به مدتی طولانی فریب دهد.

عوامل بسیاری به این اضمحلال اعتماد منجر شده‌اند. برای برخی، لحظه تحریک‌آمیز تعاملات آلتمن اوایل امسال با اسکارلت جوهانسون بود، که از او صراحتاً خواست تا یک چت‌بات با صدای او نسازد. آلتمن از یک صداپیشه دیگر استفاده کرد که صدایش به وضوح شبیه جوهانسون بود و در توییتر نوشت “Her” (اشاره‌ای به یک فیلم که در آن جوهانسون صداپیشه یک هوش مصنوعی بود). جوهانسون خیلی خشمگین شد. و این ماجرای اسکارجو نماد مسئله بزرگتری بود: شرکت‌های بزرگی مانند OpenAI ادعا می‌کنند که مدل‌هایشان بدون آموزش بر روی تمام مالکیت‌های فکری جهان کار نخواهد کرد، اما به بسیاری از هنرمندان، نویسندگان و دیگرانی که این محتواها را خلق کرده‌اند، هیچ یا کمترین غرامتی نداده‌اند. بازیگر جاستین بیتمن این مسئله را «بزرگترین سرقت در تاریخ ایالات متحده» توصیف کرد.

در عین حال، OpenAI مدت‌های طولانی از ارزش توسعه تدابیری برای ایمنی هوش مصنوعی تنها صحبت کرده است، اما چندین کارکنان کلیدی مرتبط با ایمنی اخیراً رفتند و ادعا کردند که وعده‌ها رعایت نشده است. پژوهشگر سابق ایمنی OpenAI، یان لایک، گفت که شرکت چیزهای براق را بر ایمنی ترجیح می‌دهد، همان‌طور که یک کارمند اخیراً جداشده، ویلیام ساندرز نیز این را تأیید کرد.

یکی از بنیان‌گذاران، ایلیا سوتسکِوِر، رفت و شرکت جدید خود را «Safe Superintelligence» نامید، در حالی که کارمند سابق OpenAI، دانیل کوکوتایلو، نیز هشدار داد که وعده‌های مربوط به ایمنی نادیده گرفته شده‌اند. همانطور که رسانه‌های اجتماعی برای جامعه زیان‌آور بوده‌اند، هوش مصنوعی خودسر، که OpenAI ممکن است به طور تصادفی توسعه دهد، می‌تواند (همانطور که خود آلتمن نیز اذعان دارد) بسیار بدتر باشد.

بی‌توجهی OpenAI به مسائل ایمنی با این واقعیت تشدید می‌شود که به نظر می‌رسد شرکت در تلاش است تا کارکنان خود را ساکت نگه دارد. در ماه مه، خبرنگار کلسی پایپر اسنادی را کشف کرد که اجازه می‌داد در صورت سوت زنی، شرکت سهام اعطا شده به کارکنان سابق را بازپس گیرد، که این عمل بسیاری از افراد در صنعت را شگفت‌زده کرد. به زودی پس از آن، بسیاری از کارکنان سابق OpenAI نامه‌ای را در سایت righttowarn.ai امضا کردند که خواستار حفاظت از افشاگران بودند و در نتیجه، شرکت اعلام کرد که این قراردادها را اجرا نخواهد کرد.

حتی هیئت مدیره شرکت نیز احساس کردند که گمراه شده‌اند. در ماه مه، عضو سابق هیئت مدیره OpenAI، هلن تونر، در پادکست Ted AI Show گفت: «برای سال‌ها، سم کارهای هیئت مدیره را واقعاً دشوار کرده بود… با فاش نکردن اطلاعات، تحریف رویدادهای شرکت و در برخی موارد دروغ گفتن کامل به هیئت مدیره.»

تا اواخر ماه مه، اخبار منفی درباره OpenAI و مدیرعامل آن به قدری انباشته شده بود که سرمایه‌گذار خطرپذیر، مت ترک، یک کارتون در توییتر منتشر کرد که می‌گفت: «روزهای گذشته از آخرین جنجال قابل اجتناب OpenAI: ۰.»

با این حال، آلتمن همچنان در آنجا است و همچنان قدرت فوق‌العاده‌ای دارد. او همچنان OpenAI را اداره می‌کند و به طور گسترده‌ای چهره عمومی هوش مصنوعی است. او هیئت مدیره OpenAI را به میزان زیادی به شکلی که خود دوست دارد، بازسازی کرده است. حتی در ماه آوریل ۲۰۲۴، وزیر امنیت داخلی، الخاندرو مایورکاس، به دیدار آلتمن رفت تا او را برای هیئت ایمنی و امنیت هوش مصنوعی امنیت داخلی جذب کند.

خیلی چیزها در معرض خطر است. نحوه پیشرفت هوش مصنوعی اکنون پیامدهای پایداری خواهد داشت. انتخاب‌های آلتمن می‌توانند به راحتی تمام بشریت را – نه فقط کاربران فردی – به شکل پایداری تحت تأثیر قرار دهند. OpenAI قبلاً اعتراف کرده است که ابزارهایش توسط روسیه و چین برای ایجاد اطلاعات غلط استفاده شده‌اند، احتمالاً با هدف تأثیرگذاری بر انتخابات. نوع‌های پیشرفته‌تر هوش مصنوعی، اگر توسعه پیدا کنند، می‌توانند خطرات حتی جدی‌تری به همراه داشته باشند. هر چیزی که رسانه‌های اجتماعی انجام داده‌اند، از نظر قطبی‌سازی جامعه و به طور ناگهانی تأثیرگذاری بر باورهای مردم، شرکت‌های عظیم هوش مصنوعی می‌توانند بدتر انجام دهند.

علاوه بر این، هوش مصنوعی مولد که توسط OpenAI معروف شده است، تأثیرات زیست‌محیطی عظیمی دارد که از نظر مصرف برق، انتشار گازها و مصرف آب قابل اندازه‌گیری است. بلومبرگ اخیراً نوشته است: “هوش مصنوعی در حال حاضر سیستم‌های قدرت جهانی را به آشوب کشیده است.” این تأثیر می‌تواند افزایش یابد، شاید به طور قابل توجهی، زیرا مدل‌ها خود بزرگتر می‌شوند (هدف همه بازیگران بزرگتر). به میزان زیادی، دولت‌ها بر اساس حرف آلتمن عمل می‌کنند که هوش مصنوعی در نهایت ثمره خواهد داد (که تاکنون قطعاً نداده است) و هزینه‌های زیست‌محیطی را توجیه می‌کنند.

در همین حال، OpenAI موقعیت رهبری را برعهده گرفته است و آلتمن عضو هیئت ایمنی امنیت داخلی است. توصیه‌های او باید با شک و تردید همراه باشد. آلتمن حداقل به طور مختصر در تلاش بود تا سرمایه‌گذاران را به سرمایه‌گذاری ۷ تریلیون دلاری در زیرساخت‌های مربوط به هوش مصنوعی مولد جذب کند، که می‌تواند اتلاف عظیم منابع باشد که شاید بهتر باشد در جای دیگر هزینه شود، اگر (همانطور که من و بسیاری دیگر مشکوک هستیم) هوش مصنوعی مولد مسیر درست برای هوش مصنوعی عمومی [AGI] نباشد.

در نهایت، بیش‌برآورد کردن قابلیت‌های فعلی هوش مصنوعی می‌تواند به جنگ منجر شود. «جنگ چیپ» میان ایالات متحده و چین بر سر کنترل‌های صادرات، برای مثال – که در آن ایالات متحده صادرات چیپ‌های حیاتی GPU طراحی شده توسط Nvidia و تولید شده در تایوان را محدود می‌کند – بر توانایی چین برای پیشرفت در هوش مصنوعی تأثیر گذاشته و تنش‌ها بین دو کشور را افزایش داده است. نبرد بر سر چیپ‌ها عمدتاً بر این فرض استوار است که هوش مصنوعی به بهبود نمایی خود ادامه خواهد داد، حتی با وجود داده‌هایی که نشان می‌دهد رویکردهای فعلی ممکن است به تازگی به نقطه کاهش بازدهی رسیده باشند.

آلتمن: فرشته یا شیطان؟

شاید آلتمن با نیت خوب شروع کرده باشد. شاید او واقعاً می‌خواست جهان را از تهدیدات هوش مصنوعی نجات دهد و هوش مصنوعی را برای خوب هدایت کند. شاید هم، همانطور که اغلب اتفاق می‌افتد، طمع بر او چیره شد.

متأسفانه، بسیاری از شرکت‌های دیگر هوش مصنوعی به نظر می‌رسد در مسیر هیاهو و کاهش هزینه‌ای که آلتمن ترسیم کرده، قرار دارند. Anthropic – که از مجموعه‌ای از پناهندگان OpenAI تشکیل شده که نگران بودند ایمنی هوش مصنوعی جدی گرفته نمی‌شود – به نظر می‌رسد که به طور فزاینده‌ای به طور مستقیم با شرکت اصلی رقابت می‌کند، با تمام گیر و گرفتاری‌های آن.

استارتاپ میلیارد دلاری Perplexity نیز به نظر می‌رسد که نمونه دیگری از طمع است، زیرا با داده‌هایی که نباید استفاده می‌کرده، آموزش می‌بیند. در همین حال، مایکروسافت از حمایت از «هوش مصنوعی مسئولانه» به عجله در عرضه محصولات با مشکلات جدی رو آورده است و گوگل را تحت فشار قرار داده تا همین کار را انجام دهد. پول و قدرت، هوش مصنوعی را همانند رسانه‌های اجتماعی فاسد می‌کنند.

ما نمی‌توانیم به سادگی به استارتاپ‌های عظیم و خصوصی هوش مصنوعی اعتماد کنیم که خودشان را به شیوه‌ای اخلاقی و شفاف مدیریت کنند. و اگر نمی‌توانیم به آن‌ها اعتماد کنیم که خودشان را مدیریت کنند، قطعاً نباید اجازه دهیم که جهان را مدیریت کنند.

صادقانه بگویم، فکر نمی‌کنم به هوش مصنوعی‌ای برسیم که بتوانیم به آن اعتماد کنیم اگر در مسیر فعلی باقی بمانیم. جدا از تأثیر فسادآمیز قدرت و پول، یک مسئله فنی عمیق نیز وجود دارد: مدل‌های زبانی بزرگ (تکنیک اصلی هوش مصنوعی مولد) که توسط گوگل اختراع شده و توسط شرکت آلتمن معروف شده‌اند، احتمالاً هیچ‌وقت ایمن نخواهند بود. این مدل‌ها به طور ذاتی سرسخت و مبهم هستند – به اصطلاح «جعبه‌های سیاه» که هرگز نمی‌توانیم به طور کامل کنترل کنیم. تکنیک‌های آماری که آن‌ها را می‌رانند می‌توانند کارهای شگفت‌انگیزی انجام دهند، مانند تسریع برنامه‌نویسی کامپیوتر و ایجاد شخصیت‌های تعاملی متقاعدکننده به سبک عزیزان درگذشته یا شخصیت‌های تاریخی. اما چنین جعبه‌های سیاهی هرگز قابل اعتماد نبوده‌اند و به این دلیل، اساس ضعیفی برای هوش مصنوعی هستند که بتوانیم به آن برای زندگی‌ها و زیرساخت‌های خود اعتماد کنیم.

با این حال، فکر نمی‌کنم باید هوش مصنوعی را کنار بگذاریم. ساختن هوش مصنوعی بهتر – برای پزشکی، علم مواد، علم اقلیم و غیره – واقعاً می‌تواند جهان را تغییر دهد. هوش مصنوعی مولد احتمالاً نمی‌تواند این کار را انجام دهد، اما شاید شکلی از هوش مصنوعی در آینده، که هنوز توسعه نیافته است، بتواند.

طنز ماجرا این است که بزرگترین تهدید برای هوش مصنوعی امروز ممکن است خود شرکت‌های هوش مصنوعی باشند؛ رفتار نادرست و وعده‌های اغراق‌آمیز آن‌ها بسیاری از افراد را دلسرد کرده است. بسیاری آماده‌اند که دولت دست قوی‌تری بگیرد. بر اساس یک نظرسنجی در ژوئن توسط موسسه سیاست هوش مصنوعی، ۸۰ درصد از رای‌دهندگان آمریکایی ترجیح می‌دهند “مقررات هوش مصنوعی که الزام به تدابیر ایمنی و نظارت دولتی بر آزمایشگاه‌های هوش مصنوعی دارد” به جای اجازه خودتنظیمی به شرکت‌های هوش مصنوعی.

برای رسیدن به هوش مصنوعی که بتوانیم به آن اعتماد کنیم، من مدت‌هاست که برای تلاشی فراملی، مشابه کنسرسیوم فیزیک انرژی بالا سرن، لابی کرده‌ام. زمان آن اکنون فرا رسیده است. چنین تلاشی، که بر ایمنی و قابلیت اطمینان هوش مصنوعی به جای سود تمرکز داشته باشد، و بر توسعه یک مجموعه جدید از تکنیک‌های هوش مصنوعی که متعلق به بشریت باشد – نه فقط تعداد اندکی از شرکت‌های طماع – می‌تواند تحولی باشد.

علاوه بر این، شهروندان باید سخن بگویند و خواستار هوش مصنوعی‌ای باشند که برای بسیاری خوب است، نه فقط برای معدودی. یک چیزی که می‌توانم تضمین کنم این است که به سرزمین موعود هوش مصنوعی نخواهیم رسید اگر همه چیز را به دست سیلیکون ولی بسپاریم. روسای تکنولوژی حقیقت را در طول دهه‌ها پنهان کرده‌اند. چرا باید انتظار داشته باشیم سم آلتمن، که آخرین بار در یک سوپرکار Koenigsegg با قیمت ۴ میلیون دلار در Napa Valley دیده شده، متفاوت باشد؟

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *