سم آلتمن به یکی از قدرتمندترین انسانهای زمین تبدیل می شود. همه ی ما باید بترسیم!
سم آلتمن یکی از مدیران مشهور و طراز اول دره سیلیکون است. اما او به سرعت در حال قدرتمندتر شدن است. با این مقاله در مورد قدرت او و خطراتش از گری مارکوس همراه باشید.
در تاریخ ۱۶ مه ۲۰۲۳، من و سم آلتمن، مدیرعامل میلیارد دلاری و همیشه خوشبین OpenAI که فردی جذاب و آرام صحبتکننده است، در مقابل کمیته فرعی قضایی مجلس سنای ایالات متحده آمریکا برای نظارت بر هوش مصنوعی ایستادیم. ما در واشنگتن دیسی بودیم و این در اوج جنون هوش مصنوعی بود. آلتمن که در آن زمان ۳۸ سال داشت، شمایل این همه هیجان بود.
آلتمن که در سنت لوئیس، میزوری بزرگ شده بود، ترک تحصیل از دانشگاه استنفورد بود که قبل از ۳۰ سالگی به ریاست مرکز شتابدهی استارتاپ Y Combinator رسید که بسیار موفق بود. چند ماه قبل از این جلسه، محصول شرکت او، ChatGPT، دنیای فناوری را تحت تأثیر قرار داده بود. در تمام طول تابستان ۲۰۲۳، با آلتمن همانند عضوی از گروه بیتلز رفتار میشد؛ او به عنوان بخشی از یک تور جهانی به واشنگتن دیسی سر میزد و با نخستوزیران و رؤسای جمهور در سراسر جهان ملاقات میکرد. سناتور آمریکایی کریستن سینما با بیان این کلمات او را تحسین کرد: «من هرگز شخصی به باهوشی سم ندیدهام… او فردی درونگرا، خجالتی و فروتن است… اما… بسیار در برقراری روابط با افراد در کنگره ماهر است و… میتواند به افراد دولت در درک هوش مصنوعی کمک کند.»
در آن زمان، تصاویر آلتمن جوان را به عنوان فردی صادق، با استعداد، ثروتمند و علاقهمند به توسعه بشریت به تصویر میکشیدند. پیشنهادهای مکرر او که هوش مصنوعی میتواند اقتصاد جهانی را تغییر دهد، رهبران جهان را هیجانزده میکرد.
سناتور ریچارد بلومنتال ما (و کریستینا مونتگومری از IBM) را به واشنگتن دعوت کرده بود تا درباره هوش مصنوعی، فناوری دوگانهای که هم امیدها و هم خطرات زیادی دارد، گفتگو کنیم؛ از امواج عظیم اطلاعات نادرست گرفته تا احتمال ایجاد سلاحهای زیستی جدید. دستور کار این جلسه سیاستها و مقررات هوش مصنوعی بود. ما سوگند یاد کردیم که تمام حقیقت را بگوییم و بس.
آلتمن نماینده یکی از شرکتهای پیشرو در زمینه هوش مصنوعی بود؛ من به عنوان یک دانشمند و نویسنده که به خاطر نظریههای مشکوک و انتقادیام درباره هوش مصنوعی شهرت داشتم، در آنجا حضور داشتم. آلتمن برخلاف انتظاراتم بسیار گیرا و جذاب بود. لحظاتی بود که او از پاسخ دادن به سوالات طفره میرفت (بهویژه سوال بلومنتال درباره «بیشترین نگرانی شما چیست؟» که من آلتمن را ترغیب کردم با صداقت بیشتری پاسخ دهد)، اما به طور کلی او صادق به نظر میرسید و من این را به سناتورها هم گفتم. هر دوی ما به شدت از مقرراتگذاری در زمینه هوش مصنوعی حمایت کردیم. با این حال، اندکاندک متوجه شدم که من، مجلس سنا و در نهایت مردم آمریکا احتمالاً بازی خوردهایم.
در واقع، همیشه نوعی بدگمانی نسبت به OpenAI داشتم. به عنوان مثال، کمپینهای مطبوعاتی شرکت معمولاً اغراقآمیز و حتی گمراهکننده بودند، مانند نمایش شیک رباتی که یک روبیک کیوب را حل میکرد که در واقع دارای سنسورهای ویژهای در داخل بود. این نمایش توجه زیادی را به خود جلب کرد، اما در نهایت هیچ نتیجهای نداشت.
برای سالها، نام OpenAI که به نوعی از شفافیت علمی درباره کارهای شرکت اشاره داشت، به نظرم دروغی بیش نبود، زیرا در واقعیت شرکت کمتر و کمتر شفافیت داشت. اشارات مکرر شرکت به اینکه AGI (هوش مصنوعی عمومی که میتواند حداقل به تواناییهای شناختی هر انسانی برسد) نزدیک است، همیشه به نظرم هیجانزده و بیاساس بود. اما در مواجههی حضوری، آلتمن مرا مات و مبهوت کرد؛ از خودم پرسیدم که آیا قبلاً درباره او اشتباه کرده بودم. در بازبینی، متوجه شدم که در حقیقت، در مورد او بسیار نرم بودم.
پس از دریافت یک نکته کوچک اما معنادار از شخصی، شروع به تجدید نظر کردم. در مجلس سنا، آلتمن خودش را بسیار نوعدوستتر از آنچه واقعاً بود به تصویر کشید. سناتور جان کندی پرسید: «خیلی پول درمیآوری. درسته؟»
آلتمن پاسخ داد: «من هیچ درآمدی ندارم… به اندازه بیمه سلامت حقوق میگیرم. هیچ سهمی در OpenAI ندارم. من این کار را انجام میدهم چون عاشقش هستم.»
سناتورها این حرفها را به خوبی قبول کردند. اما آلتمن حقیقت کامل را نگفت. او هیچ سهمی در OpenAI نداشت، اما سهام Y Combinator را داشت و Y Combinator نیز سهامی در OpenAI داشت. این به این معنا بود که سم بهطور غیرمستقیم در OpenAI سرمایهگذاری کرده بود، چیزی که در وبسایت OpenAI نیز به آن اذعان شده بود. اگر این سهام غیرمستقیم تنها ۰.۱٪ ارزش شرکت بود، (که به نظر معقول میرسید)، ارزش آن تقریباً ۱۰۰ میلیون دلار میشد.
این نکته پنهان یک علامت هشداری بود. و وقتی موضوع دوباره مطرح شد، او میتوانست آن را تصحیح کند. اما نکرد. مردم داستان فداکارانهاش را دوست داشتند. (او در مقالهای با فورچون، مدعی شد که نیازی به سهام OpenAI ندارد چون پول کافی دارد.) کمی بعد از آن، متوجه شدم که OpenAI با یک شرکت چیپسازی که آلتمن در آن سهم داشت، قرارداد بسته است. روایت نوعدوستانه او شروع به کمارزش شدن کرد.
رویکرد آلتمن برای قانون گذاری در حوزه هوش مصنوعی
نگاهی به گذشته نشان میدهد که بحث درباره پول تنها موضوعی نبود که در مجلس سنا بهطور کامل صادقانه نبوده است. مسأله مهمتر، موضع OpenAI درباره مقرراتگذاری هوش مصنوعی بود. بهطور عمومی، آلتمن به سنا گفت که از آن حمایت میکند. اما واقعیت بسیار پیچیدهتر است.
شاید بخش کوچکی از آلتمن واقعاً خواستار مقرراتگذاری هوش مصنوعی باشد. او علاقهمند به نقل قول از اوپنهایمر است (و به خوبی میداند که تاریخ تولدش با رهبر پروژه منهتن مشترک است) و قبول دارد که مانند سلاحهای هستهای، هوش مصنوعی نیز برای بشریت ریسکهای جدی دارد. به گفته خودش که در مجلس سنا (اگرچه با اندکی ترغیب از سمت من) گفت: «ببینید، ما سعی کردهایم درباره بزرگی خطرات اینجا بسیار شفاف باشیم… بدترین ترسهای من این است که ما [ما، این حوزه، این فناوری، این صنعت] به جهان آسیب عمدهای بزنیم.»
ظاهراً آلتمن نمیخواهد با حسرت و بدنامی زندگی کند. اما پشت درهای بسته، لابیگرانش همچنان در تلاشاند تا مقرراتگذاری ضعیفتری داشته باشند، یا اصلاً نداشته باشند. یک ماه پس از جلسه سنا، معلوم شد که OpenAI تلاش میکرد تا قانون هوش مصنوعی اتحادیه اروپا را تضعیف کند. وقتی که در نوامبر ۲۰۲۳ به دلیل “عدم صراحت مداوم” با هیئت مدیره از OpenAI اخراج شد، زیاد تعجب نکردم.
در آن زمان، تعداد کمی از افراد از تصمیم هیئت مدیره برای اخراج آلتمن حمایت میکردند. تعداد زیادی از حامیان به کمک او آمدند و بسیاری با او همانند یک قدیس رفتار کردند. خبرنگار معروف، کارا سوئشر (که به داشتن رابطه دوستانه با آلتمن مشهور است)، به دلیل اینکه من صرفاً پیشنهاد داده بودم که هیئت مدیره ممکن است دلیلی داشته باشد، مرا در توییتر بلاک کرد. آلتمن به خوبی با رسانهها بازی کرد. پنج روز بعد، با کمک سرمایهگذار اصلی OpenAI، یعنی مایکروسافت، و یک درخواست حمایت از کارمندان، او مجدداً به سمت خود بازگردانده شد.
صداقت آلتمن در بوته نقد
اما از آن زمان تاکنون، بسیاری چیزها تغییر کردهاند. در ماههای اخیر، نگرانیها درباره صداقت آلتمن به نظر مد روز تبدیل شده است. خبرنگار ادوارد زیتورن نوشت که آلتمن «پیامبری دروغین – یک متقلب دستدوم که از توانایی قابلتوجه خود برای تحت تأثیر قرار دادن و دستکاری نخبگان سیلیکون ولی استفاده میکند» است.
الن هویت از بلومبرگ نیوز در پادکست Foundering به این نتیجه رسید که «وقتی [آلتمن] چیزی میگوید، نمیتوانید مطمئن باشید که واقعاً به آن اعتقاد دارد». پاریس مارکس نسبت به «بینش خودخواهانه سم آلتمن» هشدار داد. پیشگام هوش مصنوعی، جفری هینتون، اخیراً انگیزههای آلتمن را زیر سوال برده است. خود من مقالهای با عنوان «دستنامه سم آلتمن» نوشتم که به تجزیه و تحلیل این میپردازد که چگونه او با ترکیبی از هیاهو و ظاهری متواضعانه توانست این همه افراد را به مدتی طولانی فریب دهد.
عوامل بسیاری به این اضمحلال اعتماد منجر شدهاند. برای برخی، لحظه تحریکآمیز تعاملات آلتمن اوایل امسال با اسکارلت جوهانسون بود، که از او صراحتاً خواست تا یک چتبات با صدای او نسازد. آلتمن از یک صداپیشه دیگر استفاده کرد که صدایش به وضوح شبیه جوهانسون بود و در توییتر نوشت “Her” (اشارهای به یک فیلم که در آن جوهانسون صداپیشه یک هوش مصنوعی بود). جوهانسون خیلی خشمگین شد. و این ماجرای اسکارجو نماد مسئله بزرگتری بود: شرکتهای بزرگی مانند OpenAI ادعا میکنند که مدلهایشان بدون آموزش بر روی تمام مالکیتهای فکری جهان کار نخواهد کرد، اما به بسیاری از هنرمندان، نویسندگان و دیگرانی که این محتواها را خلق کردهاند، هیچ یا کمترین غرامتی ندادهاند. بازیگر جاستین بیتمن این مسئله را «بزرگترین سرقت در تاریخ ایالات متحده» توصیف کرد.
در عین حال، OpenAI مدتهای طولانی از ارزش توسعه تدابیری برای ایمنی هوش مصنوعی تنها صحبت کرده است، اما چندین کارکنان کلیدی مرتبط با ایمنی اخیراً رفتند و ادعا کردند که وعدهها رعایت نشده است. پژوهشگر سابق ایمنی OpenAI، یان لایک، گفت که شرکت چیزهای براق را بر ایمنی ترجیح میدهد، همانطور که یک کارمند اخیراً جداشده، ویلیام ساندرز نیز این را تأیید کرد.
یکی از بنیانگذاران، ایلیا سوتسکِوِر، رفت و شرکت جدید خود را «Safe Superintelligence» نامید، در حالی که کارمند سابق OpenAI، دانیل کوکوتایلو، نیز هشدار داد که وعدههای مربوط به ایمنی نادیده گرفته شدهاند. همانطور که رسانههای اجتماعی برای جامعه زیانآور بودهاند، هوش مصنوعی خودسر، که OpenAI ممکن است به طور تصادفی توسعه دهد، میتواند (همانطور که خود آلتمن نیز اذعان دارد) بسیار بدتر باشد.
بیتوجهی OpenAI به مسائل ایمنی با این واقعیت تشدید میشود که به نظر میرسد شرکت در تلاش است تا کارکنان خود را ساکت نگه دارد. در ماه مه، خبرنگار کلسی پایپر اسنادی را کشف کرد که اجازه میداد در صورت سوت زنی، شرکت سهام اعطا شده به کارکنان سابق را بازپس گیرد، که این عمل بسیاری از افراد در صنعت را شگفتزده کرد. به زودی پس از آن، بسیاری از کارکنان سابق OpenAI نامهای را در سایت righttowarn.ai امضا کردند که خواستار حفاظت از افشاگران بودند و در نتیجه، شرکت اعلام کرد که این قراردادها را اجرا نخواهد کرد.
حتی هیئت مدیره شرکت نیز احساس کردند که گمراه شدهاند. در ماه مه، عضو سابق هیئت مدیره OpenAI، هلن تونر، در پادکست Ted AI Show گفت: «برای سالها، سم کارهای هیئت مدیره را واقعاً دشوار کرده بود… با فاش نکردن اطلاعات، تحریف رویدادهای شرکت و در برخی موارد دروغ گفتن کامل به هیئت مدیره.»
تا اواخر ماه مه، اخبار منفی درباره OpenAI و مدیرعامل آن به قدری انباشته شده بود که سرمایهگذار خطرپذیر، مت ترک، یک کارتون در توییتر منتشر کرد که میگفت: «روزهای گذشته از آخرین جنجال قابل اجتناب OpenAI: ۰.»
با این حال، آلتمن همچنان در آنجا است و همچنان قدرت فوقالعادهای دارد. او همچنان OpenAI را اداره میکند و به طور گستردهای چهره عمومی هوش مصنوعی است. او هیئت مدیره OpenAI را به میزان زیادی به شکلی که خود دوست دارد، بازسازی کرده است. حتی در ماه آوریل ۲۰۲۴، وزیر امنیت داخلی، الخاندرو مایورکاس، به دیدار آلتمن رفت تا او را برای هیئت ایمنی و امنیت هوش مصنوعی امنیت داخلی جذب کند.
خیلی چیزها در معرض خطر است. نحوه پیشرفت هوش مصنوعی اکنون پیامدهای پایداری خواهد داشت. انتخابهای آلتمن میتوانند به راحتی تمام بشریت را – نه فقط کاربران فردی – به شکل پایداری تحت تأثیر قرار دهند. OpenAI قبلاً اعتراف کرده است که ابزارهایش توسط روسیه و چین برای ایجاد اطلاعات غلط استفاده شدهاند، احتمالاً با هدف تأثیرگذاری بر انتخابات. نوعهای پیشرفتهتر هوش مصنوعی، اگر توسعه پیدا کنند، میتوانند خطرات حتی جدیتری به همراه داشته باشند. هر چیزی که رسانههای اجتماعی انجام دادهاند، از نظر قطبیسازی جامعه و به طور ناگهانی تأثیرگذاری بر باورهای مردم، شرکتهای عظیم هوش مصنوعی میتوانند بدتر انجام دهند.
علاوه بر این، هوش مصنوعی مولد که توسط OpenAI معروف شده است، تأثیرات زیستمحیطی عظیمی دارد که از نظر مصرف برق، انتشار گازها و مصرف آب قابل اندازهگیری است. بلومبرگ اخیراً نوشته است: “هوش مصنوعی در حال حاضر سیستمهای قدرت جهانی را به آشوب کشیده است.” این تأثیر میتواند افزایش یابد، شاید به طور قابل توجهی، زیرا مدلها خود بزرگتر میشوند (هدف همه بازیگران بزرگتر). به میزان زیادی، دولتها بر اساس حرف آلتمن عمل میکنند که هوش مصنوعی در نهایت ثمره خواهد داد (که تاکنون قطعاً نداده است) و هزینههای زیستمحیطی را توجیه میکنند.
در همین حال، OpenAI موقعیت رهبری را برعهده گرفته است و آلتمن عضو هیئت ایمنی امنیت داخلی است. توصیههای او باید با شک و تردید همراه باشد. آلتمن حداقل به طور مختصر در تلاش بود تا سرمایهگذاران را به سرمایهگذاری ۷ تریلیون دلاری در زیرساختهای مربوط به هوش مصنوعی مولد جذب کند، که میتواند اتلاف عظیم منابع باشد که شاید بهتر باشد در جای دیگر هزینه شود، اگر (همانطور که من و بسیاری دیگر مشکوک هستیم) هوش مصنوعی مولد مسیر درست برای هوش مصنوعی عمومی [AGI] نباشد.
در نهایت، بیشبرآورد کردن قابلیتهای فعلی هوش مصنوعی میتواند به جنگ منجر شود. «جنگ چیپ» میان ایالات متحده و چین بر سر کنترلهای صادرات، برای مثال – که در آن ایالات متحده صادرات چیپهای حیاتی GPU طراحی شده توسط Nvidia و تولید شده در تایوان را محدود میکند – بر توانایی چین برای پیشرفت در هوش مصنوعی تأثیر گذاشته و تنشها بین دو کشور را افزایش داده است. نبرد بر سر چیپها عمدتاً بر این فرض استوار است که هوش مصنوعی به بهبود نمایی خود ادامه خواهد داد، حتی با وجود دادههایی که نشان میدهد رویکردهای فعلی ممکن است به تازگی به نقطه کاهش بازدهی رسیده باشند.
آلتمن: فرشته یا شیطان؟
شاید آلتمن با نیت خوب شروع کرده باشد. شاید او واقعاً میخواست جهان را از تهدیدات هوش مصنوعی نجات دهد و هوش مصنوعی را برای خوب هدایت کند. شاید هم، همانطور که اغلب اتفاق میافتد، طمع بر او چیره شد.
متأسفانه، بسیاری از شرکتهای دیگر هوش مصنوعی به نظر میرسد در مسیر هیاهو و کاهش هزینهای که آلتمن ترسیم کرده، قرار دارند. Anthropic – که از مجموعهای از پناهندگان OpenAI تشکیل شده که نگران بودند ایمنی هوش مصنوعی جدی گرفته نمیشود – به نظر میرسد که به طور فزایندهای به طور مستقیم با شرکت اصلی رقابت میکند، با تمام گیر و گرفتاریهای آن.
استارتاپ میلیارد دلاری Perplexity نیز به نظر میرسد که نمونه دیگری از طمع است، زیرا با دادههایی که نباید استفاده میکرده، آموزش میبیند. در همین حال، مایکروسافت از حمایت از «هوش مصنوعی مسئولانه» به عجله در عرضه محصولات با مشکلات جدی رو آورده است و گوگل را تحت فشار قرار داده تا همین کار را انجام دهد. پول و قدرت، هوش مصنوعی را همانند رسانههای اجتماعی فاسد میکنند.
ما نمیتوانیم به سادگی به استارتاپهای عظیم و خصوصی هوش مصنوعی اعتماد کنیم که خودشان را به شیوهای اخلاقی و شفاف مدیریت کنند. و اگر نمیتوانیم به آنها اعتماد کنیم که خودشان را مدیریت کنند، قطعاً نباید اجازه دهیم که جهان را مدیریت کنند.
صادقانه بگویم، فکر نمیکنم به هوش مصنوعیای برسیم که بتوانیم به آن اعتماد کنیم اگر در مسیر فعلی باقی بمانیم. جدا از تأثیر فسادآمیز قدرت و پول، یک مسئله فنی عمیق نیز وجود دارد: مدلهای زبانی بزرگ (تکنیک اصلی هوش مصنوعی مولد) که توسط گوگل اختراع شده و توسط شرکت آلتمن معروف شدهاند، احتمالاً هیچوقت ایمن نخواهند بود. این مدلها به طور ذاتی سرسخت و مبهم هستند – به اصطلاح «جعبههای سیاه» که هرگز نمیتوانیم به طور کامل کنترل کنیم. تکنیکهای آماری که آنها را میرانند میتوانند کارهای شگفتانگیزی انجام دهند، مانند تسریع برنامهنویسی کامپیوتر و ایجاد شخصیتهای تعاملی متقاعدکننده به سبک عزیزان درگذشته یا شخصیتهای تاریخی. اما چنین جعبههای سیاهی هرگز قابل اعتماد نبودهاند و به این دلیل، اساس ضعیفی برای هوش مصنوعی هستند که بتوانیم به آن برای زندگیها و زیرساختهای خود اعتماد کنیم.
با این حال، فکر نمیکنم باید هوش مصنوعی را کنار بگذاریم. ساختن هوش مصنوعی بهتر – برای پزشکی، علم مواد، علم اقلیم و غیره – واقعاً میتواند جهان را تغییر دهد. هوش مصنوعی مولد احتمالاً نمیتواند این کار را انجام دهد، اما شاید شکلی از هوش مصنوعی در آینده، که هنوز توسعه نیافته است، بتواند.
طنز ماجرا این است که بزرگترین تهدید برای هوش مصنوعی امروز ممکن است خود شرکتهای هوش مصنوعی باشند؛ رفتار نادرست و وعدههای اغراقآمیز آنها بسیاری از افراد را دلسرد کرده است. بسیاری آمادهاند که دولت دست قویتری بگیرد. بر اساس یک نظرسنجی در ژوئن توسط موسسه سیاست هوش مصنوعی، ۸۰ درصد از رایدهندگان آمریکایی ترجیح میدهند “مقررات هوش مصنوعی که الزام به تدابیر ایمنی و نظارت دولتی بر آزمایشگاههای هوش مصنوعی دارد” به جای اجازه خودتنظیمی به شرکتهای هوش مصنوعی.
برای رسیدن به هوش مصنوعی که بتوانیم به آن اعتماد کنیم، من مدتهاست که برای تلاشی فراملی، مشابه کنسرسیوم فیزیک انرژی بالا سرن، لابی کردهام. زمان آن اکنون فرا رسیده است. چنین تلاشی، که بر ایمنی و قابلیت اطمینان هوش مصنوعی به جای سود تمرکز داشته باشد، و بر توسعه یک مجموعه جدید از تکنیکهای هوش مصنوعی که متعلق به بشریت باشد – نه فقط تعداد اندکی از شرکتهای طماع – میتواند تحولی باشد.
علاوه بر این، شهروندان باید سخن بگویند و خواستار هوش مصنوعیای باشند که برای بسیاری خوب است، نه فقط برای معدودی. یک چیزی که میتوانم تضمین کنم این است که به سرزمین موعود هوش مصنوعی نخواهیم رسید اگر همه چیز را به دست سیلیکون ولی بسپاریم. روسای تکنولوژی حقیقت را در طول دههها پنهان کردهاند. چرا باید انتظار داشته باشیم سم آلتمن، که آخرین بار در یک سوپرکار Koenigsegg با قیمت ۴ میلیون دلار در Napa Valley دیده شده، متفاوت باشد؟