آیا هوش مصنوعی از بمب اتم مخرب‌تر است؟

تشبیه هوش مصنوعی و بمب اتم، نگرانی‌های تازه‌ای را به جان آدمیان انداخته است؛ اما آیا این دو واقعاً به یکدیگر شباهت دارند ؟

حتی اگر کسی خیلی از بمب‌ اتمی و سازوکار آن سر درنیاورد، حداقل از سرنوشت سال‌های دور مردم هیروشیما و ناکازاکی خبر دارد. هوش مصنوعی هم که دیگر آن‌قدر سروصدا به‌پا کرده است که بعید می‌دانیم کسی از نگرانی‌های حاصل از آن چیزی نشنیده باشد یا حداقل یک‌ بار به آن فکر نکرده باشد.

تا چندی پیش، نگرانی‌های حاصل از هوش مصنوعی برای برخی از افراد فقط در نابودی مشاغل خلاصه می‌شد؛ اما حالا کار به جایی رسیده است که قدرت تخریب هوش مصنوعی با بمب‌ اتمی مقایسه می‌شود و ترس‌ و نگرانی‌ بیشتری را به جان انسان‌ها می‌اندازد. هوش مصنوعی با سرعت نگران‌کننده‌ای ظاهر شده و با خطرهای جدی همراه است که بشر برای مواجهه با آن‌ها آمادگی ندارد.

آیا هوش مصنوعی از بمب‌ اتم مخرب‌تر است و می‌تواند خطری وجودی برای آینده‌ی بشر باشد؟ در این مقاله 31777 ، چراییِ مقایسه‌ی هوش مصنوعی و بمب اتم را بررسی می‌کنیم؛ پس با زومیت همراه شوید.

مقایسه‌ی هوش مصنوعی و بمب اتم از کجا چشمه می‌گیرد؟

قضیه از این قرار است که در ماه می رؤسای آزمایشگاه‌های هوش مصنوعی و برخی از محققان و افراد برجسته‌ای همچون بیل گیتس، در بیانیه‌ای بلندبالا به این موضوع اشاره کردند که کاهش خطر انقراض به‌واسطه‌ی هوش مصنوعی باید درکنار سایر خطرهای اجتماعی مانند بیماری‌های همه‌گیر و جنگ هسته‌ای دارای اولویتی جهانی باشد.

این بیانیه را بسیاری از افراد مطرح در این زمینه، از‌جمله رهبران OpenAI، گوگل، آنتروپیک و دو تن از به‌اصطلاح «پدرخوانده‌های» هوش مصنوعی، یعنی جفری هینتون و یوشوا بنجیو، امضا کردند.

هوش مصنوعی می‌تواند خطری وجودی برای بشر باشد؛ خطری هم‌تراز با جنگ هسته‌ای

بیانیه‌ی امضاشده هوش مصنوعی را با بیماری‌های همه‌گیر و سلاح‌های هسته‌ای به‌عنوان خطری بزرگ برای تمدن همراه کرد؛ اما به‌نظر می‌رسد این مقایسه مشکلاتی دارد.

کووید‌۱۹ تقریباً به هفت‌میلیون مرگ در سراسر جهان منجر شد و بحرانی گسترده را به‌همراه داشت و مشکلات اقتصادی و تورم سرسام‌آوری ایجاد کرد. درمقابل، بمب اتمی هزاران نفر را به دامان مرگ کشاند، در سال‌های پس‌از‌آن جان بسیاری از افراد مبتلا به سرطان را گرفت، دهه‌ها اضطراب عمیقی را در طول جنگ سرد ایجاد کرد و جهان را به مرز نابودی رساند.

جالب است بدانید که بسیاری از هشدارها درباره‌ی هوش مصنوعی از سوی ذهن‌های درخشانی می‌آید که در توسعه‌ی آن ایفای نقش کرده‌اند. آن‌ها هشدار داده‌اند که هوش مصنوعی می‌تواند خطری وجودی برای بشر باشد؛ خطری هم‌تراز با جنگ هسته‌ای.

بخشی از این نگرانی‌ها هم از فیلم جدید کریستوفر نولان، اوپنهایمر‌، نشئت می‌گیرد. اگرچه جبر جغرافیایی درحال‌حاضر ما را از تماشای ساخته‌ی جدید نولان محروم کرده است، از گوشه‌وکنار خبرهایی به گوشمان می‌رسد و با کمی کنکاش در تاریخ می‌توانیم حدس بزنیم که ریشه‌ی این نگرانی‌ها کجا است و چرا هوش مصنوعی با بمب اتمی مقایسه می‌شود.

 
  • آیا هوش مصنوعی و ربات‌ها می‌خواهند ما را از کار بیکار کنند؟

سؤال این است که اصلاً چنین ترس‌هایی چگونه ظاهر می‌شوند؟ یکی از نظریه‌های معروف در این زمینه «Paper Clip Maximizer» نام دارد که اولین‌بار نیک بوستروم، فیلسوف آکسفورد، آن را مطرح کرد. فرض کنید از هوش مصنوعی خواسته‌اید گیره‌های کاغذ فراوانی تولید کند.

AI ممکن است آن‌قدر موضوع را جدی بگیرد که برای یافتن مواد اولیه، کارخانه‌ها را تخریب و تصادفات رانندگی ایجاد کند و درآخر تصمیم بگیرد هرچیزی در جهان از‌جمله انسان‌ها را به گیره‌ی کاغذ تبدیل کند.

هوش مصنوعی در دستیابی به اهداف موفق عمل می‌کند؛ اما ازآن‌جاکه لزوماً با ارزش‌های اخلاقی سازندگانش هم‌خوانی ندارد، نمی‌توان خطرناک‌بودن آن را نادیده گرفت و اگر بخواهیم خیلی افراطی فکر کنیم، در بدترین حالت، می‌تواند درباره‌ی بردگی یا نابودی نژاد بشر نگرانی‌هایی ایجاد کند.

هوش مصنوعی در‌مقابل بمب اتم

شباهت‌های میان هوش مصنوعی و بمب اتم را نمی‌توان نادیده گرفت؛ اما دراین‌بین، تفاوت‌هایی نیز وجود دارد. به‌طور خلاصه، شباهت‌ها و تفاوت‌های این دو را می‌توان مانند زیر بیان کرد.

ظرفیت آسیب جمعی

نیازی به توضیح ندارد که سلاح‌های هسته‌ای چگونه می‌توانند آسیب جمعی را در مقیاسی ایجاد کنند که تا‌به‌حال تجربه نکرده‌ایم؛ اما این ظرفیت درباره‌ی هوش مصنوعی نیازمند توضیح بیشتری است.

دسترسی گسترده به هوش مصنوعی، می‌تواند آسیب‌هایی جدی در پی داشته باشد

بسیاری از محققان نشان داده‌اند سیستم‌های یادگیری ماشین موجود که برای اهدافی مانند خدمات مراقبت از کودکان استفاده می‌شوند، اغلب از تبعیض‌های موجود در داده‌های آموزشی خود بهره می‌برند. با گسترش این مدل‌ها و به‌کارگیری آن‌ها برای اهداف بیشتر، این سوگیری‌ها به‌تدریج بر زندگی ما اثر می‌گذارند و ممکن است خطرهای جدی به‌دنبال داشته باشند.

افزون‌براین، سیستم‌های هوش مصنوعی پیچیده ظرفیت سوء‌استفاده بسیار زیادی دارند. مقاله‌ای نشان می‌دهد که پژوهشگران دانشگاه Carnegie Mellon موفق شدند سیستم‌های زبان بزرگ را به سیستم پردازش شیمیایی مصنوعی آموزش دهند و سپس با دستور ساخت گاز کلرین و پیدا‌کردن ترکیبی مناسب، آزمایشگاهی ابری (سرویسی آنلاین که شیمی‌دانان می‌توانند آزمایش‌های شیمی فیزیکی را از راه دور انجام دهند) را ایجاد کنند. به‌نظر می‌رسید این سیستم بتواند گاز VX یا سارین و متامفتامین را تولید کند و تنها دلیل صرف‌نظر از آن، کنترل‌های ایمنی داخلی بوده است.

درحال‌حاضر، بسیاری از اطلاعات موردنیاز برای تولید سلاح‌های شیمیایی یا بیولوژیکی برای عموم و مدل‌سازان در‌دسترس قرار دارند؛ اما هر شخصی به تخصص‌های خاص برای درک و اعمال این اطلاعات نیاز دارد. تفاوت بین دنیایی که افراد عادی با دسترسی به مدل‌های زبان بزرگ می‌توانند سلاح‌های زیستی خطرناکی را ساختاریافته کنند و دنیایی که در آن فقط متخصص‌ها می‌توانند این کار را انجام دهند، شبیه تفاوت بین کشورهایی مانند آمریکا و انگلستان است که در یکی اسلحه‌های نیمه‌خودکار بزرگ به‌طور گسترده دردسترس هستند و در دیگری دسترسی به چنین اسلحه‌هایی غیرممکن است.

افرادی در حال فرار از انفجار

بااین‌حال، اگر کنترل کافی اِعمال نشود، دسترسی گسترده به این سیستم‌های هوش مصنوعی مانند دسترسی گسترده به اسلحه‌های شخصی می‌تواند به ایجاد دنیایی منتهی شود که افراد عادی با دسترسی به سیستم‌های زبان بزرگ، می‌توانند سلاح‌های بیولوژیکی خطرناکی را تولید و با استفاده از آن‌ها آسیب بزرگی به جامعه وارد کنند.

حال این سؤال پیش می‌آید که این آسیب با آسیب ناشی از سلا‌ح‌های هسته‌ای برابری می‌کند؟ احتمالاً نه. برای چنین سطحی از آسیب، به سناریوهای بیشتری برای تسخیر هوش مصنوعی نیاز است که بیشتر بر‌پایه‌ی حدس‌و‌گمان هستند.

درواقع، به نسخه‌ای بسیار قدرتمندتر از هوش مصنوعی امروزی نیاز خواهیم داشت. بااین‌همه، آسیب‌های ناشی از سوگیری الگوریتمی و سلاح‌های زیستی، بیش‌ از نگرانی‌های فعلی محسوس‌اند و توجه بیشتری را می‌طلبند.

پیشرفت علمی بسیار سریع

در دسامبر ۱۹۳۸، شیمی‌دانان، اتو هان و فریتز استراسمن، کشف کردند که اگر اورانیوم رادیواکتیو را با نوترون‌ها بمباران کنند، عنصری کوچک‌تر از اورانیوم را به‌دست خواهند آورد که شبیه به باریم به‌نظر می‌رسید.

این مشاهده بسیار مبهم بود؛ زیرا تا آن زمان عناصر رادیواکتیو فقط برای انتشار ذرات کوچک و تبدیل به عناصر کمی کوچکتر شناخته می‌شدند؛ اما در شب کریسمس، همکاران آن‌ها، لیز مایتنر و اتو فریش، توضیحی ارائه دادند مبنی بر اینکه نوترون‌ها اتم‌های اورانیوم را شکافته‌اند و باریم جامد و گاز کریپتون ایجاد کرده‌اند؛ فرایندی که فریش آن را شکافتن نامید.

مدل‌های پیشرفته یادگیری عمیق با سرعتی مشابه شکافت هسته‌ای در حال بهبود هستند

در ۱۶ ژوئیه ۱۹۴۵، پس از میلیاردها دلار سرمایه‌گذاری و معادل ۶۷ میلیون ساعت کار کارگران و دانشمندان از‌جمله فریش، نیروی نظامی آمریکا دستگاه ترینیتی (اولین سلاح هسته‌ای) را با استفاده از فرایندی منفجر کرد که فریش و مایتنر آن را کمتر از هفت سال پیش فقط به‌عنوان نظریه مطرح کرده بودند.

به‌طور کلی، تعداد کمی از زمینه‌های علمی کشف نظری را به تکنولوژی عملی بسیار مهمی تبدیل کرده‌اند؛ اما هوش مصنوعی می‌تواند یکی از این‌ها باشد. حوزه‌ی هوش مصنوعی در دهه‌ی ۱۹۵۰ متولد شد؛ اما تکنیک‌های «یادگیری عمیق» در هوش مصنوعی که اطلاعات را از‌طریق چند لایه «نورون» به‌صورت «شبکه‌های عصبی» مصنوعی پردازش می‌کنند، حدوداً سال ۲۰۰۹ آغاز شد.

پس‌از‌آن، بلافاصله مدل‌های یادگیری عمیق در مسابقاتی پیروز شدند که توانایی آن‌ها در طبقه‌بندی تصاویر را آزمایش می‌کردند. همین تکنیک‌ها قهرمانان جهان را در بازی‌های Go و StarCraft می‌توانستند شکست دهند و مدل‌هایی مانند GPT-4 یا Stable Diffusion را تولید کنند که خروجی‌های متنی و تصویری بی‌نظیری را ارائه می‌دهند.

مدل یادگیری عمیق

پیشرفت در یادگیری عمیق تقریباً تصاعدی به‌نظر می‌رسد؛ زیرا منابع محاسباتی و داده‌های استفاده‌شده در آن به‌صورت پایدار در حال رشد هستند. همه‌ی این‌ها را گفتیم که درنهایت به این نکته برسیم تقریباً به همان اندازه که شکافت هسته‌ای با سرعت شگرفی توسعه یافت، به‌نظر می‌رسد مدل‌های پیشرفته یادگیری عمیق و قابلیت‌های آن‌ها با سرعتی مشابه در حال بهبود هستند.

هوش مصنوعی و بمب اتم؛ تفاوت در چیست؟

طبیعتاً در زندگی روزمره‌مان از سلاح‌های هسته‌ای استفاده نمی‌کنیم و بسیاری از ما هرگز کارکردن با آن را تجربه نخواهیم کرد. شکافت هسته‌ای از‌طریق انرژی هسته‌ای که حدود ۴ درصد از انرژی جهان را تأمین می‌کند، زندگی روزمره ما را تحت‌تأثیر قرار می‌دهد؛ اما به‌دلیل استفاده‌ی محدود آن، نمی‌توان گفت که این فناوری زندگی ما را تحت‌تأثیر قرار داده است.

افزون‌براین، دقیقاً نمی‌دانیم که هوش مصنوعی چگونه بر جهان تأثیر می‌گذارد و کسی نمی‌تواند با جزئیات بگوید که چه اتفاقی در شرف وقوع است. هوش مصنوعی را می‌توانیم فناوری همه‌منظوره در نظر بگیریم؛ یعنی چیزی مانند برق یا تلگراف یا اینترنت که به‌طور گسترده نحوه‌ی عملکرد کسب‌وکارها در مناطق مختلف را تغییر می‌دهد و با نوآوری‌هایی که بخش خاصی را تحت‌تأثیر قرار می‌دهند، کاملاً متفاوت است.

هوش مصنوعی فرسایش تدریجی مهم‌ترین مهارت‌های انسان را در پی دارد

استفاده از هوش مصنوعی برای تولید سریع متن به‌واسطه‌ی مدل‌های زبانی یا بهبود خدماتی مثل سیری و الکسا به‌طوری‌که درست مانند دستیار شخصی عمل و هوشمندانه‌ برنامه‌ریزی کنند، در بسیاری از مشاغل کاربردی خواهد بود.

مک‌کینزی به‌تازگی پیش‌بینی کرده است که تأثیر هوش مصنوعی مولد بر بهره‌وری می‌تواند نهایتاً ۴.۴ تریلیون دلار به اقتصاد جهانی اضافه کند؛ بنابراین، اینکه فناوری به‌طور گسترده برای طیف وسیعی از مشاغل و بخش‌ها مهم خواهد بود، نکته‌ی مهمی است.

در‌مجموع، انرژی هسته‌ای فناوری بسیار مفیدی است و ممنوع‌کردن شکافت هسته‌ای طبیعتاً ایده‌ی بدی خواهد بود. درباره‌ی هوش مصنوعی باید به این نکته توجه کرد که حتی با درنظرگرفتن تهدیدهای عمده‌ای که ایجاد می‌کند، چقدر می‌تواند مفید واقع شود؛ بنابراین، ممنوعیت آن به‌وضوح اجرایی نیست.

بهره‌برداری آسان از هوش مصنوعی

اغلب کشورها از‌جمله بسیاری از کشورهای ثروتمندی که به‌راحتی منابع لازم برای ساخت بمب اتمی را دارند، از توسعه‌ی بمب اتمی انصراف داده‌اند؛‌ زیرا ساخت بمب اتمی اساساً سخت و هزینه‌بر خواهد بود.

مقایسه‌ی هوش مصنوعی و بمب اتم، قیاسی بیهوده است

به‌گزارش کمپین بین‌المللی لغو سلاح‌های هسته‌ای، کره‌شمالی فقط در سال ۲۰۲۲ چیزی نزدیک به ۵۸۹ میلیون دلار برای برنامه‌ی هسته‌ای خود هزینه کرده است. این عدد در دهه‌های آینده به میلیاردها دلار خواهد رسید. بسیاری از کشورها نباید منابعشان را برای توسعه‌ی سلاحی صرف کند که احتمالاً هرگز استفاده نخواهند کرد. بیشتر گروه‌های تروریستی نیز منابع لازم برای ساخت چنین سلاحی را ندارند.

در‌مقابل، آموزش هوش مصنوعی نیز سخت و پرهزینه است؛‌ اما درمقایسه‌با بمب اتمی، بعد از ساخت مدلی خاص به‌دست شرکت‌ها یا دولت، آسان‌تر امکان پیگیری و کپی‌برداری دارد.

به‌عنوان مثال، مدل زبان Vicuna یکی از مدل‌های اخیر محسوب می‌شود که براساس مدل LLaMA (منتشرشده‌ی متا) ساخته شده است و جرئیات آن نیز در‌دسترس عموم قرار دارد. Vicuna با استفاده از حدود ۷۰,۰۰۰ مکالمه‌ی کاربران واقعی با ChatGPT آموزش داده شده و با استفاده از «تنظیم دقیق» LLaMA، مدلی دقیق‌تر و مفیدتر تولید کرده است.

تیمی از علاقه‌مندان که تلاش می‌کنند سلاح هسته‌ای بسازند، کار بسیار آسان‌تری درمقایسه‌با پروژه‌ی منهتن خواهند داشت؛ زیرا می‌توانند از تمامی چیزهایی که پروژه‌ی منهتن و هر پروژه‌ی هسته‌ای دیگری یاد گرفته‌اند، بهره‌ ببرند. این در‌ حالی‌ است که افرادی با حداقل منابع می‌توانند سیستم‌های هوش مصنوعی پیشرفته را بسازند و آن‌ها را سفارشی کنند.

با‌توجه‌به این مسائل، می‌توان این‌طور نتیجه‌گیری کرد که قیاس‌های AI=nukes احتمالاً بیهوده هستند. بهترین راه برای مواجهه با فناوری جدید و قدرتمند و خطرناک، همکاری بین‌المللی گسترده است.

 

در‌واقع، خطری وجودی و ذاتی در استفاده از هوش مصنوعی برای نوع انسان وجود دارد؛ اما این خطر بیشتر در مفهوم فلسفی طبقه‌بندی می‌شود و نه آخرالزمانی. هوش مصنوعی در شکل فعلی‌اش می‌تواند دیدگاه افراد را درباره‌ی خود تغییر دهد یا توانایی‌ها و تجربیاتی را تنزل دهد که مردم برای انسان‌بودن ضروری می‌دانند.

به‌عنوان مثال، چت‌جی‌پی‌تی را در نظر بگیرید. این فناوری در حال حذف نقش نوشتن تکالیف در آموزش عالی است و اگر این امر محقق شود، مربیان یکی از ابزارهای اصلی خود برای آموزش به دانش‌آموزان را از دست خواهند داد.

هوش مصنوعی دنیا را نابود نخواهد کرد؛ اما پذیرش آن در انواع زمینه‌ها، فرسایش تدریجی برخی از مهارت‌های مهم انسان را در پی دارد. درحال‌حاضر، نگرانی اصلی این است که هرگز نمی‌دانیم هوش عمومی مصنوعی (AGI) چه زمانی ظاهر می‌شود. چه‌بسا AGI بتواند هوش خود را از انسان‌ها پنهان کند و توقف آن برای انسان‌ها دشوار و غیرممکن شود.

بااین‌حال، این بدان‌معنا نیست که توسعه‌ی هوش مصنوعی باید متوقف شود. درست همان‌طور‌که تیم اوپنهایمر آزمایش ترینیتی را متوقف نکرد، محققان هوش مصنوعی باید به ایجاد نرم‌افزار هوش مصنوعی بهتر ادامه دهند.

۵
از ۵
۱۲ مشارکت کننده