-
برنامه پنتاگون برای توسعه تسلیحات هوش مصنوعی و خطر انقراض نوع بشر +عکس / تحلیل نشریه ی آمریکایی «THE NATION»:
سهشنبه ۱۷ بهمن ۱۴۰۲ ساعت ۸:۳۲
برنامه پنتاگون برای توسعه تسلیحات هوش مصنوعی و خطر انقراض نوع بشر +عکس ظاهرا مقامات معتقدندکه تنها چیزی که ضعف ارتش آمریکا را در برابر قدرت نظامی متعارف و بزرگی ارتش خلق چین، در درگیری نظامی محتمل آینده، جبران
ظاهرا مقامات معتقدندکه تنها چیزی که ضعف ارتش آمریکا را در برابر قدرت نظامی متعارف و بزرگی ارتش خلق چین، در درگیری نظامی محتمل آینده، جبران خواهد کرد، توسعه ی بی وقفه ی تسلیحات هوش مصنوعی است.
نشریه ی آمریکایی «THE NATION»، در مقاله ای به تاریخ 6 دسامبر، نسبت به ذهنیت و روند موجود در دولت آمریکا، به ویژه در پنتاگون، برای توسعه ی شتابناک تسلیحات خودگردان مبتنی بر هوش مصنوعی، هشدار داد. به نوشته ی این مقاله، مقامات وزارت دفاع به جد معتقدند تنها چیزی که کمبود و ضعف ارتش آمریکا را در برابر قدرت نظامی متعارف و حجم و بزرگی ارتش خلق چین، در درگیری نظامی بسیار محتمل آینده، جبران خواهد کرد، توسعه ی بی وقفه ی تسلیحات خودگردان هوش مصنوعی است، از این رو، پنتاگون عملا بدون توجه به دغدغه های جدی متخصصان امر درباره خطرات عمیق و پردامنه ی این حوزه، در حال توسعه ی این نوع تسلیحات است، روندی که به عقیده ی نویسندگان، می تواند فاجعه ای به بزرگی انقراض تمدن بشری را رقم بزند.نمایش اخیر اتاق هیئت مدیره بر سر رهبری OpenAI - استارت آپ فناوری مستقر در سانفرانسیسکو که پشت برنامه کامپیوتری بسیار محبوب ChatGPT قرار دارد - به عنوان یک جنگ قدرت شرکتی، یک درگیری شخصیتی مبتنی بر جاه طلبی و یک مناقشه استراتژیک بر سر انتشار نسخه های دیگری از ChatGPT و...توصیف شد. همه این ها، و بیشتر از این ها، بود، اما در بطن خود، نشان دهنده یک جدال تلخِ غیرمعمول بین آن دسته از مقامات شرکتی بود که طرفدار تحقیقات نامحدود در مورد اشکال پیشرفته هوش مصنوعی (AI) هستند و کسانی که از ترس نتایج بالقوه فاجعه بار چنین تلاش هایی، به دنبال راهی برای کاهش سرعت توسعه هوش مصنوعی می گردند.
تقریباً همزمان با شروع این جدال نمادین و تاریخی در هیات مدیره ی OpenAI، جدال مشابهی در سازمان ملل متحد در نیویورک و دفاتر دولتی در واشنگتن دی سی بر سر توسعه سیستم های تسلیحاتی خودگردان– یعنی کشتی های بدون سرنشین، هواپیماها و تانک های هدایت شونده با هوش مصنوعی- در جریان بود. در این رقابت، ائتلاف گسترده ای از دیپلمات ها و فعالان حقوق بشر به دنبال اِعمال ممنوعیت های الزام آور قانونی برای چنین وسایلی - که توسط مخالفان "روبات های قاتل" نامیده می شوند- هستند. این در حالی است که مقامات وزارت خارجه و دفاع ایالات متحده برای توسعه سریع آن ها استدلال می کنند.
در هر دو دسته از اختلافات، دیدگاه های رقیب بر سر قابل اعتمادبودن اشکال پیشرفته ی هوش مصنوعی، به ویژه "مدل های زبان بزرگ" مورد استفاده در سیستم های "هوش مصنوعی مولد" مانند ChatGPT مطرح است. (برنامه هایی از این دست «تولید کننده» نامیده می شوند زیرا می توانند متن یا تصاویر با کیفیت انسانی را بر اساس تجزیه و تحلیل آماری داده های جمع آوری شده از اینترنت ایجاد کنند). کسانی که طرفدار توسعه و کاربرد هوش مصنوعی پیشرفته - چه در بخش خصوصی و چه در ارتش - هستند، ادعا می کنند که چنین سیستم هایی را می توان با خیال راحت توسعه داد. کسانی که در برابر چنین اقدامی هشدار می دهند، می گویند که حداقل بدون تدابیر اساسی نمی توان چنین توسعه ای را صورت داد.
بدون پرداختن به جزئیات درام هیات مدیره ی OpenAI - که فعلاً در 21 نوامبر با انتصاب اعضای جدید هیئت مدیره و بازگشت سام آلتمن، مشهور به جادوگر هوش مصنوعی به عنوان مدیر اجرایی پس از برکناری پنج روز پیش تر او به پایان رسید - بدیهی است که این بحران به دلیل نگرانی اعضای هیئت مدیره اولیه ایجاد شد، یعنی این نگرانی که آلتمن و کارکنانش، علی رغم تعهدات قبلی خود مبنی بر احتیاط بیشتر، برعکس با شیب تند و سرعت بالا در جهت توسعه شتابناک هوش مصنوعی حرکت کردند.
از منظر آلتمن و بسیاری از همکارانش، تکنسین های انسانی در آستانه ایجاد «هوش مصنوعی عام» یا «اَبَر-هوش» هستند – برنامه های هوش مصنوعیِ به قدری قدرتمند که می توانند تمام جنبه های شناخت انسان را تقلید نمایند، خودشان برنامه ریزی کنند و برنامه نویسی انسان را غیرضروری بسازند. ادعا می شود که چنین سیستم هایی می توانند اکثر بیماری های انسانی را درمان کنند و معجزات مفید دیگری را انجام دهند – اما ناظرانی که این اندازه خوش بین نیستند، هشدار می دهند که با این روند توسعه ی عجولانه ی هوش مصنوعی، اکثر مشاغل انسانی حذف خواهند شد و در نهایت ممکن است خود انسان ها نیز از صحنه خارج شوند.
آلتمن و معاونان ارشدش در ماه مه نوشتند:
«از نظر جنبه های مثبت و منفی بالقوه، ابر-هوش قوی تر از سایر فناوری هایی است که بشر در گذشته مجبور به مبارزه با آن ها بوده است». ما می توانیم آینده ای، به نحوی چشمگیر، مرفه تر داشته باشیم. اما برای رسیدن به آن باید ریسک را مدیریت کنیم.»
از نظر آلتمن، مانند بسیاری دیگر از فعالان در زمینه ی هوش مصنوعی، این خطر یک بعد «وجودی» دارد که دربردارنده ی تهدید فروپاشی احتمالی تمدن بشری و در نهایت، انقراض انسانی است. او در جلسه استماع سنا در 16 مِی گفت: «من فکر می کنم اگر این فناوری اشتباه پیش برود، می تواند اشتباه از نوع محض و کامل باشد." او همچنین نامه ای سرگشاده از سوی «مرکز ایمنی هوش مصنوعی» را امضا کرد که در آن به خطر بالقوه ی انقراض نوع بشر اذعان شده بود و تاکید شد که که کاهش این خطر "باید یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی مانند بیماری های همه گیر و جنگ هسته ای باشد."
با این وجود، آلتمن و دیگر مقامات ارشد هوش مصنوعی بر این باورند که تا زمانی که حفاظت های کافی در این راه پیش بینی و تعبیه شده باشد، می توان و باید به دنبال آن بود. او به کمیته فرعی سنا برای حریم خصوصی، فناوری و قانون گفت: "ما معتقدیم که مزایای ابزارهایی که تاکنون به کار گرفته ایم، بسیار بیشتر از خطرات است، اما اطمینان از ایمنی آن ها برای کار ما حیاتی است."
محاسبات مشابهی در مورد بهره برداری از هوش مصنوعی پیشرفته بر دیدگاه مقامات ارشد وزارت خارجه و دفاع حاکم است، آن ها استدلال می کنند که هوش مصنوعی می تواند و باید برای به کارگیری سیستم های تسلیحاتی آینده مورد استفاده قرار گیرد - تا زمانی که این کار به شیوه ای"مسئولانه" انجام شود.
بانی جنکینز، معاون وزیر امور خارجه در امور کنترل تسلیحات و عدم اشاعه، در یک سخنرانی در سازمان ملل در 13 نوامبر اعلام کرد:
«ما نمی توانیم پیش بینی کنیم که فناوری های هوش مصنوعی چگونه تکامل می یابند یا در یک یا پنج سال آینده چه توانایی هایی دارند.» با این وجود، او خاطرنشان کرد، ایالات متحده مصمم است «سیاست های لازم را اعمال و ظرفیت های فنی را ایجاد کند تا توسعه و استفاده مسئولانه [از هوش مصنوعی توسط ارتش] صرف نظر از پیشرفت های فناوری امکان پذیر باشد».
جنکینز در آن روز در سازمان ملل بود تا از «اعلامیه سیاسی استفاده نظامی مسئولانه از هوش مصنوعی و خودمختاری» رونمایی کند، یک فراخوان الهام گرفته از ایالات متحده برای محدودیت داوطلبانه در توسعه و استقرار تسلیحات خودگردان مجهز به هوش مصنوعی. این بیانیه، از جمله، متذکر می شود که «دولت ها باید اطمینان حاصل کنند که ایمنی، امنیت و اثربخشی قابلیت های هوش مصنوعی نظامی تحت آزمایش های مناسب و دقیق قرار می گیرد» و «دولت ها باید پادمان های مناسب را برای کاهش خطرات ناشی از شکست در هوش مصنوعی نظامی اعمال کنند. قابلیت هایی مانند توانایی غیرفعال کردن سیستم های مستقر شده، زمانی که چنین سیستم هایی رفتار ناخواسته نشان می دهند.»
با این حال، هیچ یک از اینها، الزام قانونی برای کشورهای امضاکننده اعلامیه نیست. بلکه صرفاً دربرگیرنده ی تعهد به مجموعه ای از بهترین شیوه ها است، بدون نیاز به نشان دادن انطباق با آن اقدامات یا خطر مجازات در صورت عدم رعایت آن.
اگرچه چندین ده کشور - عمدتاً متحدان نزدیک ایالات متحده - این بیانیه را امضا کرده اند، بسیاری از کشورها از جمله اتریش، برزیل، شیلی، مکزیک، نیوزیلند و اسپانیا اصرار دارند که مطابقت داوطلبانه با مجموعه ای از استانداردهای طراحی شده توسط ایالات متحده برای محافظت در برابر خطرات ناشی از استقرار سلاح های مجهز به هوش مصنوعی کافی نیست. در عوض، آن ها به دنبال یک ابزار الزام آور قانونی هستند که محدودیت های سختی را برای استفاده از چنین سیستم هایی تعیین کند یا آن ها را به طور کلی ممنوع کند. برای این بازیگران، خطر "سرکش شدن" این گونه سلاح ها، و انجام حملات غیرمجاز علیه غیرنظامیان، آشکارا بیش از آن بزرگ است که اجازه استفاده از آن ها در نبرد را بدهد.
الکساندر کمنت، مذاکره کننده ارشد اتریش در زمینه خلع سلاح، کنترل تسلیحات و عدم اشاعه، به The Nation گفت:
«زمانی که تصمیم گیری در مورد زندگی و مرگ انسان ها، دیگر توسط خود انسان ها گرفته نمی شود، بلکه بر اساس الگوریتم های از پیش برنامه ریزی شده اتخاذ می شود، به این معنی است که بشریت در شُرُف عبور از آستانه ی مهمی است. این موضوع، مسائل اخلاقی بنیادین را مطرح می کند.»
برای سال ها، اتریش و تعدادی از کشورهای آمریکای لاتین در پی اعمال ممنوعیت این گونه سلاح ها تحت حمایت کنوانسیون سلاح های متعارف معیّن (CCW) و معاهده 1980 سازمان ملل متحد هستند که هدف آن محدود کردن یا ممنوع کردن سلاح هایی است که به نظر می رسد باعث وارد آمدن رنج غیرضروری به جنگجویان یا تحت تأثیر قرارگرفتن غیرنظامیان به طور بی رویه می شوند. این کشورها به همراه کمیته بین المللی صلیب سرخ و سایر سازمان های غیردولتی ادعا می کنند که سلاح های کاملاً خودمختار در این دسته قرار می گیرند، زیرا ثابت می کنند که قادر به تمایز بین جنگجویان و غیرنظامیان در گرماگرم نبرد، آن طور که در قوانین بین الملل الزامی است، نیستند. اگرچه به نظر می رسد اکثر طرف های عضو CCW با این دیدگاه موافق هستند و از کنترل های شدید بر سلاح های خودمختار حمایت می کنند، تصمیمات کشورهای امضاکننده با اجماع اتخاذ می شود و تعداد معدودی از کشورها از جمله اسرائیل، روسیه و ایالات متحده از حق وتوی خود استفاده کرده اند. برای جلوگیری از اتخاذ چنین اقدامی. این به نوبه خود، طرفداران مقررات محدودکننده را به سمت استفاده از ظرفیت مجمع عمومی سازمان ملل متحد سوق داده است - جایی که تصمیمات با اکثریت آرا به جای اجماع اتخاذ می شود.
در 12 اکتبر سال جاری، برای اولین بار، اولین کمیته مجمع عمومی - مسئول صلح، امنیت بین المللی و خلع سلاح - به خطرات ناشی از تسلیحات خودمختار، با اکثریت گسترده - 164 رای موافق در برابر 5 (با 8 رای ممتنع) – مصوبه ای را از تایید گذراند که دبیرکل سازمان ملل را ملزم می سازد تا مطالعه جامعی در این زمینه انجام دهد. این مطالعه که قرار است به موقع برای نشست بعدی مجمع عمومی (در پاییز 2024) تکمیل شود، برای بررسی «چالش ها و نگرانی هایی» است که چنین سلاح هایی «از چشم اندازهای بشردوستانه، حقوقی، امنیتی، فناوری و اخلاقی و همچنین در میزان نقش آفرینی انسان در استفاده از زور» ایجاد می کنند.
اگرچه اقدام سازمان ملل هیچ گونه محدودیت الزام آور برای توسعه یا استفاده از سیستم های تسلیحاتی خود مختار اعمال نمی کند، اما با شناسایی طیفی از نگرانی ها در مورد استقرار آن ها زمینه را برای اتخاذ چنین اقداماتی در آینده فراهم می کند. به ویژه این که، این مصوبه با تأکید بر این که دبیرکل، هنگام تهیه ی گزارش مورد نیاز، این خطرات را با جزئیات و با استفسار نظرات دانشمندان و سازمان های جامعه مدنی صورت بندی کند، گام قابل قبولی محسوب می شود.
سفیر کیمنت خاطرنشان کرد:
«هدف بدیهی ما این است که در سامان دهی به سیستم های تسلیحاتی خودمختار، رو به جلو حرکت کنیم. این قطعنامه روشن می کند که اکثریت قاطع کشورها می خواهند با فوریت به این موضوع رسیدگی شود.»
با این حال، برای مقامات وزارت دفاع آمریکا، ظاهرا این موضوع تا حد زیادی حل شده است: ایالات متحده به توسعه و استقرار سریع انواع متعددی از سامانه های تسلیحاتی خودمختار مجهز به هوش مصنوعی ادامه خواهد داد. این امر در 28 آگوست با اعلام ابتکار عمل "Replicator" توسط کاتلین هیکس، معاون وزیر دفاع، آشکار شد.
با اشاره به اینکه ایالات متحده باید برای جنگ احتمالی با ارتش آزادیبخش خلق چین (PLA) در آینده ای نه چندان دور آماده شود و نیروهای آمریکایی نمی توانند در برابر موجودی های تسلیحاتی ارتش آزادیبخش خلق چین، به صورت اقلام به اقلام (تانک در برابر تانک، کشتی در مقابل کشتی، و غیره) موازنه ایجاد کنند، هیکس استدلال کرد که ایالات متحده باید آماده غلبه بر برتری چین در اقدامات متعارف قدرت - "انبوهه ی نظامی" آن – از طریق استقرار "چندین هزار" از تسلیحات خودمختار باشد.
او در جلسه انجمن صنایع دفاع ملی به مدیران شرکت گفت:
«برای این که جلوتر بمانیم، می خواهیم وضعیت جدیدی از هنر{رزم} ایجاد کنیم - درست همانطور که آمریکا قبلاً ایجاد کرده است - با استفاده از سیستم های قابل جایگزین[یعنی یکبار مصرف] و خودمختار در همه حوزه ها. در واشنگتن ما با توده های نیروهای ارتش خلق چین مقابله خواهیم کرد، اما برنامه ریزی برای ما سخت تر، ضربه زدن سخت تر و شکست دادن سخت تر خواهد بود.»
هیکس در سخنرانی بعدی خود که در 6 سپتامبر ایراد شد، جزئیات (کمی) بیشتری در مورد آنچه که سامانه های تسلیحاتی خودگردان جایگزین پذیر جامع(ADA2) نامید، ارائه کرد:
«تصور کنید غلاف های توزیع شده از سیستم های ADA2 خودکششی بر سطح آب شناور هستند... مملو از حسگرهای فراوان…. ناوگانی از سیستم های ADA2 زمین پایه را تصور کنید که پشتیبانی لجستیکی بدیعی را ارائه می دهند و برای ایمن نگه داشتن نیروها پیشروی می کنند. دسته هایی از سیستم های [هوایی] ADA2 را تصور کنید که در انواع ارتفاعات پرواز می کنند، طیف وسیعی از ماموریت ها را انجام می دهند و بر اساس آنچه در اوکراین دیده ایم، ساخته می شوند.»
طبق دستورالعمل رسمی، هیکس مدعی شد که همه این سیستم ها «در راستای رویکرد مسئولانه و اخلاقی ما نسبت به هوش مصنوعی و سیستم های خودمختار، توسعه داده خواهند شد.» اما به جز آن اشاره تک خطی به ایمنی، تمام تاکید در گفتگوهای او بر شکستن گلوگاه های بوروکراتیک به منظور سرعت بخشیدن به توسعه و استقرار سلاح های خودمختار بود. او در 28 آگوست اعلام کرد: «اگر [این تنگناها] برطرف نشود، دنده های ما همچنان بسیار آهسته می چرخند و موتورهای نوآوری ما هنوز با سرعت و مقیاسی که ما نیاز داریم، کار نمی کنند. و ما نمی توانیم از آن {روند} تبعیت کنیم.»
و بنابراین، قدرت های موجود - هم در سیلیکون ولی(مرکز فناوری های نوین در آمریکا) و هم در واشنگتن - تصمیم گرفته اند با وجود هشدارهای دانشمندان و دیپلمات ها مبنی بر این که نمی توان از ایمنی این برنامه ها اطمینان حاصل کرد، به توسعه و استفاده از نسخه های پیشرفته تر هوش مصنوعی ادامه دهند، سامانه های که استفاده نادرست از آن ها می تواند عواقب فاجعه باری داشته باشد، فاجعه ای در حد انقراض بشر.
خبر
شماره مطلب: 24913
دفعات دیده شده: ۱۶۷ | آخرین مشاهده: ۳ ساعت پیش