تاریخ : پنجشنبه, ۳۰ فروردین , ۱۴۰۳ Thursday, 18 April , 2024
0

ژنرال ارشد پنتاگون: تا یک دهه‌ی دیگر «ترمیناتور» می‌سازیم

  • کد خبر : 159675
  • 20 شهریور 1395 - 9:37

ایده فیلم معروف «ترمیناتور»، یعنی «خودآگاه» شدن یک شبکه دفاعی هوش مصنوعی موسوم به «اسکای نت» و اعلام جنگ آن به انسان‌ها، حالا دیگر چندان دور از ذهن و تخیلی نیست.

 

 

«کمال مهر»؛- ایده فیلم معروف «ترمیناتور» (دوگانه ساخته جیمز کامرون با نقش آفرینی آرنولد شوارتسنگر)، یعنی «خودآگاه» self-aware شدن یک شبکه دفاعی هوش مصنوعی موسوم به «اسکای نت» و اعلام جنگ آن به انسان ها، حالا دیگر چندان دور از ذهن و تخیلی نیست. این مطلب را یک مقام نظامی ارشد پنتگون، وزارت دفاع آمریکا، بیان کرده است.

 

به گفته ژنرال «پاول سِلوا» Paul Selva، معاون ستاد مشترک ارتش آمریکا، تحقق چنین ایده ای دیگر مربوط به آینده دور هم نیست: ” یک دهه یا اندکی بیش تر با چنین قابلیتی فاصله داریم.”

هر چه امکان تحقق این ایده پررنگ تر می شود، متفکران امور نظامی و اخلاق گرایان، بیشتر با این دغدغه کلنجار می روند که عملی شدن آن چه تبعاتی خواهد داشت. ولی با عمیق تر شدن این دغدغه، میزان تردیدها درباره میزان آزادی عملی که می توان به ماشین های هوشمند نظامی داد هم بیشتر می شود.

 

ژنرال پاول سلوا

ژنرال سِلوا می گوید: ما باید بسیار محتاط باشیم که سیستم های (خودآگاهی) ابداع نکنیم که بتوانند به جای انسان تصمیم بگیرند که چه زمانی از زور و خشونت علیه دشمن استفاده شود….ما می توانیم به نحو خطرناکی به این «حد» نزدیک شویم و مدیون خود و مردم هستیم که برای مشخص و روشن نگه داشتن این حد تلاش کنیم.”

او که روز دوشنبه در «مرکز مطالعات بین المللی و راهبردی» سخنرانی می کرد، افزود: ” ایده یک سیستم روبوتیک که بتواند خود درباره آسیب رساندن به دشمن تصمیم بگیرد، پیش چشم ماست. این نه خیلی محشر است، نه خیلی خوب، ولی پیش روی ما قرار دارد.”

 

BigDog: روبات سگ نمای ساخت شرکت Boston Dynamics

این مساله به معضلی برای مقامات ارشد پنتاگون تبدیل شده است که ان را «دوراهی ترمیناتور» نامیده اند.

مساله روسیه

یکی از پررنگ ترین استدلال هایی که در پنتاگون برای توجیه این ایده وجود دارد این است که که چون رقبای آمریکا، یعنی روسیه و چین قصد دارند این سیستم های خودآگاه و با سرعت عمل بالا را بسازند، پس شاید بهتر است که پنتاگون هم آن ها را طراحی کند، نه برای «استفاده»، که برای دانستن نحوه کار و نحوه مقابله با آن ها.

 

مقامات پنتاگون می گویند که مقامات سیاسی نیازمند انتخاب های متنوع هستند و کار پنتاگون گذاشتن این انتخاب ها در دسترس آن هاست.

ماه گذشته، گزارشی از طرف «هیات علوم دفاعی» پنتاگون  منتشر شد که از پژوهشگران نظامی امریکا می خواست ” به بهره برداری از خودآگاهی سیستم ها، شتاب ببخشند تا ایالات متحده در زمینه استفاده از ماشین های هوشمند این چنینی از رقبا جلوتر باشد.”

 

Taranis: پهپاد بمب افکن رادارگریز ساخت BAE Systems

انتشار این گزارش موجب نگرانی عمیق مخالفان سیستم های پهپادی خودآگاه شد. بسیاری از سازمان های غیردولتی خواستار ممنوعیت ساخت ماشین های آدم کشی شده اند که تصمیم گیری انسانی از چرخه عملکرد ان ها حذف شده است.

اما «کنترل انسانی محسوس» بر ماشین های هوشمند دقیقا چه گونه است؟

به نظر دکتر «پاول شار» Paul Scharre، مدیر پروژه آینده جنگ افزارها در «مرکز امنیت نوین آمریکا»، این مفهومی است که هنوز به خوبی توضیح داده نشده است:
پاول شار

” روشن است که انسان نمی تواند تنها به روش فشار‌دادن چند دکمه در هدایت ماشین ها دخیل باشد، بلکه دخالت انسانی باید «شناختی» cognitive باشد.”

شار به دو مورد «برادرکشی»fratricide   در ۲۰۰۳ اشاره می کند که سیستم های موشک پاتریوت دچار نقص در عملکرد شد و یک اف-۱۶ آمریکایی و یک جنگنده تورنادوی بریتانیا را بر فراز عراق سرنگون کردند.

 

” یکی از مشکلاتی که منجر به این برادرکشی شد، دخیل نبودن «داوری» انسانی در عملکرد سیستم دفاع هوایی بود. آن ها به یک سیستم خودکار اعتماد داشتند و در نتیجه بر آن نظارتی اعمال نمی کردند.”

آدمیزاد «کُند» است

اما بخش بزگ تری از اصحاب پنتاگون در استدلال خود چندان در قید و بند تبعات اخلاقی آن نیستند و بیشتر به بعد نظامی – فنی نگاه می کنند. طبق استدلال آن ها، اگر دشمن قصد ساختن یک سیستم کارآمد کاملا خودآگاه را داشته باشد، چنین سیستمی سریع تر از سیستم آمریکایی واکنش نشان می دهد که درگیر «چک و بالانس» عامل انسانی است.

 

مثلا «فرانک کِندال»، معاون وزیر دفاع در امور فراگیری، فناوری و لجیستیک، نظری مخالف ژنرال سیلوا دارد:

“حتی در یک نبرد متعارف، ما مواظبیم که غیرنظامیان کشته نشوند. من انتظار ندارم که رقبای ما این گونه مقید باشند و قطعا اگر شما این قیود را نداشته باشید، از مزیت تصمیم گیری سریع برخوردار هستید.”

البته کندال عامدانه به این حقیقت اشاره نمی کند که همین حالا هم بیش از ۶۰ درصد تلفات پهپادهای آمریکایی در غرب و جنوب آسیا غیرنظامیانی هستند که بدون برنامه و غیرهوشمند هدف قرار می گیرند.”

او بر این باور است که اگر آمریکا خود را از توسعه سیستم های خودآگاه نظامی محروم کند، بسیار محتمل است که تفوق نظامی ان در دنیا به خطر بیافتد: ” دیگران قرار نیست مثل ما خود را محدود کنند، و اگر ما این کار را نکنیم دچار ضرری اساسی خواهیم شد.”

 

ژنرال سلوا می گوید که ممنوعیت جهانی تسلیحات خودآگاه هم مشکل است: ” بسیار محتمل است که نقض کنندگان این ممنوعیت هم زیاد باشند. مثلا به رغم این که ما تسلیحات شیمیایی و بیولوژیک را تایید نمی کنیم، اما می دانیم که برخی دولت ها و گروه های مسلح به دنبال کسب این قابلیت ها هستند.”

او البته متذکر می شود که این مسایل او را به عنوان یک نظامی در وضعیت دشواری قرار می دهد: ” شغل من به عنوان یک فرمانده نظامی مشاهده خشونت وصف ناپذیر علیه دشمن است… کار ما شکست دادن دشمن است.”

حذف انسان ها از تصمیم اعمال خشونت، می تواند عواقب به شدت غیرمنتظره مثبت یا منفی داشته باشد. برای نمونه، در ماه مارچ، یک رایانه-بازیکن طراحی شده توسط گوگل به نام «DeepMind» موفق شد استاد اعظم یک بازی فکری معروف باستانی موسوم به «Go»  را شکست دهد.

 

بازی «Go»

«لی سدول» کره ای که نابغه این بازی در دنیا محسوب می شود از این رایانه گوگل شکست خورد. حرکتی که این بازیکن رایانه ای برای شکست سدول انجام داد به قدری ماهرانه و هوشمندانه بود که مفسران بازی «گو» را انگشت به دهان کرد. حتی برخی از این مفسران حاضر به پذیرش چنین حرکتی از یک «هوش مصنوعی» نبودند و آن را یک حقه می دانستند، ولی درستی ماجرا اثبات شده است.

 

دکتر «شار» می گوید: ” مهم نیست که چه اندازه آزمایش روی این سیستم ها انجام بگیرد، وقتی آن ها را در محیط های دنیای واقعی به کار می گیریم موجب شگفتی ما می شوند. این حقیقت به ویژه در یک محیط رقابتی واقعی- که جنگ نمونه اعلای ان است- جلوه گر می شود که دشمنان تلاش خواهند کرد که ماشین هوشمند را هک، رمزگذاری و دستکاری کنند.”

به باور شار، گاهی این غافلگیری ها خوب هستند، مانند نمونه بازی «گو» که توسط کارشناسان حرکت رایانه گوگل «زیبا و درخشان» وصف شد، که احتمال انجام ان توسط انسان یک در ۱۰۰۰۰ بود.

در موارد دیگر، این غافلگیری می تواند ناخوشایند و حتی تراژیک باشد، مانند سرنگونی جنگنده های خودی توسط سیستم دفاع موشکی پاتریوت بود. دکتر شار می گوید:

” ما به نقطه ای خواهیم رسید که باید تصمیم بگیریم که یا کنترل انسانی را در این سیستم ها به هر قیمت حفظ کنیم، حتی اگر شده فقط به عنوان «ایمنی سیستم» در زمانی که دچار نقص می شود، یا باید ریسک های به کارگیری ماشین های خودآگاه را قبول کنیم.”

در نهایت، موافقان به کارگیری سیستم های کاملا خودآگاه نظامی استدلال می کنند که محاسن آن بر معایبش خواهد چربید. آن ها از سرعت تصمیم گیری در شرایط بحرانی با حذف عامل انسانی و همچنین مزایای «خودروهای هوشمند خودآگاه» در حفظ ایمنی سرنشینان به عنوان مصادیق استدلال خود نام می برند.

اما منتقدان این سوال را مطرح می کنند که از کجا معلوم که تعداد جان های انسانی که به واسطه کاربرد این سیستم ها حفظ می شوند، بر تعداد جان هایی که در صورت از کنترل خارج شدن این ماشین ها گرفته خواهد شد، بچربد؟

با همه این اوصاف، آقای شار بر این باور است که همین الان هم تغییرات مهمی در زمینه استفاده کنترل شده از این نوع ماشین ها در ذهنیت نیروهای نظامی ایجاد شده است: ” ما هنوز انسان های تفنگ به دست را برای یافتن دشمن به صحنه اعزام می کنیم. چرا؟ من معتقدم که دیگر واقعا نیازی به این کار نیست. ولی(تداوم این روش) نشان از تحولی عظیم در ذهنیت(مقامات نظامی) است.”

او در آخر بر عقیده خود پافشاری می کند:

” خودآگاهی سیستم های هوشمند در راه است. با شتابی فزاینده هم در راه است.”

منبع: Christian Science Monitor

۰ ۰ رای ها
رأی دهی به مقاله
لینک کوتاه : https://kamalemehr.ir/?p=159675

برچسب ها

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : ۰
اشتراک در
اطلاع از
guest
0 نظرات
بازخورد (Feedback) های اینلاین
View all comments
0
افکار شما را دوست دارم، لطفا نظر دهیدx
()
x