image-20251121104235-1.jpeg

تحول پرشتاب فناوری‌های مبتنی بر هوش مصنوعی در حوزه نظامی، یکی از عمیق‌ترین و ساختارشکن‌ترین تغییراتی است که نظم امنیت بین‌الملل در دهه اخیر تجربه کرده است.

به گزارش پایگاه خبری پیام خانواده؛ هوش مصنوعی نه‌تنها ماهیت سامانه‌های نظامی را دگرگون کرده، بلکه منطق تصمیم‌گیری و سرعت واکنش دولت‌ها را نیز وارد مرحله‌ای بی‌سابقه کرده است.

ادغام مدل‌های پیشرفته یادگیری ماشینی در سامانه‌های نظامی، فرماندهی و کنترل، تحلیل کلان‌داده، تسلیحات سایبری و حتی پلتفرم‌های تسلیحات متعارف و هسته‌ای، رقابتی چندلایه ایجاد کرده که پیامدهای آن به‌مراتب فراتر از میدان‌های نبرد سنتی است.

این تحول، در کنار افزایش سرعت پردازش و دامنه عملیات، سطح جدیدی از ریسک را وارد معادلات امنیت جهانی کرده است؛ ریسکی که نه فقط نیروهای نظامی، بلکه زیرساخت‌های حیاتی، شبکه‌های اقتصادی، محیط‌زیست و حتی امنیت انسانی را در ابعاد وجودی تهدید می‌کند.

این وضعیت به‌تدریج معماری جدید رقابت فناورانه را شکل داده که در آن کشورها به‌دنبال برتری عملیاتی، سرعت تصمیم‌گیری بیشتر و قابلیت‌های هوش‌افزوده در محیط‌های پیچیده هستند. اما همین مزیت‌های عملیاتی، در غیاب قواعد مشترک و مکانیسم‌های کنترل‌کننده، می‌تواند به اشتباهات فاجعه‌بار، سوءبرداشت‌های راهبردی و چرخه‌های تشدید ناخواسته تنش منجر شود. از همین روی، ضرورت ایجاد چارچوب‌های حکمرانی، بیش از هر زمان دیگر برجسته شده است.

این نوشتار کوتاه با اتکا به چارچوب تحلیلی ارائه‌شده در سند مشترک اندیشکده بروکینگز و دانشگاه تسینگهوا، تلاش می‌کند تصویری منسجم از ماهیت این خطرات، منطق شکل‌گیری بحران‌های مبتنی بر هوش مصنوعی و نیازهای فوری برای شکل‌دهی به یک رژیم حکمرانی مشترک میان ایالات متحده و چین ارائه دهد؛ رژیمی که بتواند از بروز بحران جلوگیری کند و در صورت وقوع، پیامدهای آن را مدیریت‌پذیر سازد.

اهمیت حکمرانی هوش مصنوعی نظامی

پیشرفت‌های سریع در مدل‌ها و معماری‌های نوین هوش مصنوعی موجب شده است که کشورها سامانه‌های نظامی خود را با سرعتی بی‌سابقه خودکارسازی کنند. این خودکارسازی الزاماً به معنای افزایش دقت و کارایی نیست؛ بلکه احتمال بروز خطا، سوءبرداشت یا رفتارهای پیش‌بینی‌ناپذیر را بالا می‌برد.

از آنجا که ایالات متحده و چین نقش رهبری در توسعه و انتشار فناوری دارند، مسئولیت آن‌ها برای جلوگیری از بروز بحران‌های نظامی مبتنی بر هوش مصنوعی، به‌صورت ذاتی افزایش یافته است. در این چارچوب، دو نوع رژیم حکمرانی قابل تمایز است:

  • رژیم‌های حکمرانی که بر کاهش احتمال بروز بحران تمرکز دارند.
  • رژیم‌های آمادگی که با هدف کاهش پیامدهای بحران شکل می‌گیرند.

به باور کارشناسان، هر دو رژیم زمانی معنادار می‌شوند که مبتنی بر یک روش تحلیلی مشترک برای اولویت‌بندی تهدیدها و رفتارها باشند.

چرخه چهارمرحله‌ای بحران‌های نظامی مبتنی بر هوش مصنوعی

مدل ارائه‌شده از سوی اندیشکده بروگینگز، یک چارچوب چهارمرحله‌ای برای درک سازوکار شکل‌گیری بحران‌ها پیشنهاد می‌کند که «آغاز»، «کنش»، «اثر» و «پاسخ» را شامل می‌شود. این مدل، نقطه تلاقی تصمیم‌های انسانی، خطاهای فنی و پویایی سامانه‌های هوشمند است.

مرحله آغاز: ریشه بحران

بر اساس برآوردهای صورت گرفته، منشأ بحران ممکن است ناشی از سه دسته خطای فنی باشد:

  • خطاهای قابل‌شناسایی مانند نقص الگوریتمی یا داده‌های معیوب
  • خطاهای غیرقابل‌شناسایی مرتبط با ساختارهای جعبه‌سیاه یا رفتارهای خودآموز غیرقابل‌پیش‌بینی
  • اختلال سیگنال‌ها ناشی از عوامل طبیعی یا فضایی که باعث ورودی‌های نادرست می‌شود

در کنار خطاهای فنی، تصمیم‌های انسانی، اعم از اقدام عمدی یا غیرعمدی برای اخلال، تخریب، اختلال سایبری یا حمله توسط سامانه‌های هوش مصنوعی نیز می‌توانند بحران را آغاز کنند.

مرحله کنش: رفتار سامانه

کشورها خطاها یا رفتارهای ناشی از تصمیمات را به‌صورت «کنش سامانه» تفسیر می‌کنند. سامانه‌های مجهز به هوش مصنوعی ممکن است به دلیل سرعت پردازش بالا، واکنش‌هایی تولید کنند که از نظر انسانی غیرمنتظره باشد.

مرحله اثر: پیامدهای اولیه بحران

پیامدهای این کنش‌ها از سطح آسیب به زیرساخت‌های غیرنظامی و نظامی تا تخریب محیط‌زیست یا تلفات انسانی گسترده متغیر است. در برخی موارد، پیامد به قدری شدید است که کشور هدف، رفتار سامانه را نه به‌عنوان خطا، بلکه به‌عنوان حمله ارزیابی می‌کند.

مرحله پاسخ: واکنش متقابل دولت‌ها

پاسخ‌ها شامل اقدامات بازدارنده، حمله متقابل، بسیج نیروها یا ورود به یک چرخه تشدید تنش می‌شود. نکته کلیدی این است که استفاده مجدد از سامانه‌های هوش مصنوعی در مرحله پاسخ، احتمال خطاهای جدید یا تعبیر نادرست را چند برابر می‌کند و می‌تواند به یک مارپیچ تشدید درگیری خارج از کنترل منجر شود.

چالش اولویت‌بندی ریسک‌ها در حکمرانی نظامی هوش مصنوعی

در چنین شرایطی، بدون یک روش مشترک برای تعیین اولویت‌ها، هیچ توافق دوجانبه یا بین‌المللی نمی‌تواند پایدار باشد. در همین راستا، کارشناسان حوزه هوش مصنوعی، سه روش برای ایجاد سلسله‌مراتب خطر معرفی می‌کند:

  1. رویکرد مبتنی بر ریسک (Probability × Seriousness): در این روش خطر تابعی از احتمال وقوع و شدت پیامد محسوب می‌شود اما چالش اصلی این است که احتمال وقوع خطاهای واقعی در حوزه نظامی هوش مصنوعی قابل اندازه‌گیری نیست، زیرا تجربه تاریخی کافی در این زمینه وجود ندارد.
  2. رویکرد مبتنی بر حجم سناریوهای قابل‌پیش‌بینی: در این روش، شمار موقعیت‌هایی که در آن یک سامانه می‌تواند بحران ایجاد کند، معیار وزن‌دهی است. با این حال، از آنجا که سناریوها همیشه محدود به تصور تحلیلگران می‌شود، این روش به صورت ذاتی ناقص می‌ماند.
  3. رویکرد مبتنی بر بلوغ فناوری: در این دیدگاه نیز سامانه‌هایی که به زودی وارد چرخه عملیاتی می‌شوند، اولویت بیشتری دارند؛ اما پویایی پیشرفت فناوری به‌قدری سریع است که پیش‌بینی‌های آن ممکن است هر چند ماه نیاز به بازبینی داشته باشد.

بنابراین، به نظر می‌رسد که هیچ‌یک از این روش‌ها کامل نیست، اما می‌تواند نقطه شروعی برای گفت‌وگوی راهبردی میان قدرت‌های بزرگ باشد.

موانع فنی و سیاسی برای حکمرانی مشترک

چنان‌که کالین کال، عضو ارشد مدعو در نشریه فارین پالسی در تحلیل خود تأکید می‌کند، ایجاد سازوکارهای حکمرانی نه تنها با دشواری‌های فنی، بلکه با چالش‌های سیاسی به شرح زیر روبه‌رو است:

  • دوگانه بودن فناوری‌ها: تمایز سامانه‌های غیرنظامی و نظامی در هوش مصنوعی تقریباً ناممکن است.
  • عدم شفافیت قابل‌مشاهده: حتی در حوزه نظامی، تشخیص اینکه یک پهپاد یا ماهواره از هوش مصنوعی بهره می‌برد یا خیر، با داده‌های علنی میسر نیست.
  • ریسک‌های امنیتی ناشی از شفافیت: ایجاد شفافیت برای اعتمادسازی ممکن است به نشت اطلاعات حساس و افزایش تهدیدهای جاسوسی منجر شود.

با این حال، کال توصیه می‌کند که دو کشور شاخص در این حوزه، یعنی چین و آمریکا باید رویکرد مذکور را دنبال کنند؛ مسیرهایی که حتی با وجود رقابت، ضرری برای هیچ‌یک از طرفین ندارد.

مسیرهای همکاری پیشنهادی برای کاهش بحران‌های مبتنی بر هوش مصنوعی

بر اساس تحلیل ارائه‌شده از سوی کارشناسان، چند مسیر عملی می‌تواند برای آغاز همکاری میان قدرت‌های بزرگ در عرصه خودکارسازی نظامی دنبال شود:

  • تدوین واژه‌نامه مشترک خطاهای فنی و سطح‌بندی حوادث
  • تعریف مشترک اقدامات خطرناک در حوزه هوش مصنوعی نظامی
  • تبادل اصول و فرآیندها برای سامانه‌های فرماندهی و کنترل
  • اطلاع‌رسانی متقابل درباره رزمایش‌های مبتنی بر هوش مصنوعی
  • تدوین پروتکل‌های ارتباط اضطراری برای سامانه‌های دارای خطا
  • ایجاد تعهدات مشترک برای جلوگیری از جعل رسانه‌ای در کانال‌های نظامی
  • تثبیت اصل «کنترل انسانی» در همه برخوردهای نظامی زمان صلح
  • تعهد مشترک برای عدم استفاده از هوش مصنوعی در مداخله با سامانه‌های فرماندهی و کنترل هسته‌ای

به عقیده متخصصان، این اقدامات نه یک توافق جامع، بلکه نقطه آغاز اعتمادسازی و کاهش احتمال سوءبرداشت به شمار می‌روند.

بحران امنیتی ناشی از تنش ساختاری میان آمریکا و چین

شیائو چیان، کارشناس برجسته مرکز امنیت و استراتژی بین‌المللی دانشگاه تسینگهوا، حکمرانی هوش مصنوعی را در بستری عمیق‌تر، یعنی «معضل امنیتی» میان ایالات متحده و چین، قرار می‌دهد. او با استناد به نظریه جان هرتز، توضیح می‌دهد که چرا فضای بی‌اعتمادی ساختاری باعث شده هر اقدام دفاعی یکی از طرفین، از سوی دیگری تهدید تلقی شود.

به باور او، عواملی چون فقدان رژیم‌های جهانی الزام‌آور در حوزه هوش مصنوعی، بی‌اعتمادی راهبردی عمیق میان چین و آمریکا، رقابت فناورانه، صنعتی و ژئوپلیتیک و محیط بین‌الملل آکنده از ناامنی و بحران‌های منطقه‌ای، باعث شده حرکت به سمت حکمرانی مشترک بسیار دشوار باشد. او تأکید می‌کند که در چنین وضعیتی، تنها راه پیشرفت، آغاز بازسازی تدریجی اعتماد است. وی همچنین سه مسیر کلیدی را برای ایجاد یک فضای همکاری‌پذیر پیشنهاد می‌کند:

  1. بازتعریف رقابت و شفاف‌سازی خطوط قرمز: رقابت اجتناب‌ناپذیر است، اما نباید به رقابت وجودی تبدیل شود. تعریف خطوط قرمز مشترک می‌تواند مانع از گسترش بی‌پایان حساسیت‌های امنیتی شود.
  2. همکاری در حوزه امنیت هوش مصنوعی: دو کشور باید در سه دسته خطر، شامل سوءاستفاده، خطا و ریسک‌های سیستمی، استانداردهای مشترک توسعه دهند.
  3. تقویت سازوکارهای چندجانبه: با پشتیبانی از نقش سازمان ملل متحد و توسعه سازوکارهای جدید، کشورها می‌توانند مسیر ایجاد یک رژیم جهانی قابل‌قبول را هموار کنند.

جمع‌بندی

در نهایت، می‌توان نتیجه گرفت که تحلیل ارائه شده از سوی کارشناسان، نه یک پیش‌بینی فناورانه و نه یک طرح جامع حکمرانی است؛ بلکه چارچوب تحلیلی برای آغاز گفت‌وگوی راهبردی محسوب می‌شود. این چارچوب بر ضرورت تفکیک مراحل بحران، شناسایی نقاط ابتدای زنجیره و ایجاد یک زبان مشترک برای تحلیل ریسک تأکید دارد. هرچند رقابت فناورانه میان ایالات متحده و چین ادامه خواهد یافت، اما تاریخ نشان داده است که حتی در اوج رقابت‌های ژئوپلیتیک، امکان توافق بر سر موضوعات وجودی، مانند کنترل تسلیحات هسته‌ای، وجود دارد.

در عصر هوش مصنوعی، جلوگیری از بحران‌های نظامی مبتنی بر خطا یا سوءبرداشت، یک مسئولیت اخلاقی و راهبردی است. در جهانی که سرعت تصمیم‌گیری سامانه‌های هوش مصنوعی می‌تواند از توان قضاوت انسانی پیشی گیرد، ایجاد ستون‌های مشترک حکمرانی تنها راه تضمین ثبات و جلوگیری از فاجعه انسانی به شمار می‌رود.

ارسال نظر

شما در حال پاسخ به نظر «» هستید.
3 + 1 =

آخرین‌ها