هوش مصنوعی در خدمت جنایات رژیم صهیونیستی

علی معروفی آرانی ـ پژوهشگر حوزه صهیونیست و یهودیت
۷ اسفند ۱۴۰۳ - ۲۳:۰۲

اسراییل با بهره‌گیری از سیستم‌های هوش مصنوعی، روند شناسایی و قتل فلسطینیان را به شکلی بی‌سابقه خودکار کرده است. این فناوری‌های مرگبار، که بدون بررسی انسانی تصمیم به هدف‌گیری می‌گیرند، نه‌تنها مرز بین غیرنظامیان و نیروهای نظامی را از بین برده‌اند، بلکه به افزایش سرسام‌آور تلفات در غزه منجر شده‌اند.

آگاه: با وجود تمهیدات گسترده و فناورانه هوش مصنوعی در نوار مرزی غزه، اما این فناوری نتوانست عملکرد موفقی در مقابل رزمندگان مقاومت داشته باشد. این درحالی بود که صهیونیست‌ها پس از تهاجم ۱۱روزه به غزه در سال۲۰۲۱ که منجر به آواره‌شدن ۹۱هزار فلسطینی و شهادت ۲۶۰تن از آنها شد، از هوش مصنوعی به‌عنوان یک نیروی مضاعف نام برده بودند. با استفاده از تصاویر ماهواره‌ای، پهپادها و دوربین‌های مداربسته می‌توان از هر مترمربع از غزه در هر ۱۰دقیقه عکسبرداری کرد. پردازش این حجم از اطلاعات و بیانیه‌های اطلاعاتی از طریق روش‌های تحلیل استاندارد مبتنی‌بر ذهن انسان غیرممکن است. رژیم صهیونیستی از هوش مصنوعی علیه حماس در عملیات «نگهبان دیوارها» استفاده کرد اما استفاده علنی رژیم صهیونیستی از این نوع امکانات همان چیزی است که به حماس امکان استفاده مخفیانه از موبایل‌ها و دستگاه‌های کامپیوتر و منابع اطلاعاتی دیگر را داد.درست ۱۰روز پیش از حمله حماس که بزرگ‌ترین حمله غافلگیرانه از جنگ «یوم کیپور» در اکتبر ۱۹۷۳ خوانده می‌شود، رییس کمیته دفاعی ناتو به نوار مرزی با غزه رفته بود تا کاربرد هوش مصنوعی و سایر سیستم‌های پیشرفته دیجیتال ارتش برای کنترل هرگونه تحرک در این مناطق را از نزدیک مشاهده کند. دو سال پیش این رژیم اعلام کرده بود که از این فناوری‌ها استفاده می‌کند و تاکید کرده بود که هوش مصنوعی قطعاً توانسته اهداف مورد نظرشان را نابود کند. اما ناتوانی این سیستم‌های نوین در مطلع کردن نظامیان اشغالگر، پیش از شروع عملیات چندجانبه حماس، شوک بزرگی به سیستم امنیتی و اطلاعاتی صهیونیست‌ها وارد کرده است. به‌نظر می‌رسد این ناتوانی بزرگ امنیتی و اطلاعاتی، سال‌ها سوژه بحث، مطالعه و تحلیل کارشناسان و حتی مردم عادی خواهد بود. یک افسر سابق سازمان اطلاعات نظامی آمریکا یکی از اشتباهات بزرگ دستگاه اطلاعاتی رژیم صهیونیستی در عملیات طوفان الاقصی را غره شدن به تجهیزات هوش مصنوعی می‌داند.اسکات ریتر به خبرگزاری فلسطینی سما می‌گوید: «اشتباه فاحشی که اسراییل مرتکب شد، افتخار کردن علنی به نقش هوش مصنوعی در عملیات نگهبان دیوارها (نام نمادین عملیات در نوار غزه در سال ۲۰۲۱) بود.» این در حالی است که به‌گفته ریتر، به‌نظر می‌رسد حماس توانسته جریان اطلاعات جمع‌آوری‌شده ازسوی صهیونیست‌ها را کنترل کند. گردآوری داده‌ها یک روی سکه هوش مصنوعی است اما روی دیگر، پردازش و تحلیل این داده‌هاست. پس از آن می‌توان از یک سیستم مبتنی بر هوش مصنوعی انتظار عملکرد داشت. حماس از این موضوع مطلع است، پس به‌گونه‌ای عمل می‌کند تا هوش مصنوعی تصور کند که حرکات و فعالیت‌هایی درحال انجام است اما این تحرکات آن چیزی نیست که منجر به حمله شود. حماس احتمالا همان سطح از اطلاعات را برای هوش‌مصنوعی به نمایش می‌گذارد تا از برانگیختن شک دشمن جلوگیری کند. نهادهای امنیتی - اطلاعاتی آمریکا و متحدانش نیز که برای پیش‌بینی حمله ارتش روسیه به اوکراین از عملکرد خود راضی بودند، نتوانستند حمله حماس را پیش‌بینی کنند و مثل اسراییل غافلگیر شدند. به احتمال فراوان آنها نیز چگونگی وقوع این حمله غافلگیرانه و نقایص در سیستم‌های هشداردهنده را با دقت بررسی خواهند کرد تا از وقوع این حالت در درگیری احتمالی آمریکا و چین بر سر تایوان پیشگیری کنند.

آیا هوش مصنوعی جنگ را تغییر داده است؟
استفاده از هوش مصنوعی در جنگ‌های مدرن، خصوصا در استراتژی نظامی رژیم صهیونیستی، موجب افزایش سرعت و دقت حملات شده اما این فناوری در کنار افزایش اثربخشی نظامی، چالش‌های اخلاقی و حقوقی عمیقی را نیز به همراه داشته است. با بیش از ۴۶هزار کشته در غزه، سوال کلیدی این است: آیا این تکنولوژی باعث افزایش دقت در جنگ شده است یا آن را به ابزاری برای تخریب گسترده و غیرقابل‌کنترل تبدیل کرده است؟
هوش مصنوعی (AI) به‌عنوان ابزاری قدرتمند در درگیری‌های نظامی سراسر جهان به‌کار گرفته شده است. از تجزیه و تحلیل داده‌های اطلاعاتی گرفته تا حملات پهپادی و عملیات شناسایی با ربات‌های نظامی، این فناوری به‌سرعت درحال تغییر شیوه‌های جنگی است. اما استراتژی رژیم صهیونیستی در استفاده از هوش مصنوعی علیه حماس و حزب‌الله نشان‌دهنده تغییر چشمگیر در روش‌های سنتی هدف‌گیری نظامی است.

 ترکیب هوش مصنوعی با تصمیم‌گیری انسانی
در مدل‌های سنتی، اپراتورهای انسانی اهداف را شناسایی می‌کردند و پس از تایید، عملیات نظامی انجام می‌شد اما زمانی که دامنه هدف‌گیری گسترش یابد، زمان محدود و حجم زیاد داده‌ها چالش‌های بزرگی را برای شناسایی دقیق اهداف ایجاد می‌کند. رژیم صهیونیستی برای حل این مشکل، ترکیبی از هوش مصنوعی و تصمیم‌گیری انسانی را در استراتژی خود به‌کار گرفته است. در این روش، هوش مصنوعی وظیفه شناسایی، بررسی و ردیابی اهداف را برعهده دارد، درحالی‌که انسان‌ها اجرای حملات را انجام می‌دهند. این تغییر متدولوژی، هدف‌گیری سریع‌تر و دقیق‌تر را ممکن می‌سازد.
 اسراییل برای اجرای این استراتژی چندین سیستم پیشرفته هوش مصنوعی را به کار گرفته است:
انجیل (Gospel): سیستم هدف‌گیری زیرساخت‌های نظامی
«انجیل» یک سیستم پیشرفته هوش مصنوعی است که برای شناسایی خودکار اهداف نظامی، به‌ویژه ساختمان‌ها وزیرساخت‌های مورد استفاده حماس، طراحی شده است.
عملکرد:تحلیل تصاویر ماهواره‌ای، فیلم‌های پهپادها، اطلاعات شنود و داده‌های حسگرهای مختلف شناسایی تونل‌ها، استحکامات، انبارهای اسلحه و ساختمان‌های حساس استفاده از هوش مصنوعی چندطیفی برای تفکیک مصالح ساختمانی و تشخیص سازه‌های نظامی.
دستاوردها:طبق گفته آویو کوچاوی، رییس سابق ستاد ارتش اسراییل، در جنگ غزه۲۰۲۱، «انجیل» روزانه ۱۰۰هدف تولید می‌کرد که افزایش چشمگیری نسبت به نرخ قبلی ۵۰هدف در روز داشت.
اسطوخودوس (Lavender): سیستم هدف‌گیری انسانی
«اسطوخودوس» به‌طور خاص برای شناسایی افراد مرتبط با شاخه نظامی حماس و جهاد اسلامی طراحی شده است.
عملکرد:تحلیل داده‌های ارتباطی، تغییرات آدرس، فعالیت‌های آنلاین و تماس‌های تلفنی دسته‌بندی افراد بر اساس احتمال عضویت در گروه‌های نظامی.
شناسایی ۳۷۰۰۰ فرد مظنون به همکاری با حماس در هفته‌های ابتدایی جنگ ۲۰۲۳.
چالش‌ها و خطاها:این سیستم گاهی افراد غیرنظامی را به اشتباه هدف قرار می‌دهد، از جمله افسران پلیس، امدادگران یا افرادی با نام مشابه یک عضو حماس.
احتمال خطاهای ناشی از تحلیل الگوهای ارتباطی و هدف قرار دادن اشتباه خانواده‌های غیرنظامی.
بابا کجاست؟ (Where's Daddy): سیستم ردیابی اهداف در خانه‌ها
عملکرد:ردیابی افراد در زمان ورود به خانه‌هایشان برای اجرای حملات هوایی
استفاده از سیستم‌های نظارتی پیشرفته برای مشخص کردن زمان حضور اهداف در محل سکونتشان
چالش‌های اخلاقی:این روش منجر به افزایش شدید تلفات غیرنظامیان شده است، زیرا حملات نه‌تنها هدف نظامی بلکه خانواده او را نیز تحت‌تاثیر قرار می‌دهد.

خطرات و پیامدهای استفاده از هوش مصنوعی در جنگ
 افزایش تلفات غیرنظامیان: با حذف تدریجی نظارت انسانی، اشتباهات مرگبار افزایش یافته است.
 خطاهای سیستماتیک و شناسایی نادرست اهداف: هوش مصنوعی نمی‌تواند همیشه نیت یا فعالیت واقعی افراد را تشخیص دهد.
 نقض قوانین بین‌المللی جنگ: هدف‌گیری افراد بدون تایید انسانی می‌تواند چالش‌های حقوقی و اخلاقی جدی ایجاد کند.

آیا هوش مصنوعی جنگ را تغییر داده است؟
استفاده از هوش مصنوعی در جنگ‌های مدرن، خصوصا در استراتژی نظامی اسراییل، موجب افزایش سرعت و دقت حملات شده است.با بیش از ۴۶۰۰۰ کشته در غزه، سؤال کلیدی این است: آیا این تکنولوژی باعث افزایش دقت در جنگ شده است یا آن را به ابزاری برای تخریب گسترده و غیرقابل‌کنترل تبدیل کرده است؟با این حال، استفاده رژیم صهیونیستی از هوش مصنوعی برای مقاصد نظامی نگرانی‌های اخلاقی و قانونی نیز به دنبال دارد؛ نگرانی‌هایی که احتمال ایجاد آسیب‌های خواسته و ناخواسته ازسوی سیستم‌های تسلیحاتی خودمختار ازجمله آنهاست. این نگرانی‌ها اهمیت نیاز به توافق‌های بین‌المللی قوی برای تنظیم استفاده از هوش مصنوعی در عملیات‌های نظامی را علیه غیرنظامیان و کودکان و زنان بی‌پناه برجسته می‌کنند.