دو چهره هوش مصنوعی: ابزار زندگی یا اسلحه کشتار؟
هوش مصنوعی، درخشانترین دستاورد فناورانه قرن بیستویکم، امروز در تقابلی تاریخی قرار دارد: از یک سو، نویدبخش نجات جان انسانها، عدالت آموزشی، و مقابله با بحرانهای اقلیمی است، و از سوی دیگر، به سلاحی خطرناک در دستان قدرتطلبانی تبدیل میشود که تاریخ را تکرار میکنند.
چهره روشن: هوش مصنوعی در خدمت زندگی
هوش مصنوعی در حوزه سلامت، انقلابی بیسابقه ایجاد کرده است. الگوریتمهای تشخیصی مانند DeepMind گوگل توانستهاند بیماریهای چشمی را زودتر از پزشکان شناسایی کنند. در آموزش، پلتفرمهایی چون Khan Academy با استفاده از هوش مصنوعی، آموزش شخصیسازی شده را به کودکان مناطق محروم جهان رساندهاند. در محیط زیست، مدلهای پیشبینی هوش مصنوعی به مهار آتشسوزی جنگلها در استرالیا کمک کردهاند. این فناوری حتی سازمانها را به سمت بهرهوری سبز هدایت میکند؛ مثلاً شرکتهایی مانند IBM از هوش مصنوعی برای کاهش ۳۰ درصدی مصرف انرژی مراکز داده استفاده میکنند.
چهره تاریک: بازتولید سلطه با لباس فناوری
اما در سوی دیگر، شرکتهایی مانند Anduril Industries (تأسیس شده توسط پالمر لاکی، از بنیانگذاران پالانتیر) با بودجههای میلیاردی، پهپادهای خودرانِ کُشنده و سیستمهای شناسایی اتوماتیک تولید میکنند. این شرکت، که قراردادهای کلانی با پنتاگون دارد، ادعا میکند «جنگ آینده را با الگوریتمها میبرد». این نگاه، نه یک نوآوری، بلکه تکرار منطق استعمار و نسلکشی در قالبی مدرن است: سلطه بر «دیگری» با ابزارهای پیشرفته.
پیشنهاد میکنم ویدئو سخنرانی مدیر عامل شرکت Anduril Industries ، پالمر لاکی را در تد تاک ببینید. ببینید ایشان چگونه از ایده زرادخانه هوش مصنوعی دفاع میکند، در حالی که همین آلان اسرائیل با کمک هوش مصنوعی مایکروسافت در حال کشتن هدفمند کودکان غزه است. بنیانگذار این شرکت، از چهرههای اصلی پالانتیر، معتقد است قدرت آینده در فناوری نظامی نهفته است، و دولت آمریکا باید با این فناوریها برتری خود را حفظ کند.
این یعنی: اگر با ما نیستی، در تیررس ما هستی.
این نگاه سلطهگرایانه و تهدیدمحور، بازتولید همان منطقی است که در استعمار، نسلکشی بومیان و جنگهای جهانی وجود داشت – حالا اما در لباسی فناورانه و بهظاهر نوآور.
تاریخ در حال تکرار است
استفاده نظامی از هوش مصنوعی، یادآور پروژههای استعماری است که با شعار «توسعه»، حقوق بومیان را نادیده گرفتند. امروز هم قدرتهای جهانی با شعار «امنیت»، حریم خصوصی و حاکمیت ملتها را نقض میکنند. نمونه عینی آن، پهپادهای آمریکایی است که در خاورمیانه هزاران غیرنظامی را کشتهاند، یا سیستمهای شناسایی چینی که اقلیت اویغور را تحت نظارت گسترده قرار دادهاند.
نابرابری جهانی: قربانی بیصدای فناوری
کشورهایی مانند ایران نه تنها از مزایای هوش مصنوعی (مانند دسترسی به دادههای آموزشی یا پزشکی) محرومند، بلکه نخستین قربانیان سوءاستفاده از آن هستند. تحریمها، دسترسی این کشورها به فناوریهای غیرنظامی را محدود کرده، اما پهپادهای مجهز به هوش مصنوعی به راحتی مرزهایشان را نقض میکنند. در چنین شرایطی، نظامیسازی هوش مصنوعی به معنای تشدید نابرابری جهانی است.
راه حل: اجماع جهانی یا فاجعه؟
جامعه جهانی پس از جنگ جهانی دوم، با تصویب معاهده منع گسترش سلاحهای هستهای (NPT)، نشان داد میتوان بر خودویرانگری غلبه کرد. اکنون نیز نیازمند معاهدهای برای ممنوعیت سیستمهای خودرانِ جنگی (مانند کمپین Stop Killer Robots) هستیم. سازمان ملل در ۲۰۲۳ پیشنهاد محدودیت استفاده از هوش مصنوعی در جنگ را مطرح کرد، اما قدرتهای بزرگ به دنبال تصویب آن نیستند.ما به یک اجماع جهانی برای ممنوعیت نظامیسازی هوش مصنوعی نیاز داریم. همانطور که بعد از جنگ جهانی دوم، جامعه جهانی استفاده از سلاحهای اتمی را محدود کرد، اکنون باید هوشمندانهتر از گذشته، آیندهی هوش مصنوعی را در خدمت زندگی، نه مرگ بسازیم.
پایان سخن: انتخاب با ماست
هوش مصنوعی آینده را نه با پیشبینی، بلکه با انتخاب ما میسازد. آیا اجازه میدهیم این فناوری به اسلحهای برای سرکوب تبدیل شود، یا مسیری نوین برای عدالت جهانی رقم بزنیم؟ پاسخ به وجدان جمعی بشر بازمیگردد.
تنها با دانستن بیشتر میتوانیم در این بازی کثیف هوشیارانه بازی کنیم. میتوانید از همین آلان با شرکت در دوره های کارآزموده آگاهانه تر به سمت به کارگیری ابزار های هوش مصنوعی حرکت کنیم.