Clicky

دو چهره هوش مصنوعی: ابزار زندگی یا اسلحه کشتار؟

دو چهره هوش مصنوعی: ابزار زندگی و یا اسلحه کشتار

دو چهره هوش مصنوعی: ابزار زندگی یا اسلحه کشتار؟

هوش مصنوعی، درخشان‌ترین دستاورد فناورانه قرن بیست‌ویکم، امروز در تقابلی تاریخی قرار دارد: از یک سو، نویدبخش نجات جان انسان‌ها، عدالت آموزشی، و مقابله با بحران‌های اقلیمی است، و از سوی دیگر، به سلاحی خطرناک در دستان قدرت‌طلبانی تبدیل می‌شود که تاریخ را تکرار می‌کنند.

چهره روشن: هوش مصنوعی در خدمت زندگی

هوش مصنوعی در حوزه سلامت، انقلابی بی‌سابقه ایجاد کرده است. الگوریتم‌های تشخیصی مانند DeepMind گوگل توانسته‌اند بیماری‌های چشمی را زودتر از پزشکان شناسایی کنند. در آموزش، پلتفرم‌هایی چون Khan Academy با استفاده از هوش مصنوعی، آموزش شخصی‌سازی شده را به کودکان مناطق محروم جهان رسانده‌اند. در محیط زیست، مدل‌های پیش‌بینی هوش مصنوعی به مهار آتش‌سوزی جنگل‌ها در استرالیا کمک کرده‌اند. این فناوری حتی سازمان‌ها را به سمت بهره‌وری سبز هدایت می‌کند؛ مثلاً شرکت‌هایی مانند IBM از هوش مصنوعی برای کاهش ۳۰ درصدی مصرف انرژی مراکز داده استفاده می‌کنند.

چهره تاریک: بازتولید سلطه با لباس فناوری

اما در سوی دیگر، شرکت‌هایی مانند Anduril Industries (تأسیس شده توسط پالمر لاکی، از بنیان‌گذاران پالانتیر) با بودجه‌های میلیاردی، پهپادهای خودرانِ کُشنده و سیستم‌های شناسایی اتوماتیک تولید می‌کنند. این شرکت، که قراردادهای کلانی با پنتاگون دارد، ادعا می‌کند «جنگ آینده را با الگوریتم‌ها می‌برد». این نگاه، نه یک نوآوری، بلکه تکرار منطق استعمار و نسل‌کشی در قالبی مدرن است: سلطه بر «دیگری» با ابزارهای پیشرفته.

پیشنهاد میکنم ویدئو سخنرانی مدیر عامل شرکت Anduril Industries ، پالمر لاکی را در تد تاک ببینید. ببینید ایشان چگونه از ایده زرادخانه هوش مصنوعی دفاع میکند، در حالی که همین آلان اسرائیل با کمک هوش مصنوعی مایکروسافت در حال کشتن هدفمند کودکان غزه است. بنیان‌گذار این شرکت، از چهره‌های اصلی پالانتیر، معتقد است قدرت آینده در فناوری نظامی نهفته است، و دولت آمریکا باید با این فناوری‌ها برتری خود را حفظ کند.

این یعنی: اگر با ما نیستی، در تیررس ما هستی.

این نگاه سلطه‌گرایانه و تهدیدمحور، بازتولید همان منطقی است که در استعمار، نسل‌کشی بومیان و جنگ‌های جهانی وجود داشت – حالا اما در لباسی فناورانه و به‌ظاهر نوآور.

چهره تاریک هوش مصنوعی

تاریخ در حال تکرار است

استفاده نظامی از هوش مصنوعی، یادآور پروژه‌های استعماری است که با شعار «توسعه»، حقوق بومیان را نادیده گرفتند. امروز هم قدرت‌های جهانی با شعار «امنیت»، حریم خصوصی و حاکمیت ملت‌ها را نقض می‌کنند. نمونه عینی آن، پهپادهای آمریکایی است که در خاورمیانه هزاران غیرنظامی را کشته‌اند، یا سیستم‌های شناسایی چینی که اقلیت اویغور را تحت نظارت گسترده قرار داده‌اند.

نابرابری جهانی: قربانی بی‌صدای فناوری

کشورهایی مانند ایران نه تنها از مزایای هوش مصنوعی (مانند دسترسی به داده‌های آموزشی یا پزشکی) محرومند، بلکه نخستین قربانیان سوءاستفاده از آن هستند. تحریم‌ها، دسترسی این کشورها به فناوری‌های غیرنظامی را محدود کرده، اما پهپادهای مجهز به هوش مصنوعی به راحتی مرزهایشان را نقض می‌کنند. در چنین شرایطی، نظامی‌سازی هوش مصنوعی به معنای تشدید نابرابری جهانی است.

راه حل: اجماع جهانی یا فاجعه؟

جامعه جهانی پس از جنگ جهانی دوم، با تصویب معاهده منع گسترش سلاح‌های هسته‌ای (NPT)، نشان داد می‌توان بر خودویرانگری غلبه کرد. اکنون نیز نیازمند معاهده‌ای برای ممنوعیت سیستم‌های خودرانِ جنگی (مانند کمپین Stop Killer Robots) هستیم. سازمان ملل در ۲۰۲۳ پیشنهاد محدودیت استفاده از هوش مصنوعی در جنگ را مطرح کرد، اما قدرت‌های بزرگ به دنبال تصویب آن نیستند.ما به یک اجماع جهانی برای ممنوعیت نظامی‌سازی هوش مصنوعی نیاز داریم. همان‌طور که بعد از جنگ جهانی دوم، جامعه جهانی استفاده از سلاح‌های اتمی را محدود کرد، اکنون باید هوشمندانه‌تر از گذشته، آینده‌ی هوش مصنوعی را در خدمت زندگی، نه مرگ بسازیم.

پایان سخن: انتخاب با ماست

هوش مصنوعی آینده را نه با پیش‌بینی، بلکه با انتخاب ما می‌سازد. آیا اجازه می‌دهیم این فناوری به اسلحه‌ای برای سرکوب تبدیل شود، یا مسیری نوین برای عدالت جهانی رقم بزنیم؟ پاسخ به وجدان جمعی بشر بازمی‌گردد.

تنها با دانستن بیشتر میتوانیم در این بازی کثیف هوشیارانه بازی کنیم. میتوانید از همین آلان با شرکت در دوره های کارآزموده آگاهانه تر به سمت به کارگیری ابزار های هوش مصنوعی حرکت کنیم. 

 

نوشته های اخیر

دسته بندی ها

سبد خرید