دو رسانه آمریکایی گزارش کردند که ارتش آمریکا به صورت فعالانه از یک نوع مدل هوش مصنوعی در جریان عملیات متجاوزانه خود برای ربایش رئیسجمهور ونزوئلا در ماه ژانویه استفاده کرده بود.
به گزارش ایسنا، وال استریت ژورنال و آکسیوس فاش کردند که ارتش آمریکا ماه گذشته میلادی از مدل هوش مصنوعی «کلود آنتروپیک» در جریان عملیات ربایش «نیکولاس مادورو» رئیسجمهور ونزوئلا استفاده کرد.
این هوش مصنوعی در طول عملیات فعال، نه صرفا در مراحل مقدماتی، مورد استفاده قرار گرفت. نقش دقیق آن هنوز مشخص نیست، اگرچه ارتش آمریکا قبلا از مدلهای هوش مصنوعی برای تجزیه و تحلیل تصاویر ماهوارهای و اطلاعات در زمان واقعی استفاده کرده بود.
سیاستهای استفاده از آزمایشگاه این هوش مصنوعی مستقر در سانفرانسیسکو استفاده از فناوری آن را برای «تسهیل خشونت، توسعه سلاح یا انجام نظارت» ممنوع میکند. در این حمله هیچ آمریکایی کشته نشد، اما دهها سرباز و پرسنل امنیتی ونزوئلایی و کوبایی در این حمله که سوم ژانویه انجام شد، کشته شدند.
یکی از سخنگوهای این شرکت هوش مصنوعی گفت: «ما نمیتوانیم درباره این مساله اظهارنظر کنیم که آیا هوش مصنوعی کلود یا هر مدل دیگری از هوش مصنوعی برای عملیاتی ویژه یا محرمانه استفاده شده باشد. هرگونه استفاده از این هوش مصنوعی خواه در بخش خصوصی یا در دیگر بخشهای دولت آمریکا ملزم به تبعیت از سیاستهای استفاده از آن است.»
رقبای آنتروپیک، اوپن ایآی، گوگل و ایکس ایآی ایلان ماسک، همگی قراردادهایی دارند که بدون بسیاری از ضمانتهایی که برای کاربران عادی اعمال میشود، به پنتاگون اجازه دسترسی به مدلهایشان را میدهد.
اما فقط کلود، از طریق همکاری با پالانتیر تکنولوژیس، در پلتفرمهای محرمانهای که برای حساسترین کارهای ارتش ایالات متحده استفاده میشوند، مستقر شده است.
این افشاگری در حالی رخ داده که گزارش شده شرکت آنتروپیک در حال گفتوگو با پنتاگون برای این مساله است که ببیند آیا محدودیتهای بهکارگیری هوش مصنوعی برای بکارگیری سلاحهای خودکار و نظارت داخلی را کاهش دهد یا خیر.
این بنبست، قراردادی به ارزش حداکثر ۲۰۰ میلیون دلار را متوقف کرده است، چرا که پیت هگست، وزیر جنگ ایالات متحده قول داده است که از مدلهایی که به گفته او «به شما اجازه جنگیدن نمیدهند» استفاده نکند.