ماه گذشته، OpenAI یک مطالعه کاربری منتشر کرد که نشان میداد نزدیک به 15 درصد از مکالمات مرتبط با کار در ChatGPT به «تصمیمگیری و حل مسئله» مربوط میشود. اکنون خبر میرسد که حداقل یک عضو عالیرتبه ارتش ایالات متحده از LLMها برای همین منظور استفاده میکند.
بر اساس گزارشها، سرلشکر ویلیام «هنک» تیلور در کنفرانس انجمن ارتش ایالات متحده در واشنگتن، دیسی، گفته است: «چت و من اخیراً خیلی به هم نزدیک شدهایم» و از یک لقب صمیمانه آزاردهنده برای اشاره به یک ربات چت هوش مصنوعی نامشخص استفاده کرده است. «هوش مصنوعی چیزی است که به عنوان یک فرمانده، برای من بسیار، بسیار جالب بوده است.»
سایت خبری متمرکز بر ارتش DefenseScoop گزارش میدهد که تیلور به گروهی از خبرنگاران گفته است که او و ارتش هشتمی که از کره جنوبی فرماندهی میکند، «به طور منظم» از هوش مصنوعی برای مدرنسازی تحلیل پیشبینی خود برای برنامهریزی لجستیکی و اهداف عملیاتی استفاده میکنند. تیلور گفت که این امر برای کارهای اداری مانند «فقط نوشتن گزارشهای هفتگی و این چیزها» مفید است، اما به اطلاعرسانی به جهتگیری کلی آنها نیز کمک میکند.
تیلور گفت: «یکی از مواردی که اخیراً شخصاً با سربازانم روی آن کار کردهام، تصمیمگیری است—تصمیمگیری فردی. و نحوه [تصمیمگیری ما] در زندگی فردیمان، وقتی تصمیم میگیریم، مهم است. بنابراین، این چیزی است که من پرسیدهام و سعی کردهام مدلهایی بسازم تا به همه ما کمک کند. بهویژه، [در مورد] چگونه تصمیم بگیرم، تصمیمهای شخصی، درست — که نه تنها بر من، بلکه بر سازمانم و آمادگی کلی تأثیر میگذارد؟»
این هنوز فاصلهی زیادی با چشمانداز «نابودگر» سامانههای تسلیحاتی خودکار هوش مصنوعی دارد که تصمیمات مرگبار را از دست انسان خارج میکنند. با این حال، استفاده از LLMها برای تصمیمگیریهای نظامی ممکن است باعث مکث هر کسی شود که با تمایل شناختهشده این مدلها به جعل استنادهای جعلی و چاپلوسی چاپلوسانه کاربران آشنایی دارد.
Click here to preview your posts with PRO themes ››
در ماه مه، ارتش فضای کاری LLM سازمانی ارتش را راهاندازی کرد – که بر اساس پلتفرم تجاری Ask Sage ساخته شده است – تا وظایف ساده مبتنی بر متن مانند اطلاعیههای مطبوعاتی و توضیحات پرسنل را سادهسازی کند. برای سایر کارهای اداری نظامی موسوم به «دفتر پشتی»، آزمایشهای اولیه نشان دادهاند که هوش مصنوعی مولد ممکن است همیشه کارآمدترین استفاده از بودجه نظامی نباشد.
لیونل گارسیا، مدیر ارشد اطلاعات ارتش در ماه اوت به DefenseScoop گفت: «اغلب اوقات متوجه میشویم که افراد از این فناوری برای پاسخ دادن به چیزی استفاده میکنند که میتوانیم فقط در یک صفحه گسترده با یک مسئله ریاضی انجام دهیم، و پول بسیار بیشتری برای انجام آن میپردازیم.» آیا آب میوه ارزش فشردن را دارد؟ یا آیا راه دیگری برای رسیدن به همان مشکل وجود دارد که ممکن است از نظر فناوری جالب نباشد، اما از نظر اجرایی عملیتر باشد؟»
در سال 2023، وزارت امور خارجه ایالات متحده بهترین شیوهها برای استفاده نظامی از هوش مصنوعی را فهرست کرد، که بر استقرار اخلاقی و مسئولانه ابزارهای هوش مصنوعی در زنجیره فرماندهی انسانی متمرکز بود. این گزارش تاکید کرد که انسانها باید کنترل «تصمیمگیری در مورد استفاده از سلاحهای هستهای» را حفظ کنند و باید توانایی «قطع یا غیرفعال کردن سامانههای مستقر که رفتار ناخواسته را نشان میدهند» را حفظ کنند.
از آن زمان، ارتش علاقه نشان داده است که از فناوری هوش مصنوعی در این زمینه برای همه چیز، از سامانههای هدفگیری خودکار در هواپیماهای بدون سرنشین گرفته تا «بهبود آگاهی از وضعیت» از طریق مشارکت OpenAI با پیمانکار نظامی Anduril استفاده کند. در ژانویه 2024، OpenAI ممنوعیت «استفادههای نظامی و جنگی» را از سیاستهای استفاده ChatGPT حذف کرد، در حالی که همچنان مشتریان را از «توسعه یا استفاده از سلاحها» از طریق LLM منع میکرد.