في الشهر الماضي، نشرت OpenAI دراسة للمستخدمين أظهرت أن ما يقرب من 15 بالمائة من المحادثات المتعلقة بالعمل على ChatGPT تتعلق بـ “اتخاذ القرارات وحل المشكلات”. والآن، هناك تقارير تفيد بأن عضوًا رفيع المستوى في الجيش الأمريكي على الأقل يستخدم نماذج اللغات الكبيرة (LLMs) لهذا الغرض نفسه.
وفقًا للتقارير، قال اللواء ويليام “هانك” تايلور في مؤتمر جمعية الجيش الأمريكي في واشنطن العاصمة: “لقد أصبحت أنا والدردشة قريبين جدًا مؤخرًا”، مستخدمًا لقبًا حميميًا مثيرًا للإحراج للإشارة إلى روبوت محادثة يعمل بالذكاء الاصطناعي غير محدد. “الذكاء الاصطناعي شيء كان، كقائد، ذا أهمية كبيرة جدًا بالنسبة لي.”
ذكر موقع DefenseScoop الإخباري الذي يركز على الجيش أن تايلور أخبر مجموعة من الصحفيين أنه والجيش الثامن الذي يقوده من كوريا الجنوبية يستخدمان الذكاء الاصطناعي “بشكل منتظم” لتحديث تحليلاتهم التنبؤية لأغراض التخطيط اللوجستي والتشغيلي. وقال تايلور إن هذا مفيد للمهام الإدارية مثل “مجرد كتابة التقارير الأسبوعية وأشياء من هذا القبيل”، ولكنه يساعد أيضًا في توجيه توجههم العام.
قال تايلور: “أحد الأشياء التي كنت أعمل عليها شخصيًا مؤخرًا مع جنودي هو اتخاذ القرارات – اتخاذ القرارات الفردية. وكيفية [اتخاذنا للقرارات] في حياتنا الفردية، عندما نتخذ القرارات، مهم. لذا، هذا شيء كنت أسأله وأحاول بناء نماذج لمساعدتنا جميعًا. على وجه الخصوص، [فيما يتعلق بـ] كيف أتخذ القرارات، القرارات الشخصية، الصحيحة – التي لا تؤثر علي فقط، بل على مؤسستي واستعدادي العام؟”
لا يزال هذا بعيدًا عن رؤية أنظمة الأسلحة المستقلة التي تعمل بالذكاء الاصطناعي “المدمرة” التي تزيل القرارات المميتة من أيدي البشر. ومع ذلك، فإن استخدام نماذج اللغات الكبيرة (LLMs) لاتخاذ القرارات العسكرية قد يتسبب في توقف أي شخص على دراية بميل هذه النماذج المعروف لتلفيق الاستشهادات الوهمية والتملق المتملق للمستخدمين.
في شهر مايو، أطلق الجيش مساحة عمل LLM المؤسسية للجيش – المبنية على منصة Ask Sage التجارية – لتبسيط المهام البسيطة القائمة على النصوص مثل البيانات الصحفية وملخصات الموظفين. بالنسبة للمهام الإدارية العسكرية الأخرى المعروفة باسم “المكتب الخلفي”، أظهرت الاختبارات المبكرة أن الذكاء الاصطناعي التوليدي قد لا يكون دائمًا الاستخدام الأكثر كفاءة للميزانية العسكرية.
Click here to preview your posts with PRO themes ››
قال ليونيل غارسيا، كبير مسؤولي المعلومات في الجيش، لموقع DefenseScoop في أغسطس: “في كثير من الأحيان، نجد أن الأشخاص يستخدمون هذه التقنية للإجابة على شيء يمكننا القيام به في جدول بيانات بمشكلة رياضية، وندفع أموالًا أكثر بكثير للقيام بذلك.” هل يستحق العصير الضغط؟ أم هل هناك طريقة أخرى للوصول إلى نفس المشكلة قد لا تكون مثيرة للاهتمام من الناحية التكنولوجية ولكنها أكثر عملية من الناحية التنفيذية؟”
في عام 2023، حددت وزارة الخارجية الأمريكية أفضل الممارسات للاستخدام العسكري للذكاء الاصطناعي، والتي ركزت على النشر الأخلاقي والمسؤول لأدوات الذكاء الاصطناعي في سلسلة القيادة البشرية. وشدد التقرير على أنه يجب على البشر الاحتفاظ بالسيطرة على “قرارات استخدام الأسلحة النووية” ويجب أن يحتفظوا بالقدرة على “قطع الاتصال أو تعطيل الأنظمة المنشورة التي تظهر سلوكًا غير مرغوب فيه”.
منذ ذلك الحين، أظهر الجيش اهتمامًا باستخدام تقنية الذكاء الاصطناعي في هذا المجال لكل شيء بدءًا من أنظمة الاستهداف المستقلة على الطائرات بدون طيار وصولًا إلى “تحسين الوعي الظرفي” من خلال شراكة OpenAI مع المقاول العسكري Anduril. في يناير 2024، رفعت OpenAI الحظر المفروض على “الاستخدامات العسكرية والحربية” من سياسات استخدام ChatGPT، مع الاستمرار في حظر العملاء من “تطوير أو استخدام الأسلحة” من خلال LLMs.