هوش مصنوعی پنهان: چالشی پرهزینه برای سازمانها
هوش مصنوعی پنهان، معضلی ۶۷۰ هزار دلاری است که اغلب سازمانها حتی از وجود آن بیخبرند. این پدیدهای نوظهور است که با پیشرفت سریع فناوری هوش مصنوعی و اشتیاق کارکنان برای بهرهبرداری از ابزارهای جدید برای افزایش بهرهوری، به سرعت در حال گسترش است. در حالی که مزایای این ابزارها برای کارکنان وسوسهانگیز است، اما عدم نظارت و کنترل کافی بر آنها میتواند خطرات امنیتی جبرانناپذیری را به همراه داشته باشد.
گزارش “هزینه نقض دادهها در سال ۲۰۲۵” شرکت IBM که امروز با همکاری موسسه Ponemon منتشر شد، نشان میدهد که نقضهای امنیتی ناشی از استفاده غیرمجاز کارکنان از ابزارهای هوش مصنوعی، به طور متوسط ۴.۶۳ میلیون دلار برای سازمانها هزینه داشته است. این رقم تقریباً ۱۶ درصد بیشتر از میانگین جهانی ۴.۴۴ میلیون دلار برای هر نقض داده است، که نشاندهنده ابعاد فزاینده این مشکل است.
این تحقیقات که بر اساس ۳,۴۷۰ مصاحبه در ۶۰۰ سازمان که مورد حمله سایبری قرار گرفتهاند، انجام شده، بیانگر این واقعیت است که سرعت پذیرش هوش مصنوعی بسیار بیشتر از سرعت نظارتهای امنیتی است. در حالی که تنها ۱۳ درصد از سازمانها حوادث امنیتی مرتبط با هوش مصنوعی را گزارش کردهاند، ۹۷ درصد از سازمانهای مورد حمله فاقد کنترلهای دسترسی مناسب برای سیستمهای هوش مصنوعی بودهاند. این شکاف عمیق بین نوآوری و امنیت، راه را برای سوءاستفادههای سایبری باز میکند.
علاوه بر این، ۸ درصد از سازمانها حتی مطمئن نبودند که آیا از طریق سیستمهای هوش مصنوعی مورد حمله قرار گرفتهاند یا خیر، که خود نشاندهنده فقدان دید و شفافیت در زیرساختهای فناوری اطلاعات آنهاست. سوژا ویسوسان، معاون رئیس محصولات امنیتی و زمان اجرا در IBM، بیان میکند: “دادهها نشان میدهد که شکافی بین پذیرش هوش مصنوعی و نظارت بر آن از قبل وجود دارد و مهاجمان در حال بهرهبرداری از آن هستند.” وی تأکید کرد که فقدان کنترلهای دسترسی اولیه برای سیستمهای هوش مصنوعی، دادههای بسیار حساس را در معرض خطر قرار داده و مدلها را در برابر دستکاری آسیبپذیر میکند. این وضعیت، لزوم توجه فوری به حاکمیت هوش مصنوعی و امنیت سایبری را بیش از پیش آشکار میسازد.
هوش مصنوعی پنهان و زنجیره تأمین: بردار اصلی حملات سایبری
این گزارش نشان میدهد که ۶۰ درصد از حوادث امنیتی مرتبط با هوش مصنوعی منجر به افشای دادهها شده، در حالی که ۳۱ درصد باعث اختلال در عملیات روزانه سازمانها گردیدهاند. این ارقام تأثیرات گستردهای را نشان میدهند که هوش مصنوعی پنهان میتواند بر کسب و کارها بگذارد، از زیانهای مالی مستقیم گرفته تا آسیب به اعتبار و اعتماد مشتری.
در ۶۵ درصد از حوادث هوش مصنوعی پنهان، اطلاعات شناسایی شخصی (PII) مشتریان به خطر افتاده است که به طور قابل توجهی بالاتر از میانگین جهانی ۵۳ درصد است. این امر به دلیل دسترسی غیرمجاز به دادههای حساس و عدم نظارت بر چگونگی استفاده از آنها در ابزارهای هوش مصنوعی است. یکی از بزرگترین نقاط ضعف امنیت هوش مصنوعی، مسئله حاکمیت است؛ به طوری که ۶۳ درصد از سازمانهای مورد حمله یا فاقد سیاستهای حاکمیت هوش مصنوعی بودند یا هنوز در حال توسعه آنها هستند. این فقدان چارچوبهای مشخص، محیطی ایدهآل برای مهاجمان ایجاد میکند.
ایتامار گولان، مدیرعامل Prompt Security، در مصاحبهای با VentureBeat اظهار داشت: “هوش مصنوعی پنهان مانند دوپینگ در مسابقات دوچرخهسواری تور دو فرانس است؛ افراد بدون اینکه به عواقب بلندمدت آن پی ببرند، به دنبال مزیت هستند.” شرکت او بیش از ۱۲,۰۰۰ برنامه هوش مصنوعی را فهرستبندی کرده و روزانه ۵۰ مورد جدید را شناسایی میکند، که نشاندهنده سرعت خیرهکننده گسترش این برنامهها و چالش نظارت بر آنهاست.
با توجه به اینکه ابزارهای هوش مصنوعی جدید و پلتفرمهای توسعه به سرعت در حال ظهور هستند، کارکنان به طور فزایندهای از این ابزارها برای بهبود کارایی خود استفاده میکنند، اما اغلب این کار بدون تأیید یا نظارت بخش IT یا امنیتی سازمان انجام میشود. این ابزارهای تأیید نشده که به “هوش مصنوعی پنهان” معروف هستند، میتوانند نقاط ورودی ناشناختهای برای مهاجمان ایجاد کنند. گزارش تأکید میکند که زنجیره تأمین، بردار اصلی حمله برای حوادث امنیتی هوش مصنوعی است، به طوری که ۳۰ درصد از این حوادث شامل برنامهها، APIها یا افزونههای به خطر افتاده بودهاند. این نشان میدهد که سازمانها باید فراتر از امنیت داخلی خود، به امنیت شرکا و اکوسیستمهای مرتبط نیز توجه کنند.
تکثیر هوش مصنوعیهای تسلیحاتیشده
هر نوع هوش مصنوعی تسلیحاتیشده، از جمله مدلهای زبان بزرگ (LLM) که برای بهبود شیوههای حمله طراحی شدهاند، به سرعت در حال افزایش است. این ابزارها به مهاجمان امکان میدهند تا با کارایی و سرعت بیسابقهای حملات سایبری را انجام دهند، که تشخیص و مقابله با آنها را برای مدافعان دشوارتر میسازد.
شانزده درصد از نقضهای امنیتی اکنون شامل حملهکنندگانی است که از هوش مصنوعی استفاده میکنند، که عمدتاً برای حملات فیشینگ مبتنی بر هوش مصنوعی (۳۷ درصد) و حملات دیپفیک (۳۵ درصد) به کار میرود. مدلهایی مانند FraudGPT، GhostGPT و DarkGPT با هزینه اندک (حتی ۷۵ دلار در ماه) به فروش میرسند و برای استراتژیهای حملهای مانند فیشینگ، تولید اکسپلویت، پنهانسازی کد، اسکن آسیبپذیری و اعتبارسنجی کارت اعتباری ساخته شدهاند. این سهولت دسترسی، خطر را برای همه سازمانها افزایش میدهد.
هرچه یک مدل زبان بزرگ (LLM) دقیقتر تنظیم شود، احتمال تولید خروجیهای مخرب توسط آن بیشتر است. گزارش “وضعیت امنیت هوش مصنوعی” سیسکو نشان میدهد که LLMهای تنظیمشده ۲۲ برابر بیشتر از مدلهای پایه، خروجیهای مخرب تولید میکنند. این یافتهها بر اهمیت آزمایشهای دقیق و کنترلهای امنیتی برای مدلهای هوش مصنوعی تأکید دارند.
اتای مائور، استراتژیست ارشد امنیتی در Cato Networks، اخیراً به VentureBeat گفت: “مهاجمان فقط از هوش مصنوعی برای خودکارسازی حملات استفاده نمیکنند؛ آنها از آن برای ترکیب شدن با ترافیک عادی شبکه استفاده میکنند که تشخیص آنها را سختتر میکند.” وی افزود: “چالش واقعی این است که حملات مبتنی بر هوش مصنوعی یک رویداد منفرد نیستند؛ آنها یک فرآیند مداوم از شناسایی، فرار و انطباق هستند.” شلومو کرامر، مدیرعامل Cato Networks، در مصاحبهای با VentureBeat هشدار داد: “یک پنجره کوتاه وجود دارد که شرکتها میتوانند از گرفتار شدن با معماریهای پراکنده جلوگیری کنند. مهاجمان سریعتر از تیمهای ادغامکننده حرکت میکنند.” این وضعیت، نیاز به یک رویکرد جامع و یکپارچه در امنیت سایبری را برجسته میکند.
حاکمیت به عنوان نقطه ضعف مورد سوءاستفاده مهاجمان
در میان ۳۷ درصد از سازمانهایی که ادعا میکنند دارای سیاستهای حاکمیت هوش مصنوعی هستند، تنها ۳۴ درصد به طور منظم برای هوش مصنوعی غیرمجاز ممیزی انجام میدهند. این بدان معناست که حتی در سازمانهایی که از اهمیت حاکمیت آگاهند، اجرای مؤثر و مداوم آن هنوز یک چالش بزرگ است. فقدان ممیزیهای منظم، سازمانها را در برابر تهدیدات ناشی از هوش مصنوعی پنهان آسیبپذیر میسازد.
تنها ۲۲ درصد از سازمانها آزمایشهای تهاجمی (adversarial testing) را بر روی مدلهای هوش مصنوعی خود انجام میدهند. این آزمایشها برای شناسایی آسیبپذیریهایی که مهاجمان ممکن است برای دستکاری یا سوءاستفاده از مدلها استفاده کنند، حیاتی هستند. نادیده گرفتن این تستها، سازمانها را در برابر حملات هدفمند آسیبپذیر میکند. DevSecOps به عنوان عامل اصلی کاهش هزینههای نقض دادهها شناخته شده است که به طور متوسط ۲۲۷,۱۹۲ دلار برای سازمانها صرفهجویی میکند. این رویکرد، امنیت را در هر مرحله از چرخه توسعه نرمافزار ادغام میکند و به کاهش آسیبپذیریها قبل از تبدیل شدن به حملات واقعی کمک میکند.
همانطور که گزارش IBM اشاره میکند، “اکثریت سازمانهای مورد حمله (۶۳ درصد) یا سیاست حاکمیت هوش مصنوعی ندارند یا هنوز در حال توسعه آن هستند. حتی زمانی که سیاستی وجود دارد، کمتر از نیمی از آنها فرآیند تأیید برای استقرار هوش مصنوعی دارند و ۶۲ درصد فاقد کنترلهای دسترسی مناسب بر روی سیستمهای هوش مصنوعی هستند.” این آمارها به وضوح نشان میدهد که حاکمیت هوش مصنوعی یک ضعف گسترده در سراسر صنایع است که مهاجمان از آن بهرهبرداری میکنند.
بیشتر سازمانها فاقد حاکمیت ضروری برای کاهش خطرات مرتبط با هوش مصنوعی هستند، به طوری که ۸۷٪ عدم وجود سیاستها یا فرآیندها را تأیید میکنند. تقریباً دو سوم شرکتهای مورد حمله نتوانستهاند مدلهای هوش مصنوعی خود را به طور منظم ممیزی کنند، و بیش از سه چهارم آزمایشهای تهاجمی را انجام نمیدهند، که آسیبپذیریهای حیاتی را در معرض خطر قرار میدهد.
این الگوی پاسخ تأخیری به آسیبپذیریهای شناختهشده فراتر از حاکمیت هوش مصنوعی به اقدامات امنیتی اساسی نیز گسترش مییابد. کریس گوئتل، معاون مدیر محصول در Endpoint Security در Ivanti، بر تغییر دیدگاه تأکید میکند: “آنچه ما در حال حاضر “مدیریت وصله” مینامیم، باید به طور مناسبتر “مدیریت ریسک” نامیده شود – یا سازمان شما چقدر حاضر است در معرض یک آسیبپذیری خاص قرار گیرد؟” این نکته به وضوح نشان میدهد که تمرکز باید از صرفاً ترمیم، به پیشگیری و مدیریت فعال ریسک تغییر کند.
سود ۱.۹ میلیون دلاری هوش مصنوعی: چرا امنیت هوشمند ارزشش را دارد؟
با وجود طبیعت رو به رشد هوش مصنوعی تسلیحاتیشده، گزارش IBM امیدواریهایی را برای مبارزه با شیوههای رو به پیشرفت مهاجمان ارائه میدهد. سازمانهایی که به طور کامل از هوش مصنوعی و اتوماسیون استفاده میکنند، ۱.۹ میلیون دلار به ازای هر نقض امنیتی صرفهجویی میکنند و حوادث را ۸۰ روز سریعتر حل و فصل مینمایند. این نشاندهنده مزایای چشمگیر ادغام هوش مصنوعی در استراتژیهای امنیتی است.
بر اساس این گزارش، “تیمهای امنیتی که به طور گسترده از هوش مصنوعی و اتوماسیون استفاده میکنند، زمان نقض دادههای خود را ۸۰ روز کوتاهتر کرده و میانگین هزینههای نقض خود را ۱.۹ میلیون دلار در مقایسه با سازمانهایی که از این راهکارها استفاده نکردهاند، کاهش دادهاند.” این تفاوت چشمگیر است. سازمانهای مجهز به هوش مصنوعی ۳.۶۲ میلیون دلار برای نقضها هزینه میکنند، در حالی که این رقم برای سازمانهای فاقد هوش مصنوعی ۵.۵۲ میلیون دلار است که منجر به تفاوت هزینه ۵۲ درصدی میشود.
این تیمها نقضها را در ۱۵۳ روز شناسایی میکنند (در مقایسه با ۲۱۲ روز برای رویکردهای سنتی) و سپس آنها را در ۵۱ روز مهار میکنند (در مقایسه با ۷۲ روز). وینیت آرورا، مدیر ارشد فناوری در WinWire، اشاره کرد: “ابزارهای هوش مصنوعی در تحلیل سریع دادههای عظیم در سراسر لاگها، نقاط پایانی و ترافیک شبکه، و شناسایی الگوهای ظریف در مراحل اولیه، عالی عمل میکنند.” این قابلیت، اقتصاد امنیت را دگرگون میکند: در حالی که میانگین هزینه جهانی نقض دادهها ۴.۴۴ میلیون دلار است، کاربران گسترده هوش مصنوعی ۱۸ درصد زیر این معیار عمل میکنند.
با این حال، پذیرش همچنان با چالش مواجه است. تنها ۳۲ درصد از سازمانها به طور گسترده از امنیت هوش مصنوعی استفاده میکنند، ۴۰ درصد آن را به صورت محدود به کار میبرند و ۲۸ درصد اصلاً از آن استفاده نمیکنند. سازمانهای بالغ، هوش مصنوعی را به طور متوازن در سراسر چرخه عمر امنیتی توزیع میکنند، که اغلب به صورت زیر است: ۳۰ درصد پیشگیری، ۲۹ درصد شناسایی، ۲۶ درصد تحقیق و ۲۷ درصد پاسخ. دارن گوسون، معاون ارشد مدیر محصول در Ivanti، این موضوع را تقویت میکند: “ابزارهای امنیتی نقطه پایانی مبتنی بر هوش مصنوعی میتوانند مقادیر عظیمی از دادهها را برای شناسایی ناهنجاریها و پیشبینی تهدیدات احتمالی سریعتر و دقیقتر از هر تحلیلگر انسانی تجزیه و تحلیل کنند.” تیمهای امنیتی عقب نمیمانند؛ ۷۷ درصد آنها با نرخ پذیرش کلی هوش مصنوعی در شرکت خود برابری کرده یا از آن پیشی میگیرند. در میان کسانی که پس از نقض سرمایهگذاری میکنند، ۴۵ درصد راهکارهای مبتنی بر هوش مصنوعی را انتخاب میکنند، با تمرکز بر شناسایی تهدید (۳۶ درصد)، برنامهریزی پاسخ به حادثه (۳۵ درصد) و ابزارهای امنیت داده (۳۱ درصد). عامل DevSecOps مزایای بیشتری را به همراه دارد و ۲۲۷,۱۹۲ دلار اضافی صرفهجویی میکند و آن را به یکی از برترین اقدامات کاهشدهنده هزینه تبدیل میکند. در ترکیب با تأثیر هوش مصنوعی، سازمانها میتوانند هزینههای نقض را بیش از ۲ میلیون دلار کاهش دهند، که امنیت را از یک مرکز هزینه به یک عامل تمایز رقابتی تبدیل میکند.
چرا هزینههای امنیت سایبری در آمریکا به رکوردهای بالایی رسید، در حالی که بقیه جهان میلیونها دلار صرفهجویی کردند؟
چشمانداز امنیت سایبری در سال ۲۰۲۴ یک پارادوکس خیرهکننده را آشکار کرد: در حالی که هزینههای جهانی نقض دادهها به ۴.۴۴ میلیون دلار کاهش یافت که اولین کاهش در پنج سال اخیر بود، سازمانهای آمریکایی شاهد افزایش بیسابقه هزینههای خود به ۱۰.۲۲ میلیون دلار به ازای هر حادثه بودند. این واگرایی نشاندهنده یک تغییر اساسی در نحوه ظهور ریسکهای سایبری در مرزهای جغرافیایی است و نیاز به بررسی عمیقتر عوامل محلی را برجسته میکند.
سازمانهای بهداشتی و درمانی همچنان سنگینترین بار را متحمل میشوند، با میانگین هزینه ۷.۴۲ میلیون دلار به ازای هر نقض و زمانهای حل و فصل که به ۲۷۹ روز میرسد – پنج هفته بیشتر از آنچه همتایان آنها در صنایع دیگر تجربه میکنند. این ارقام نه تنها نشاندهنده آسیبپذیری خاص این بخش حیاتی است، بلکه بر پیچیدگی و حساسیت دادههای پزشکی و پیامدهای گسترده نقض آنها تأکید دارد.
تلفات عملیاتی نیز به همان اندازه شدید است: ۸۶ درصد از سازمانهای مورد حمله اختلالات تجاری قابل توجهی را گزارش میدهند، به طوری که سه چهارم آنها بیش از ۱۰۰ روز برای بازگرداندن عملیات عادی خود نیاز دارند. این مدت زمان طولانی برای بازیابی، میتواند به زیانهای مالی بیشتر، از دست دادن مشتریان و آسیب طولانیمدت به اعتبار منجر شود. شاید نگرانکنندهترین موضوع برای رهبران امنیتی، ظهور “خستگی سرمایهگذاری” باشد. تعهدات هزینههای امنیتی پس از نقض دادهها از ۶۳ درصد به تنها ۴۹ درصد سال به سال کاهش یافته است، که نشان میدهد سازمانها در مورد بازده سرمایهگذاری (ROI) در سرمایهگذاریهای امنیتی واکنشی سوالاتی دارند.
در میان کسانی که بهبودی کامل را تجربه کردند، تنها ۲ درصد توانستند وضعیت عملیاتی خود را ظرف ۵۰ روز بازیابی کنند، در حالی که ۲۶ درصد بیش از ۱۵۰ روز برای بازگرداندن وضعیت عملیاتی خود نیاز داشتند. این معیارها واقعیت تلخی را تأکید میکنند: در حالی که سازمانهای جهانی در حال بهبود توانایی خود برای مهار هزینههای نقض دادهها هستند، شرکتهای آمریکایی با بحرانی فزاینده مواجه هستند که هزینههای امنیتی سنتی به تنهایی نمیتوانند آن را حل کنند. این شکاف رو به گسترش، نیازمند بازنگری اساسی در استراتژیهای تابآوری سایبری است، به ویژه برای ارائهدهندگان خدمات بهداشتی و درمانی که در تقاطع حداکثر ریسک و زمانهای بازیابی طولانیتر عمل میکنند.
گزارش IBM بر اهمیت حیاتی حاکمیت تأکید میکند
جورج کورتز، مدیرعامل و بنیانگذار CrowdStrike، اشاره میکند: “هوش مصنوعی مولد، مانع ورود برای مجرمان سایبری را کاهش داده است… حتی مهاجمان با پیچیدگی پایین نیز میتوانند از هوش مصنوعی مولد برای نوشتن اسکریپتهای فیشینگ، تحلیل آسیبپذیریها و راهاندازی حملات با حداقل تلاش بهره ببرند.” این سهولت دسترسی به ابزارهای پیشرفته حمله، نیاز به دفاعی هوشمندانه و جامع را دوچندان میکند.
مایک ریمر، CISO میدانی در Ivanti، امیدواریهایی را ارائه میدهد: “برای سالها، مهاجمان از هوش مصنوعی به نفع خود استفاده میکردند. با این حال، سال ۲۰۲۵ نقطه عطفی خواهد بود که مدافعان شروع به بهرهبرداری کامل از پتانسیل هوش مصنوعی برای اهداف امنیت سایبری خواهند کرد.” این دیدگاه نشان میدهد که رقابت بین مهاجمان و مدافعان وارد فاز جدیدی شده است، جایی که هوش مصنوعی نقش محوری ایفا میکند.
گزارش IBM بینشهایی را ارائه میدهد که سازمانها میتوانند بلافاصله از آنها استفاده کنند:
- همین حالا حاکمیت هوش مصنوعی را پیادهسازی کنید – تنها ۴۵٪ از سازمانها فرآیندهای تأیید برای استقرار هوش مصنوعی دارند، که نشاندهنده نیاز فوری به چارچوبهای حاکمیتی است.
- دید کاملی نسبت به هوش مصنوعی پنهان به دست آورید – ممیزیهای منظم ضروری است، زیرا ۲۰٪ از نقضها ناشی از هوش مصنوعی غیرمجاز است. سازمانها باید بدانند چه ابزارهایی در محیط آنها استفاده میشود.
- پذیرش هوش مصنوعی امنیتی را تسریع بخشید – صرفهجویی ۱.۹ میلیون دلاری هزینهها، استقرار تهاجمی هوش مصنوعی را توجیه میکند. سرمایهگذاری در هوش مصنوعی برای دفاع، یک اقدام استراتژیک و اقتصادی است.
همانطور که گزارش نتیجهگیری میکند: “سازمانها باید اطمینان حاصل کنند که مدیران ارشد اطلاعات امنیتی (CISOs)، مدیران ارشد درآمد (CROs) و مدیران ارشد انطباق (CCOs) و تیمهایشان به طور منظم با یکدیگر همکاری میکنند. سرمایهگذاری در نرمافزارها و فرآیندهای امنیتی و حاکمیتی یکپارچه برای گرد هم آوردن این ذینفعان بینبخشی میتواند به سازمانها کمک کند تا هوش مصنوعی پنهان را به طور خودکار کشف و مدیریت کنند.”
در چشمانداز جدیدی که مهاجمان هوش مصنوعی را تسلیحاتی کردهاند و کارکنان برای افزایش بهرهوری ابزارهای پنهان ایجاد میکنند، سازمانهایی که باقی میمانند، مزایای هوش مصنوعی را پذیرفته و در عین حال خطرات آن را به شدت مدیریت خواهند کرد. در این دنیای جدید، جایی که ماشینها با سرعتهایی که انسانها نمیتوانند با آنها برابری کنند، با یکدیگر مبارزه میکنند، حاکمیت تنها به معنای انطباق نیست؛ بلکه به معنای بقا است.