هوش مصنوعی پنهان ۶۷۰ هزار دلار به هزینه‌های نقض داده‌ها اضافه می‌کند، در حالی که ۹۷٪ از شرکت‌ها کنترل‌های دسترسی اولیه را نادیده می‌گیرند، گزارش IBM

هوش مصنوعی پنهان: چالشی پرهزینه برای سازمان‌ها هوش مصنوعی پنهان، معضلی ۶۷۰ هزار دلاری است که اغلب سازمان‌ها حتی از وجود آن بی‌خبرند. این پدیده‌ای نوظهور است که با پیشرفت...

فهرست مطالب

هوش مصنوعی پنهان: چالشی پرهزینه برای سازمان‌ها

هوش مصنوعی پنهان، معضلی ۶۷۰ هزار دلاری است که اغلب سازمان‌ها حتی از وجود آن بی‌خبرند. این پدیده‌ای نوظهور است که با پیشرفت سریع فناوری هوش مصنوعی و اشتیاق کارکنان برای بهره‌برداری از ابزارهای جدید برای افزایش بهره‌وری، به سرعت در حال گسترش است. در حالی که مزایای این ابزارها برای کارکنان وسوسه‌انگیز است، اما عدم نظارت و کنترل کافی بر آن‌ها می‌تواند خطرات امنیتی جبران‌ناپذیری را به همراه داشته باشد.

گزارش “هزینه نقض داده‌ها در سال ۲۰۲۵” شرکت IBM که امروز با همکاری موسسه Ponemon منتشر شد، نشان می‌دهد که نقض‌های امنیتی ناشی از استفاده غیرمجاز کارکنان از ابزارهای هوش مصنوعی، به طور متوسط ۴.۶۳ میلیون دلار برای سازمان‌ها هزینه داشته است. این رقم تقریباً ۱۶ درصد بیشتر از میانگین جهانی ۴.۴۴ میلیون دلار برای هر نقض داده است، که نشان‌دهنده ابعاد فزاینده این مشکل است.

این تحقیقات که بر اساس ۳,۴۷۰ مصاحبه در ۶۰۰ سازمان که مورد حمله سایبری قرار گرفته‌اند، انجام شده، بیانگر این واقعیت است که سرعت پذیرش هوش مصنوعی بسیار بیشتر از سرعت نظارت‌های امنیتی است. در حالی که تنها ۱۳ درصد از سازمان‌ها حوادث امنیتی مرتبط با هوش مصنوعی را گزارش کرده‌اند، ۹۷ درصد از سازمان‌های مورد حمله فاقد کنترل‌های دسترسی مناسب برای سیستم‌های هوش مصنوعی بوده‌اند. این شکاف عمیق بین نوآوری و امنیت، راه را برای سوءاستفاده‌های سایبری باز می‌کند.

علاوه بر این، ۸ درصد از سازمان‌ها حتی مطمئن نبودند که آیا از طریق سیستم‌های هوش مصنوعی مورد حمله قرار گرفته‌اند یا خیر، که خود نشان‌دهنده فقدان دید و شفافیت در زیرساخت‌های فناوری اطلاعات آن‌هاست. سوژا ویسوسان، معاون رئیس محصولات امنیتی و زمان اجرا در IBM، بیان می‌کند: “داده‌ها نشان می‌دهد که شکافی بین پذیرش هوش مصنوعی و نظارت بر آن از قبل وجود دارد و مهاجمان در حال بهره‌برداری از آن هستند.” وی تأکید کرد که فقدان کنترل‌های دسترسی اولیه برای سیستم‌های هوش مصنوعی، داده‌های بسیار حساس را در معرض خطر قرار داده و مدل‌ها را در برابر دستکاری آسیب‌پذیر می‌کند. این وضعیت، لزوم توجه فوری به حاکمیت هوش مصنوعی و امنیت سایبری را بیش از پیش آشکار می‌سازد.

هوش مصنوعی پنهان و زنجیره تأمین: بردار اصلی حملات سایبری

این گزارش نشان می‌دهد که ۶۰ درصد از حوادث امنیتی مرتبط با هوش مصنوعی منجر به افشای داده‌ها شده، در حالی که ۳۱ درصد باعث اختلال در عملیات روزانه سازمان‌ها گردیده‌اند. این ارقام تأثیرات گسترده‌ای را نشان می‌دهند که هوش مصنوعی پنهان می‌تواند بر کسب و کارها بگذارد، از زیان‌های مالی مستقیم گرفته تا آسیب به اعتبار و اعتماد مشتری.

در ۶۵ درصد از حوادث هوش مصنوعی پنهان، اطلاعات شناسایی شخصی (PII) مشتریان به خطر افتاده است که به طور قابل توجهی بالاتر از میانگین جهانی ۵۳ درصد است. این امر به دلیل دسترسی غیرمجاز به داده‌های حساس و عدم نظارت بر چگونگی استفاده از آن‌ها در ابزارهای هوش مصنوعی است. یکی از بزرگترین نقاط ضعف امنیت هوش مصنوعی، مسئله حاکمیت است؛ به طوری که ۶۳ درصد از سازمان‌های مورد حمله یا فاقد سیاست‌های حاکمیت هوش مصنوعی بودند یا هنوز در حال توسعه آن‌ها هستند. این فقدان چارچوب‌های مشخص، محیطی ایده‌آل برای مهاجمان ایجاد می‌کند.

ایتامار گولان، مدیرعامل Prompt Security، در مصاحبه‌ای با VentureBeat اظهار داشت: “هوش مصنوعی پنهان مانند دوپینگ در مسابقات دوچرخه‌سواری تور دو فرانس است؛ افراد بدون اینکه به عواقب بلندمدت آن پی ببرند، به دنبال مزیت هستند.” شرکت او بیش از ۱۲,۰۰۰ برنامه هوش مصنوعی را فهرست‌بندی کرده و روزانه ۵۰ مورد جدید را شناسایی می‌کند، که نشان‌دهنده سرعت خیره‌کننده گسترش این برنامه‌ها و چالش نظارت بر آن‌هاست.

با توجه به اینکه ابزارهای هوش مصنوعی جدید و پلتفرم‌های توسعه به سرعت در حال ظهور هستند، کارکنان به طور فزاینده‌ای از این ابزارها برای بهبود کارایی خود استفاده می‌کنند، اما اغلب این کار بدون تأیید یا نظارت بخش IT یا امنیتی سازمان انجام می‌شود. این ابزارهای تأیید نشده که به “هوش مصنوعی پنهان” معروف هستند، می‌توانند نقاط ورودی ناشناخته‌ای برای مهاجمان ایجاد کنند. گزارش تأکید می‌کند که زنجیره تأمین، بردار اصلی حمله برای حوادث امنیتی هوش مصنوعی است، به طوری که ۳۰ درصد از این حوادث شامل برنامه‌ها، APIها یا افزونه‌های به خطر افتاده بوده‌اند. این نشان می‌دهد که سازمان‌ها باید فراتر از امنیت داخلی خود، به امنیت شرکا و اکوسیستم‌های مرتبط نیز توجه کنند.

تبلت ارزشمند سامسونگ گلکسی تب S10 لایت به‌زودی با باتری پرظرفیت و اندروید ۱۵ معرفی می‌شود

تکثیر هوش مصنوعی‌های تسلیحاتی‌شده

هر نوع هوش مصنوعی تسلیحاتی‌شده، از جمله مدل‌های زبان بزرگ (LLM) که برای بهبود شیوه‌های حمله طراحی شده‌اند، به سرعت در حال افزایش است. این ابزارها به مهاجمان امکان می‌دهند تا با کارایی و سرعت بی‌سابقه‌ای حملات سایبری را انجام دهند، که تشخیص و مقابله با آن‌ها را برای مدافعان دشوارتر می‌سازد.

شانزده درصد از نقض‌های امنیتی اکنون شامل حمله‌کنندگانی است که از هوش مصنوعی استفاده می‌کنند، که عمدتاً برای حملات فیشینگ مبتنی بر هوش مصنوعی (۳۷ درصد) و حملات دیپ‌فیک (۳۵ درصد) به کار می‌رود. مدل‌هایی مانند FraudGPT، GhostGPT و DarkGPT با هزینه اندک (حتی ۷۵ دلار در ماه) به فروش می‌رسند و برای استراتژی‌های حمله‌ای مانند فیشینگ، تولید اکسپلویت، پنهان‌سازی کد، اسکن آسیب‌پذیری و اعتبارسنجی کارت اعتباری ساخته شده‌اند. این سهولت دسترسی، خطر را برای همه سازمان‌ها افزایش می‌دهد.

هرچه یک مدل زبان بزرگ (LLM) دقیق‌تر تنظیم شود، احتمال تولید خروجی‌های مخرب توسط آن بیشتر است. گزارش “وضعیت امنیت هوش مصنوعی” سیسکو نشان می‌دهد که LLMهای تنظیم‌شده ۲۲ برابر بیشتر از مدل‌های پایه، خروجی‌های مخرب تولید می‌کنند. این یافته‌ها بر اهمیت آزمایش‌های دقیق و کنترل‌های امنیتی برای مدل‌های هوش مصنوعی تأکید دارند.

اتای مائور، استراتژیست ارشد امنیتی در Cato Networks، اخیراً به VentureBeat گفت: “مهاجمان فقط از هوش مصنوعی برای خودکارسازی حملات استفاده نمی‌کنند؛ آن‌ها از آن برای ترکیب شدن با ترافیک عادی شبکه استفاده می‌کنند که تشخیص آن‌ها را سخت‌تر می‌کند.” وی افزود: “چالش واقعی این است که حملات مبتنی بر هوش مصنوعی یک رویداد منفرد نیستند؛ آن‌ها یک فرآیند مداوم از شناسایی، فرار و انطباق هستند.” شلومو کرامر، مدیرعامل Cato Networks، در مصاحبه‌ای با VentureBeat هشدار داد: “یک پنجره کوتاه وجود دارد که شرکت‌ها می‌توانند از گرفتار شدن با معماری‌های پراکنده جلوگیری کنند. مهاجمان سریع‌تر از تیم‌های ادغام‌کننده حرکت می‌کنند.” این وضعیت، نیاز به یک رویکرد جامع و یکپارچه در امنیت سایبری را برجسته می‌کند.

حاکمیت به عنوان نقطه ضعف مورد سوءاستفاده مهاجمان

در میان ۳۷ درصد از سازمان‌هایی که ادعا می‌کنند دارای سیاست‌های حاکمیت هوش مصنوعی هستند، تنها ۳۴ درصد به طور منظم برای هوش مصنوعی غیرمجاز ممیزی انجام می‌دهند. این بدان معناست که حتی در سازمان‌هایی که از اهمیت حاکمیت آگاهند، اجرای مؤثر و مداوم آن هنوز یک چالش بزرگ است. فقدان ممیزی‌های منظم، سازمان‌ها را در برابر تهدیدات ناشی از هوش مصنوعی پنهان آسیب‌پذیر می‌سازد.

تنها ۲۲ درصد از سازمان‌ها آزمایش‌های تهاجمی (adversarial testing) را بر روی مدل‌های هوش مصنوعی خود انجام می‌دهند. این آزمایش‌ها برای شناسایی آسیب‌پذیری‌هایی که مهاجمان ممکن است برای دستکاری یا سوءاستفاده از مدل‌ها استفاده کنند، حیاتی هستند. نادیده گرفتن این تست‌ها، سازمان‌ها را در برابر حملات هدفمند آسیب‌پذیر می‌کند. DevSecOps به عنوان عامل اصلی کاهش هزینه‌های نقض داده‌ها شناخته شده است که به طور متوسط ۲۲۷,۱۹۲ دلار برای سازمان‌ها صرفه‌جویی می‌کند. این رویکرد، امنیت را در هر مرحله از چرخه توسعه نرم‌افزار ادغام می‌کند و به کاهش آسیب‌پذیری‌ها قبل از تبدیل شدن به حملات واقعی کمک می‌کند.

همانطور که گزارش IBM اشاره می‌کند، “اکثریت سازمان‌های مورد حمله (۶۳ درصد) یا سیاست حاکمیت هوش مصنوعی ندارند یا هنوز در حال توسعه آن هستند. حتی زمانی که سیاستی وجود دارد، کمتر از نیمی از آن‌ها فرآیند تأیید برای استقرار هوش مصنوعی دارند و ۶۲ درصد فاقد کنترل‌های دسترسی مناسب بر روی سیستم‌های هوش مصنوعی هستند.” این آمارها به وضوح نشان می‌دهد که حاکمیت هوش مصنوعی یک ضعف گسترده در سراسر صنایع است که مهاجمان از آن بهره‌برداری می‌کنند.

گرافیک: اکثر سازمان‌ها فاقد حاکمیت ضروری برای کاهش خطرات مرتبط با هوش مصنوعی هستند.

بیشتر سازمان‌ها فاقد حاکمیت ضروری برای کاهش خطرات مرتبط با هوش مصنوعی هستند، به طوری که ۸۷٪ عدم وجود سیاست‌ها یا فرآیندها را تأیید می‌کنند. تقریباً دو سوم شرکت‌های مورد حمله نتوانسته‌اند مدل‌های هوش مصنوعی خود را به طور منظم ممیزی کنند، و بیش از سه چهارم آزمایش‌های تهاجمی را انجام نمی‌دهند، که آسیب‌پذیری‌های حیاتی را در معرض خطر قرار می‌دهد.

این الگوی پاسخ تأخیری به آسیب‌پذیری‌های شناخته‌شده فراتر از حاکمیت هوش مصنوعی به اقدامات امنیتی اساسی نیز گسترش می‌یابد. کریس گوئتل، معاون مدیر محصول در Endpoint Security در Ivanti، بر تغییر دیدگاه تأکید می‌کند: “آنچه ما در حال حاضر “مدیریت وصله” می‌نامیم، باید به طور مناسب‌تر “مدیریت ریسک” نامیده شود – یا سازمان شما چقدر حاضر است در معرض یک آسیب‌پذیری خاص قرار گیرد؟” این نکته به وضوح نشان می‌دهد که تمرکز باید از صرفاً ترمیم، به پیشگیری و مدیریت فعال ریسک تغییر کند.

توسعه پلتفرم هوش مصنوعی جدیدی که روند درمان سرطان را به چند هفته کاهش می‌دهد

سود ۱.۹ میلیون دلاری هوش مصنوعی: چرا امنیت هوشمند ارزشش را دارد؟

با وجود طبیعت رو به رشد هوش مصنوعی تسلیحاتی‌شده، گزارش IBM امیدواری‌هایی را برای مبارزه با شیوه‌های رو به پیشرفت مهاجمان ارائه می‌دهد. سازمان‌هایی که به طور کامل از هوش مصنوعی و اتوماسیون استفاده می‌کنند، ۱.۹ میلیون دلار به ازای هر نقض امنیتی صرفه‌جویی می‌کنند و حوادث را ۸۰ روز سریع‌تر حل و فصل می‌نمایند. این نشان‌دهنده مزایای چشمگیر ادغام هوش مصنوعی در استراتژی‌های امنیتی است.

بر اساس این گزارش، “تیم‌های امنیتی که به طور گسترده از هوش مصنوعی و اتوماسیون استفاده می‌کنند، زمان نقض داده‌های خود را ۸۰ روز کوتاه‌تر کرده و میانگین هزینه‌های نقض خود را ۱.۹ میلیون دلار در مقایسه با سازمان‌هایی که از این راهکارها استفاده نکرده‌اند، کاهش داده‌اند.” این تفاوت چشمگیر است. سازمان‌های مجهز به هوش مصنوعی ۳.۶۲ میلیون دلار برای نقض‌ها هزینه می‌کنند، در حالی که این رقم برای سازمان‌های فاقد هوش مصنوعی ۵.۵۲ میلیون دلار است که منجر به تفاوت هزینه ۵۲ درصدی می‌شود.

این تیم‌ها نقض‌ها را در ۱۵۳ روز شناسایی می‌کنند (در مقایسه با ۲۱۲ روز برای رویکردهای سنتی) و سپس آن‌ها را در ۵۱ روز مهار می‌کنند (در مقایسه با ۷۲ روز). وینیت آرورا، مدیر ارشد فناوری در WinWire، اشاره کرد: “ابزارهای هوش مصنوعی در تحلیل سریع داده‌های عظیم در سراسر لاگ‌ها، نقاط پایانی و ترافیک شبکه، و شناسایی الگوهای ظریف در مراحل اولیه، عالی عمل می‌کنند.” این قابلیت، اقتصاد امنیت را دگرگون می‌کند: در حالی که میانگین هزینه جهانی نقض داده‌ها ۴.۴۴ میلیون دلار است، کاربران گسترده هوش مصنوعی ۱۸ درصد زیر این معیار عمل می‌کنند.

با این حال، پذیرش همچنان با چالش مواجه است. تنها ۳۲ درصد از سازمان‌ها به طور گسترده از امنیت هوش مصنوعی استفاده می‌کنند، ۴۰ درصد آن را به صورت محدود به کار می‌برند و ۲۸ درصد اصلاً از آن استفاده نمی‌کنند. سازمان‌های بالغ، هوش مصنوعی را به طور متوازن در سراسر چرخه عمر امنیتی توزیع می‌کنند، که اغلب به صورت زیر است: ۳۰ درصد پیشگیری، ۲۹ درصد شناسایی، ۲۶ درصد تحقیق و ۲۷ درصد پاسخ. دارن گوسون، معاون ارشد مدیر محصول در Ivanti، این موضوع را تقویت می‌کند: “ابزارهای امنیتی نقطه پایانی مبتنی بر هوش مصنوعی می‌توانند مقادیر عظیمی از داده‌ها را برای شناسایی ناهنجاری‌ها و پیش‌بینی تهدیدات احتمالی سریع‌تر و دقیق‌تر از هر تحلیلگر انسانی تجزیه و تحلیل کنند.” تیم‌های امنیتی عقب نمی‌مانند؛ ۷۷ درصد آن‌ها با نرخ پذیرش کلی هوش مصنوعی در شرکت خود برابری کرده یا از آن پیشی می‌گیرند. در میان کسانی که پس از نقض سرمایه‌گذاری می‌کنند، ۴۵ درصد راهکارهای مبتنی بر هوش مصنوعی را انتخاب می‌کنند، با تمرکز بر شناسایی تهدید (۳۶ درصد)، برنامه‌ریزی پاسخ به حادثه (۳۵ درصد) و ابزارهای امنیت داده (۳۱ درصد). عامل DevSecOps مزایای بیشتری را به همراه دارد و ۲۲۷,۱۹۲ دلار اضافی صرفه‌جویی می‌کند و آن را به یکی از برترین اقدامات کاهش‌دهنده هزینه تبدیل می‌کند. در ترکیب با تأثیر هوش مصنوعی، سازمان‌ها می‌توانند هزینه‌های نقض را بیش از ۲ میلیون دلار کاهش دهند، که امنیت را از یک مرکز هزینه به یک عامل تمایز رقابتی تبدیل می‌کند.

چرا هزینه‌های امنیت سایبری در آمریکا به رکوردهای بالایی رسید، در حالی که بقیه جهان میلیون‌ها دلار صرفه‌جویی کردند؟

چشم‌انداز امنیت سایبری در سال ۲۰۲۴ یک پارادوکس خیره‌کننده را آشکار کرد: در حالی که هزینه‌های جهانی نقض داده‌ها به ۴.۴۴ میلیون دلار کاهش یافت که اولین کاهش در پنج سال اخیر بود، سازمان‌های آمریکایی شاهد افزایش بی‌سابقه هزینه‌های خود به ۱۰.۲۲ میلیون دلار به ازای هر حادثه بودند. این واگرایی نشان‌دهنده یک تغییر اساسی در نحوه ظهور ریسک‌های سایبری در مرزهای جغرافیایی است و نیاز به بررسی عمیق‌تر عوامل محلی را برجسته می‌کند.

سازمان‌های بهداشتی و درمانی همچنان سنگین‌ترین بار را متحمل می‌شوند، با میانگین هزینه ۷.۴۲ میلیون دلار به ازای هر نقض و زمان‌های حل و فصل که به ۲۷۹ روز می‌رسد – پنج هفته بیشتر از آنچه همتایان آن‌ها در صنایع دیگر تجربه می‌کنند. این ارقام نه تنها نشان‌دهنده آسیب‌پذیری خاص این بخش حیاتی است، بلکه بر پیچیدگی و حساسیت داده‌های پزشکی و پیامدهای گسترده نقض آن‌ها تأکید دارد.

محققان گوگل LSM-2 را با ماسک‌گذاری تطبیقی و موروثی (AIM) معرفی کردند: امکان یادگیری مستقیم از داده‌های ناقص پوشیدنی

تلفات عملیاتی نیز به همان اندازه شدید است: ۸۶ درصد از سازمان‌های مورد حمله اختلالات تجاری قابل توجهی را گزارش می‌دهند، به طوری که سه چهارم آن‌ها بیش از ۱۰۰ روز برای بازگرداندن عملیات عادی خود نیاز دارند. این مدت زمان طولانی برای بازیابی، می‌تواند به زیان‌های مالی بیشتر، از دست دادن مشتریان و آسیب طولانی‌مدت به اعتبار منجر شود. شاید نگران‌کننده‌ترین موضوع برای رهبران امنیتی، ظهور “خستگی سرمایه‌گذاری” باشد. تعهدات هزینه‌های امنیتی پس از نقض داده‌ها از ۶۳ درصد به تنها ۴۹ درصد سال به سال کاهش یافته است، که نشان می‌دهد سازمان‌ها در مورد بازده سرمایه‌گذاری (ROI) در سرمایه‌گذاری‌های امنیتی واکنشی سوالاتی دارند.

در میان کسانی که بهبودی کامل را تجربه کردند، تنها ۲ درصد توانستند وضعیت عملیاتی خود را ظرف ۵۰ روز بازیابی کنند، در حالی که ۲۶ درصد بیش از ۱۵۰ روز برای بازگرداندن وضعیت عملیاتی خود نیاز داشتند. این معیارها واقعیت تلخی را تأکید می‌کنند: در حالی که سازمان‌های جهانی در حال بهبود توانایی خود برای مهار هزینه‌های نقض داده‌ها هستند، شرکت‌های آمریکایی با بحرانی فزاینده مواجه هستند که هزینه‌های امنیتی سنتی به تنهایی نمی‌توانند آن را حل کنند. این شکاف رو به گسترش، نیازمند بازنگری اساسی در استراتژی‌های تاب‌آوری سایبری است، به ویژه برای ارائه‌دهندگان خدمات بهداشتی و درمانی که در تقاطع حداکثر ریسک و زمان‌های بازیابی طولانی‌تر عمل می‌کنند.

گزارش IBM بر اهمیت حیاتی حاکمیت تأکید می‌کند

جورج کورتز، مدیرعامل و بنیانگذار CrowdStrike، اشاره می‌کند: “هوش مصنوعی مولد، مانع ورود برای مجرمان سایبری را کاهش داده است… حتی مهاجمان با پیچیدگی پایین نیز می‌توانند از هوش مصنوعی مولد برای نوشتن اسکریپت‌های فیشینگ، تحلیل آسیب‌پذیری‌ها و راه‌اندازی حملات با حداقل تلاش بهره ببرند.” این سهولت دسترسی به ابزارهای پیشرفته حمله، نیاز به دفاعی هوشمندانه و جامع را دوچندان می‌کند.

مایک ریمر، CISO میدانی در Ivanti، امیدواری‌هایی را ارائه می‌دهد: “برای سال‌ها، مهاجمان از هوش مصنوعی به نفع خود استفاده می‌کردند. با این حال، سال ۲۰۲۵ نقطه عطفی خواهد بود که مدافعان شروع به بهره‌برداری کامل از پتانسیل هوش مصنوعی برای اهداف امنیت سایبری خواهند کرد.” این دیدگاه نشان می‌دهد که رقابت بین مهاجمان و مدافعان وارد فاز جدیدی شده است، جایی که هوش مصنوعی نقش محوری ایفا می‌کند.

گزارش IBM بینش‌هایی را ارائه می‌دهد که سازمان‌ها می‌توانند بلافاصله از آن‌ها استفاده کنند:

  1. همین حالا حاکمیت هوش مصنوعی را پیاده‌سازی کنید – تنها ۴۵٪ از سازمان‌ها فرآیندهای تأیید برای استقرار هوش مصنوعی دارند، که نشان‌دهنده نیاز فوری به چارچوب‌های حاکمیتی است.
  2. دید کاملی نسبت به هوش مصنوعی پنهان به دست آورید – ممیزی‌های منظم ضروری است، زیرا ۲۰٪ از نقض‌ها ناشی از هوش مصنوعی غیرمجاز است. سازمان‌ها باید بدانند چه ابزارهایی در محیط آن‌ها استفاده می‌شود.
  3. پذیرش هوش مصنوعی امنیتی را تسریع بخشید – صرفه‌جویی ۱.۹ میلیون دلاری هزینه‌ها، استقرار تهاجمی هوش مصنوعی را توجیه می‌کند. سرمایه‌گذاری در هوش مصنوعی برای دفاع، یک اقدام استراتژیک و اقتصادی است.

همانطور که گزارش نتیجه‌گیری می‌کند: “سازمان‌ها باید اطمینان حاصل کنند که مدیران ارشد اطلاعات امنیتی (CISOs)، مدیران ارشد درآمد (CROs) و مدیران ارشد انطباق (CCOs) و تیم‌هایشان به طور منظم با یکدیگر همکاری می‌کنند. سرمایه‌گذاری در نرم‌افزارها و فرآیندهای امنیتی و حاکمیتی یکپارچه برای گرد هم آوردن این ذینفعان بین‌بخشی می‌تواند به سازمان‌ها کمک کند تا هوش مصنوعی پنهان را به طور خودکار کشف و مدیریت کنند.”

در چشم‌انداز جدیدی که مهاجمان هوش مصنوعی را تسلیحاتی کرده‌اند و کارکنان برای افزایش بهره‌وری ابزارهای پنهان ایجاد می‌کنند، سازمان‌هایی که باقی می‌مانند، مزایای هوش مصنوعی را پذیرفته و در عین حال خطرات آن را به شدت مدیریت خواهند کرد. در این دنیای جدید، جایی که ماشین‌ها با سرعت‌هایی که انسان‌ها نمی‌توانند با آن‌ها برابری کنند، با یکدیگر مبارزه می‌کنند، حاکمیت تنها به معنای انطباق نیست؛ بلکه به معنای بقا است.

منبع: VentureBeat

دیگر هیچ مقاله‌ای را از دست ندهید

محتوای کاملاً انتخاب شده، مطالعات موردی، به‌روزرسانی‌های بیشتر.

Leave a Reply

Your email address will not be published. Required fields are marked *

مدیریت حرفه‌ای شبکه‌های اجتماعی با رسا وب آفرین

  • افزایش تعامل و دنبال‌کننده در اینستاگرام و تلگرام

  • تولید محتوا بر اساس الگوریتم‌های روز شبکه‌های اجتماعی

  • طراحی پست و استوری اختصاصی با برندینگ شما

  • تحلیل و گزارش‌گیری ماهانه از عملکرد پیج

  • اجرای کمپین تبلیغاتی با بازده بالا

محبوب ترین مقالات

آماده‌اید کسب‌وکارتان را دیجیتالی رشد دهید؟

از طراحی سایت حرفه‌ای گرفته تا کمپین‌های هدفمند گوگل ادز و ارسال نوتیفیکیشن هوشمند؛ ما اینجاییم تا در مسیر رشد دیجیتال، همراه شما باشیم. همین حالا با ما تماس بگیرید یا یک مشاوره رایگان رزرو کنید.