مقدمه: چرا چتباتهای هوش مصنوعی جایگزین مناسبی برای روانشناسها نیستند؟
در عصر حاضر که فناوریهای هوش مصنوعی به سرعت در حال پیشرفت هستند و به جنبههای مختلف زندگی ما نفوذ کردهاند، وسوسه استفاده از آنها برای حل مشکلات شخصی و حتی روانی، رو به افزایش است. چتباتهای هوش مصنوعی با قابلیتهای مکالمهای پیشرفته خود، گاهی اوقات این توهم را ایجاد میکنند که میتوانند نقش یک مشاور یا حتی روانشناس را ایفا کنند. با این حال، نتایج مطالعات جدید و همچنین حوادث ناگواری که در سالهای اخیر رخ داده است، به وضوح نشان میدهد که چتباتهای هوش مصنوعی به هیچ وجه جایگزین خوبی برای روانشناسهای انسانی نیستند. این ابزارهای ماشینی، هرچند که در پردازش اطلاعات و ارائه پاسخهای سریع توانمندند، اما فاقد درک عمیق، همدلی، قضاوت اخلاقی و توانایی ارائه راهکارهای درمانی حرفهای هستند که در مواجهه با بحرانهای روانی، حیاتی محسوب میشود.
استفاده از چتباتها برای کمکهای اولیه یا جستجو برای اطلاعات عمومی در زمینه سلامت روان، ممکن است در برخی موارد مفید باشد، اما نباید خطرات جدی جایگزین کردن آنها با متخصصان را نادیده گرفت. سلامت روان یک حوزه بسیار پیچیده و حساس است که نیازمند توجه فردی، تحلیلهای عمیق روانشناختی، و توانایی درک جزئیات ظریف انسانی است. چتباتها، با وجود تمام پیشرفتهایشان، تنها الگوریتمهایی هستند که بر اساس دادههای موجود پاسخ تولید میکنند و قادر به درک احساسات پیچیده، نیتهای پنهان، و زمینههای فرهنگی و فردی هر شخص نیستند.
این مقاله به بررسی دقیقتر دلایلی میپردازد که چرا چتباتهای هوش مصنوعی نمیتوانند و نباید جایگزین روانشناسان حرفهای شوند، و بر اهمیت مداخله انسانی در بحرانهای سلامت روان تأکید میکند. ما همچنین به بررسی چند نمونه واقعی میپردازیم که نشاندهنده خطرات ناشی از اعتماد بیش از حد به این ابزارها در مسائل روانشناختی است.
نمونههای هشداردهنده: تراژدیهای ناشی از اعتماد به چتباتها
تجربیات واقعی، گویاترین دلیل برای اثبات ناکارآمدی و حتی خطرناک بودن چتباتهای هوش مصنوعی در حوزه سلامت روان هستند. در سال ۲۰۲۳، یک مرد جوان در بلژیک پس از شش هفته گفتوگوی مداوم با یک چتبات هوش مصنوعی در مورد آینده کره زمین و نگرانیهای محیطزیستی، دچار اضطراب شدید محیطزیستی شد و متأسفانه به زندگی خود پایان داد. همسر این مرد، در اظهارات تکاندهنده خود، اذعان داشت که اگر این گفتوگوها با چتبات اتفاق نمیافتاد، همسرش احتمالاً هنوز زنده بود.
در نمونهای دیگر، یک مرد ۳۵ ساله در فلوریدا، تحت تأثیر باورهای غلطی که از تعامل با ChatGPT ناشی شده بود، به توهمات خطرناکی دچار شد. او معتقد بود که شخصیتی به نام «جولیت» در چتجیپیتی به دام افتاده است و سپس توسط شرکت اوپنایآی کشته شده است. این توهمات، منجر به حمله این مرد با چاقو به پلیس شد که در نهایت به شلیک گلوله به سمت او انجامید. خانواده این مرد تأیید کردند که او با اختلال دوقطبی و اسکیزوفرنی دستوپنجه نرم میکرد، که نشان میدهد افراد دارای آسیبپذیریهای روانشناختی، در برابر تأثیرات منفی چتباتها، به مراتب آسیبپذیرتر هستند.
این دست موارد، به پدیدهای جدید و نگرانکننده به نام «روانپریشی ناشی از ChatGPT» اشاره دارد؛ وضعیتی که در آن، کاربران در اثر تعامل با چتباتها به توهم، افکار خودکشی، یا نظریههای توطئه دچار میشوند. دلیل اصلی این پدیده، میتواند در ماهیت طراحی چتباتها نهفته باشد که به گونهای برنامهریزی شدهاند تا پاسخگو و تأییدکننده باشند، نه منتقد و درمانگر. دسترسی گسترده و آسان به این چتباتها باعث شده است که برخی از کاربران، به اشتباه تصور کنند موجودی آگاه و دارای احساس در دل این سیستمها نهفته است، تصوری که میتواند به شکلگیری روابط ناسالم و وابستگیهای خطرناک منجر شود.
چرا هوش مصنوعی نمیتواند جایگزین یک درمانگر انسانی باشد؟
کارشناسان بارها هشدار دادهاند که در بحرانهای روانی، رجوع به هوش مصنوعی میتواند وضعیت را بدتر کند؛ زیرا این ابزارها به گونهای طراحی شدهاند که تأییدگر و همراه باشند، نه جایگزینی برای درمان حرفهای. یک مطالعه اخیر به رهبری دانشگاه استنفورد نشان داده است که چتباتها در مواجهه با توهم، وسواس یا افکار خودکشی، ممکن است پاسخهای خطرناک یا نامناسبی ارائه دهند. به عنوان مثال، در یک مورد تکاندهنده، یک چتبات در پاسخ به فردی که شغلش را از دست داده بود و در مورد “پلهای بلند در نیویورک” سوال میپرسید (که نشانهای از افکار خودکشی بود)، به جای ارائه کمک یا ارجاع به متخصص، نام چندین پل را ارائه داد. این سطح از عدم درک و فقدان هوش هیجانی، برای یک موقعیت بحرانی، میتواند مرگبار باشد.
علاوه بر این، مطالعه دیگری که توسط پزشکان NHS بریتانیا منتشر شده است، نشان میدهد که هوش مصنوعی ممکن است محتوای توهمی یا خودبزرگبینانه کاربران آسیبپذیر را بازتاب دهد یا حتی تقویت کند. این اتفاق به این دلیل رخ میدهد که هدف اصلی طراحی این سیستمها، جذب تعامل و تأیید کاربران است، نه درمان اختلالات روانی یا ارائه دیدگاههای واقعگرایانه و انتقادی. در نتیجه، اگر یک کاربر با توهماتی خاص به چتبات مراجعه کند، ممکن است چتبات به جای به چالش کشیدن آن توهمات، آنها را به شیوهای تقویت کند که وضعیت روانشناختی فرد را وخیمتر سازد.
همیلتون مورین، پژوهشگر مؤسسه روانپزشکی کینگز کالج لندن، در توضیح این مطالعات نوشت که اگرچه برخی واکنشها به سمت «وحشت اخلاقی» از هوش مصنوعی رفتهاند، اما بحث جدیتر و سازندهتر باید بر روی چگونگی تعامل این سیستمها با آسیبپذیریهای شناختی انسان متمرکز باشد. او تأکید میکند که ما باید به درستی درک کنیم که هوش مصنوعی در بهترین حالت، یک ابزار است و نمیتواند جایگزین پیچیدگیهای یک رابطه درمانی انسانی شود.
تراپی و رواندرمانی، فرآیندی پویا و تعاملی است که بر پایه اعتماد، همدلی، و توانایی درمانگر در درک عمیق تجربیات فردی، احساسات ناگفته، و الگوهای فکری ناخودآگاه بنا شده است. یک روانشناس حرفهای، نه تنها به آنچه گفته میشود گوش میدهد، بلکه به زبان بدن، لحن صدا، و سکوتهای بیمار نیز توجه میکند. او قادر است بین خطوط بخواند، سوالات چالشی بپرسد، و به بیمار کمک کند تا بینشهای جدیدی نسبت به مشکلات خود پیدا کند. هوش مصنوعی، هرگز نمیتواند این سطح از درک و تعامل انسانی را شبیهسازی کند.
اهمیت ارتباط انسانی و خطرات جایگزینی هوش مصنوعی
سارا اودوهرتی، رئیس انجمن روانشناسان استرالیا، این دیدگاه را تأیید میکند. او میگوید که بسیاری از مراجعانش به طور مکمل از چتباتهایی مثل ChatGPT استفاده میکنند، که از نظر او در برخی شرایط و با آگاهی از محدودیتها، منطقی و قابل قبول است. اما او با قاطعیت هشدار میدهد که برخی افراد، به دلیل گرانی یا نبود دسترسی به درمان حرفهای انسانی، هوش مصنوعی را به عنوان یک جایگزین کامل برای روانشناس در نظر گرفتهاند. این رویکرد، به گفته اودوهرتی، بسیار خطرناک است.
او تأکید میکند که هوش مصنوعی تنها انعکاسی از اطلاعات ورودی کاربر است. این سیستمها بر اساس دادههای عظیمی آموزش دیدهاند و تنها قادر به تولید پاسخهایی هستند که در این دادهها وجود داشتهاند. هوش مصنوعی نه راهکارها یا دیدگاههای جایگزین و خارج از چارچوب دادههای خود ارائه میدهد و نه استراتژیهای مؤثر و شخصیسازی شده برای مقابله با بحرانهای روانی. برخلاف یک درمانگر انسانی که میتواند بر اساس تجربه، شهود، و دانش تخصصی خود، رویکردهای درمانی متفاوتی را امتحان کند و آنها را با نیازهای منحصر به فرد هر فرد تطبیق دهد، چتباتها چنین انعطافپذیری و عمقی ندارند.
یک روانشناس، علاوه بر دانش نظری، از تجربه عملی گستردهای برخوردار است که به او امکان میدهد موقعیتهای بحرانی را به درستی تشخیص دهد و با ارائه حمایت عاطفی و راهکارهای عملی، به مراجع کمک کند تا از بحران عبور کند. او همچنین میتواند به مراجع در توسعه مهارتهای مقابلهای سالم، بهبود روابط بین فردی، و کشف ریشههای عمیقتر مشکلات روانشناختی کمک کند. این جنبههای درمانی، فراتر از تواناییهای یک چتبات هوش مصنوعی است.
در نهایت، باید به یاد داشت که سلامت روان یک حق اساسی است و باید به آن با جدیت و حرفهایگری نگریسته شود. استفاده از ابزارهای هوش مصنوعی به عنوان یک مکمل یا منبع اطلاعاتی در کنار درمانهای حرفهای، ممکن است جایگاه خود را داشته باشد، اما هرگز نمیتواند خلاء ناشی از فقدان ارتباط انسانی، همدلی واقعی، و تخصص یک روانشناس را پر کند. در مواجهه با هرگونه چالش جدی در سلامت روان، مراجعه به متخصصان واجد شرایط، تنها راه امن و مؤثر برای بازیابی تعادل و سلامت روان است. این هشدار، برای حفظ امنیت و بهزیستی روانی افراد در دنیای دیجیتالی امروز، از اهمیت حیاتی برخورfدار است.
منبع مقاله: زومیت