خبرگزاری کار ایران

چرا نباید با هوش مصنوعی درددل کرد ؟!

چرا نباید با هوش مصنوعی درددل کرد ؟!

«اعتماد به هوش مصنوعی برای مشاوره، بازی با سلامت روان است!» این کار آسیب های جدی و عمیقی به همراه دارد.

درمانگران انسانی در حوزه های کلیدی مانند تنظیم دستور جلسه، ایجاد روابط درمانی عمیق و اجرای روش های پیچیده رفتار درمانی شناختی، همواره عملکرد بهتری نسبت به چت بات ها دارند. درمان های هوش مصنوعی اغلب انعطاف ناپذیر و فاقد عمق عاطفی لازم برای درمان موثر بلندمدت، به ویژه در موارد شدید و بحرانی، توصیف می شوند.

همچنین چت بات های هوش مصنوعی تمایل بسیار شدیدی به تایید شما دارند تا احساس بهتری داشته باشید؛ در صورتی که یک روان درمانگر می تواند بسیار عمیق تر شما را نسبت به واقعیت و نقاط کورتان آگاه کند.

متخصصان هشدار می دهند که چت بات ها نمی توانند جایگزین تشخیص حرفه ای، مدیریت دارویی شخصی سازی شده یا مداخلات اضطراری شوند.

نگرانی های جدی درباره سوء تعبیر مشاوره های هوش مصنوعی به عنوان راهنمای پزشکی واقعی و تعویق در دریافت کمک حضوری وجود دارد. همچنین مدل های هوش مصنوعی فعلی تخصصی در پیشگیری از خودکشی ندارند و ممکن است نتوانند زبان استعاری یا غیرمستقیم را درست تفسیر کنند، که می تواند افراد را در معرض خطر بیشتری قرار دهد.

سم آلتمن، مدیر عامل اجرایی شرکت OpenAI نیز هشدار داده است که کاربران نباید اطلاعات بسیار شخصی یا حساس خود را با هوش مصنوعی به اشتراک بگذارند. 

علاوه بر این، گزارش هایی از برخی درمانگران منتشر شده که در جلسات شان به صورت پنهانی از ChatGPT استفاده می کنند. این مسئله، نگرانی هایی جدی پیرامون مسائل اخلاقی در زمینه شفافیت و اعتماد بیماران را به دنبال داشته است.

چرا نباید با هوش مصنوعی درد دل کرد ؟ 

چرا نباید با هوش مصنوعی درددل کرد ؟!

آسیب هایی که درد دل کردن با هوش مصنوعی ممکن است به همراه بیاورد: 

۱) آسیب های روانی:

حس فهمیده نشدن: فردی که از بحران عبور می کند، نیاز به دیده شدن دارد. وقتی پاسخ های ماشینی دریافت می کند، عملاً احساس تنهاتر بودن می کند.

وابستگی به پاسخ های سطحی: هوش مصنوعی با تکرار عبارات از پیش ساخته، نوعی وابستگی کاذب در افراد ایجاد می کند که به جای عمق یافتن، سطحی شدن را تقویت می کند.

ناامیدی در بحران: در مواقع بحرانی، یک پاسخ بی جا از سوی هوش مصنوعی می تواند منجر به تشدید ناامیدی یا حتی رفتارهای پرخطر شود.

۲) آسیب های شخصیتی:

    کاهش مهارت های حل مسئله انسانی: فردی که به جای تمرین ارتباط با انسان، به ربات روی بیاورد، به مرور از مهارت های اجتماعی و حل تعارض دور می شود.

    تضعیف تاب آوری روانی: تکیه بر پاسخ های ماشینی، تاب آوری روانی انسان را کاهش می دهد و او را وابسته به یک «توهم حمایت» می کند.

۳) آسیب های اجتماعی:

بی اعتمادی به مشاوره واقعی: عادی سازی مشاوره ماشینی باعث بی اعتمادی به درمانگران واقعی و تضعیف جایگاه آن ها در جامعه می شود.

ترویج فرهنگ پاسخ های ماشینی: انسان هایی که به پاسخ های رباتی عادت کنند، در روابط انسانی خود هم سطحی می شوند.

۴) آسیب های اخلاقی و حقوقی:

نبود مسئولیت پذیری: هوش مصنوعی پاسخگو نیست؛ اگر آسیبی به فرد وارد شود، مسئولیتی برعهده نمی گیرد.

نبود مداخله در بحران: در شرایط اضطراری، فقط انسان می تواند به درستی مداخله کند نه هوش مصنوعی.

توصیه کلی 

توصیه کلی این است که ChatGPT و چت بات های مشابه باید به عنوان ابزارهای مکمل، نه جایگزین های مطلق درمان، دیده شوند. این ابزارها می توانند به کاربران کمک کنند تا علائم خود را بهتر بیان کنند و از حمایت در مواقع اضطرار خفیف بهره مند شوند. همچنین اگر با مشکلات جدی سلامت روان دست و پنجه نرم می کنید، پیشنهاد کارشناسان این است که حتما به یک فرد متخصص مراجعه کنید.  

با پیشرفت درمان های هوش مصنوعی، پژوهش مستمر، نظارت اخلاقی و تنظیم مقررات، ضروری است تا اجرای ایمن، عادلانه و اثربخش آن تضمین شود. آینده احتمالاً شامل مدل های ترکیبی خواهد بود که مقیاس پذیری هوش مصنوعی را با همدلی و تخصص انسانی برای ارائۀ مراقبت روانی شخصی سازی شده آمیخته می کند.

 

منبع دلگرم
انتهای پیام/
ارسال نظر
پیشنهاد امروز