چت ربات با هوش مصنوعی امروز یکی از وسایل متداول در زمینه کمک های روانشناختی است. در عین حال ، آنها در ارائه درمان مؤثر نیستند و اغلب می توانند پاسخ های مخرب بدهند ، افراد خطرناک را در معرض دید خود قرار دهند.

محققان کشف کرده اند که مدل های بزرگ زبان (LLM) ، مانند TATGPT ، حداقل در 20 ٪ موارد ادعاهای نامناسب و خطرناکی را برای کسانی که افکار بی معنی ، خودکشی ، توهم و اختلالات وسواس اجباری را تجربه می کنند ، می نویسند و می نویسند ارسال ها در نیویورکبشر
طبق این نشریه ، ربات با کسانی که اغلب با دیدگاه کاربر موافق هستند ، زیرا آنها برای مطیع بودن و تمسخر ایجاد می شوند. نمونه ای از روزنامه به نقل از پرونده ای که یکی از کاربران توسط بیماری روانی روانی گفته شد که وی مرده است ، در حالی که برخی از سیستم عامل های هوش مصنوعی نمی توانند او را در مورد برعکس متقاعد کنند.
ربات های با کیفیت پایین به دلیل شکاف هنجاری برای افراد خطرناک است … ابزارهای هوش مصنوعی ، هر چقدر هم که آنها دشوار باشند ، بر اساس پاسخ های برنامه نویسی و مجموعه داده های بزرگ … آنها نمی فهمند که چه چیزی در پشت افکار یا رفتارهای کسی پنهان است.
علاوه بر این ، مشاور بالینی Nilufar Esmailpur افزود که مکالمات نمی توانند لحن یک شخص یا زبان بدن را تشخیص دهند ، و همچنین گذشته شخص ، محیط او و یک انبار عاطفی منحصر به فرد را به عنوان یک متخصص زنده درک نمی کنند.
پیش از اعتماد به chatbot با تجربیات ، ترس ها و دردناک ترین وضعیت خطرناک استبشر
در عین حال ، یک روانشناس به Anastasia Valueva تأیید شد در مورد لحظات مثبت صحبت کنید در تعامل با هوش مصنوعی.