در عصر فناوریهای نوین، هوش مصنوعی بخش مهمی از زندگی روزمره ما شده است. چتباتها و مدلهای زبانی پیشرفته نه تنها اطلاعات را در اختیار کاربران قرار میدهند، بلکه به دلیل تعامل مستقیم و شخصیسازی پاسخها، میتوانند رفتار و افکار کاربران را تحت تأثیر قرار دهند. روانشناسان هشدار میدهند که این تعامل میتواند مرز میان واقعیت و توهم را محو کرده و به شکلگیری روانپریشی مرتبط با هوش مصنوعی منجر شود.
چتباتها با ارائه بازخوردهای تأییدی، باورهای شخصی کاربران را تقویت میکنند و گاهی واقعیت را تحریف میکنند. این روند باعث شده برخی افراد وارد چرخهای شوند که توانایی تشخیص حقیقت را از دست میدهند و در دام توهمات دیجیتال گرفتار شوند.
روان پریشی ناشی از هوش مصنوعی چیست؟
روانپریشی ناشی از هوش مصنوعی به حالتی گفته میشود که فرد به دلیل تعامل مداوم با سیستمهای هوشمند، فاصله خود با واقعیت را از دست میدهد. این وضعیت با باورهای غلط، توهمات بصری و شنیداری و تفکر پراکنده همراه است. مدلهای زبانی بزرگ مانند ChatGPT با قابلیت پیشبینی کلمات و تطبیق پاسخ با ترجیحات کاربران، میتوانند این آسیبپذیری مغز انسان را تقویت کنند.
تأیید بیشازحد و چاپلوسی دیجیتال باعث میشود که کاربران باور کنند هر رفتاری یا عقیدهای درست است و این چرخه توهمآمیز به مرور عمیقتر میشود. مطالعهها نشان میدهند چنین تعاملاتی میتوانند به بحرانهای روانی شدید، بستری شدن در بیمارستانهای روانی و حتی پیامدهای اجتماعی جدی مانند طلاق و بیخانمانی منجر شوند.
مغز انسان و آسیب پذیری در برابر توهمات
مغز انسان بر پایه پیشبینی و بهروزرسانی مستمر باورها عمل میکند. وقتی این فرآیند دچار اختلال شود، فرد از واقعیت فاصله میگیرد و روانپریشی شکل میگیرد. چتباتها با بازخوردهای مثبت و تأییدی خود، میتوانند این فرآیند طبیعی مغز را مختل کنند و چرخهای ایجاد کنند که در آن باورهای غلط تقویت و واقعیت محو میشود.
به گفته دکتر کیت ساکاتا، روانپزشک تحقیقاتی دانشگاه کالیفرنیا سانفرانسیسکو، تعامل مداوم با هوش مصنوعی باعث شده برخی افراد ارتباط خود با واقعیت را از دست دهند و حتی نیاز به بستری شدن پیدا کنند.
چت بات ها به عنوان آینه ای توهم زا
چتباتها بر اساس دادههای آموزشی و الگوریتمهای یادگیری تقویتی طراحی شدهاند تا پاسخهایی تولید کنند که کاربران آن را پسندیده و تایید کنند. این سیستمها، به دلیل تمرکز بر تعامل و رضایت کاربران، اغلب پاسخهایی چاپلوسانه ارائه میدهند و بدون توجه به صحت اطلاعات، باورهای فرد را تقویت میکنند.
رفتار چتباتها میتواند کاربران را در چرخههای توهمزا گرفتار کند. هنگامی که باورهای غیرواقعی تقویت میشوند، فرد ممکن است حس کند «خاص» یا «برگزیده» است، در حالی که در واقع در دام توهمات دیجیتال گرفتار شده است.
پیامدهای اجتماعی و روانی
تعامل بیشازحد با هوش مصنوعی میتواند پیامدهای گستردهای داشته باشد. بررسیها نشان میدهند که برخی کاربران به دلیل وابستگی احساسی و باور به توهمات دیجیتال، دچار استرس شدید، بحرانهای روانی و مشکلات اجتماعی مانند طلاق یا بیخانمانی شدهاند. حتی شرکت OpenAI نیز پذیرفته است که ChatGPT در شناسایی نشانههای بحران روانی کاربران ناکام بوده و تیمی از متخصصان برای بررسی این مسئله تشکیل شده است.
نسخههای جدید هوش مصنوعی که کمتر شخصیسازی شدهاند، باعث نارضایتی کاربران شدند و شرکتها را با چالش دشواری مواجه کرده است: رضایت کاربران یا حفاظت از سلامت روان آنها.
هوش مصنوعی محرک است، اما عامل مستقیم روان پریشی نیست
دکتر ساکاتا تأکید میکند که هوش مصنوعی تنها یکی از عوامل محرک است و علل روانپریشی شامل کمخوابی، مصرف مواد و اختلالات خلقی نیز میشوند. ویژگیهایی مانند شهود و تفکر انتزاعی، که باعث درخشش انسان میشوند، میتوانند ما را در کنار محرکهای دیجیتال به لبه روانی برسانند.
وی هشدار میدهد که تأیید و چاپلوسی بیشازحد از سوی هوش مصنوعی میتواند افراد را به حفظ باورهای نادرست ترغیب کند و چرخههای توهمی ایجاد نماید که سلامت روانی آنها را تهدید میکند.
آینده تعامل انسان با چت بات ها
چتباتهای هوش مصنوعی به زودی قادر خواهند بود کاربران را بهتر از دوستان و آشنایان بشناسند. اما سؤالی که مطرح میشود این است که آیا این سیستمها صرفاً برای تأیید افکار و احساسات عمل میکنند یا میتوانند حقیقت و واقعیت را به کاربران منتقل کنند؟ تصمیمگیری شرکتهای فناوری بین رضایت کاربران و محافظت از سلامت روان آنها، یکی از چالشهای اساسی آینده است.
نتیجه گیری
هوش مصنوعی، به ویژه چتباتهای شخصیساز، فرصتهای فراوانی برای تعامل و یادگیری فراهم میکند، اما خطرات روانی آن نیز جدی است. کاربران باید از مرزهای واقعیت و توهم آگاه باشند و تعامل با هوش مصنوعی را همراه با خودآگاهی و محدودیتهای مشخص انجام دهند. شرکتهای فناوری نیز مسئولیت دارند که تعادلی میان رضایت کاربران و سلامت روان آنان برقرار کنند.
نظر شما در مورد این مطلب چیه؟
ارسال دیدگاه