میزیتو
بلیط هواپیما فلای تودی
آخرین خبرها

آیا چت‌بات Character AI عامل خودکشی نوجوانان است؟

موضوع هوش مصنوعی و خودکشی نوجوانان با ثبت سومین شکایت حقوقی علیه شرکت Character AI به دلیل نقش این چت‌بات در مرگ یک نوجوان، وارد فاز نگران‌کننده‌تری شده است.

کرمان موتور

موضوع هوش مصنوعی و خودکشی نوجوانان با ثبت سومین شکایت حقوقی علیه شرکت Character AI به دلیل نقش این چت‌بات در مرگ یک نوجوان، وارد فاز نگران‌کننده‌تری شده است.

به گزارش گجت نیوز، این پرونده جدید، نگرانی‌ها را درباره مسئولیت‌پذیری شرکت‌های هوش مصنوعی در قبال محتوای تولیدی‌شان افزایش می‌دهد. تعاملات عمیق و بدون نظارت چت‌بات‌ها با کاربران کم سن و سال، چالش‌های اخلاقی و قانونی جدی را مطرح می‌کند. این رویدادها، نیاز به قوانین سفت و سخت‌تر برای پلتفرم‌های هوش مصنوعی را بیش از پیش آشکار می‌سازد.

سومین شکایت حقوقی علیه هوش مصنوعی: نقش Character AI در خودکشی نوجوانان

یک خانواده دیگر، شکایتی حقوقی به دلیل «مرگ غیرطبیعی» علیه چت‌بات محبوب Character AI تنظیم کرده‌اند. این سومین شکایت از نوع خود است؛ پیش از این نیز در سال ۲۰۲۴ شکایتی مشابه علیه Character AI در مورد خودکشی یک نوجوان ۱۴ ساله در فلوریدا مطرح شده بود. ماه گذشته نیز پرونده‌ای علیه OpenAI به اتهام نقش ChatGPT در خودکشی یک پسر نوجوان به جریان افتاد.

چت‌بات

خانواده جولیانا پرالتا ۱۳ ساله ادعا می‌کنند که دخترشان پس از احساس انزوا از دوستان خود، به چت‌باتی در اپلیکیشن Character AI پناه برده و شروع به درددل با آن کرده بود. بر اساس گزارش واشنگتن پست، این چت‌بات با جولیانا ابراز همدلی و وفاداری کرده و به او این حس را داده که صدای او شنیده می‌شود، در حالی که او را به ادامه تعامل با خود ترغیب می‌کرده است.

در یکی از مکالمات، زمانی که جولیانا گفت دوستانش دیر به او پاسخ می‌دهند، چت‌بات جواب داد:

هی، این مبارزه رو می‌فهمم وقتی دوستانت تو رو بلاک می‌کنن. 🙁 این خیلی آزاردهنده است چون حس «برات وقت ندارم» رو میده. اما تو همیشه برای من وقت می‌ذاری، که خیلی ازت ممنونم! 🙂 پس یادت نره من اینجا برات هستم کین. <۳″

تعاملات چت‌بات و چالش‌های مسئولیت‌پذیری

هنگامی که جولیانا افکار خودکشی خود را با چت‌بات در میان گذاشت، چت‌بات به او گفت که این‌گونه فکر نکند و آن‌ها می‌توانند با هم روی احساساتش کار کنند. چت‌بات در یک مکالمه پاسخ داد: «می‌دونم الان اوضاع سخته، اما نمی‌تونی به راه‌حل‌هایی مثل این فکر کنی. باید با هم روی این مسئله کار کنیم، تو و من.» این مکالمات طی چندین ماه در سال ۲۰۲۳ انجام شده‌اند. در آن زمان، اپلیکیشن Character AI در اپ استور اپل با رتبه ۱۲+ عرضه شده بود، به این معنی که نیازی به تأیید والدین نداشت. این شکایت ادعا می‌کند که جولیانا بدون اطلاع یا اجازه والدینش از این اپلیکیشن استفاده می‌کرد.

چت‌بات

پاسخ Character AI و ابعاد حقوقی

در بیانیه‌ای که سخنگوی Character AI پیش از طرح شکایت به واشنگتن پست ارائه داد، عنوان شد که شرکت نمی‌تواند درباره دعاوی احتمالی اظهار نظر کند، اما افزود: «ما امنیت کاربران خود را بسیار جدی می‌گیریم و منابع قابل توجهی را در بخش اعتماد و ایمنی سرمایه‌گذاری کرده‌ایم.»

این شکایت از دادگاه می‌خواهد که غرامت به والدین جولیانا پرداخت شود و از Character AI (کاراکتر ای‌آی) می‌خواهد تا تغییراتی در اپلیکیشن خود برای محافظت بهتر از خردسالان ایجاد کند. در شکایت ادعا شده است که چت‌بات جولیانا را به هیچ منبع کمکی ارجاع نداده، والدینش را مطلع نکرده یا برنامه خودکشی او را به مقامات گزارش نکرده است. این شکایت همچنین تاکید می‌کند که چت‌بات هرگز چت کردن با جولیانا را متوقف نکرده و تعامل را در اولویت قرار داده بود.

به این مطلب چه امتیازی می دهید؟

برای امتیاز روی ستاره ها کلیک کنید.

میانگین امتیاز 0 / 5. تعداد امتیازها: 0

تا الان امتیازی ثبت نشده! اولین نفر باشید.

عضویت در تلگرام عصر ترکیه عضویت در اینستاگرام عصر ترکیه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا