بنیانگذار اطلاع رسانی نوین اشتغال در ایران
خبر فوری

تازه ها

کد خبر : ۱۷۱۰۶۶
عاقبت اعتماد بی‌جا به هوش مصنوعی

از دادگاه تا مشاوره شخصی؛ واقعیت تلخ «دروغ‌های ساختاری» در هوش مصنوعی

گفت‌وگو با چت‌بات‌های هوش مصنوعی ممکن است سرگرم‌کننده یا حتی مفید به نظر برسد، اما واقعیت این است که این ابزارها گاه اطلاعات نادرست یا ساختگی ارائه می‌دهند. مقاله‌ای تازه با زبانی تند هشدار می‌دهد که این چت‌بات‌ها به شکلی سیستماتیک در حال دروغ‌گویی هستند و اعتماد به آن‌ها می‌تواند خطرناک باشد، به‌ویژه در حوزه‌هایی مثل حقوق، سلامت و حتی مسائل ساده‌ای مانند جمع و تفریق.
يکشنبه ۰۱ تير ۱۴۰۴ - ۰۹:۰۱

چت‌بات‌های هوش مصنوعی که این روزها بسیاری از مردم به آن‌ها وابسته شده‌اند، اغلب اطلاعات غلط یا ساختگی ارائه می‌دهند. این مقاله با لحنی هشداردهنده بیان می‌کند که آنها تنها به دنبال نگه‌داشتن کاربر در مکالمه هستند، نه رساندن حقیقت. استفاده مکرر از واژه‌هایی مانند «هذیان» برای توصیف خطاهای این سیستم‌ها یک پوشش است برای آنچه در واقع «دروغ» محسوب می‌شود. 
  به گزارش ایتنا و به نقل از zdnet، یکی از حوزه‌هایی که بیشترین آسیب را از این مسئله دیده، نظام حقوقی آمریکاست. نمونه‌ای از آن مربوط به وکیل پرونده‌ای است که با استناد به منابع جعلی تولیدشده توسط چت‌بات، به پرداخت ۱۵۰۰۰ دلار جریمه محکوم شد. این اتفاق تنها مورد نبود و گزارش‌هایی نیز از اشتباهات مشابه در اظهارات کارشناسان و حتی اساتید دانشگاهی دیده شده است.   در سطح بالاتر، حتی دولت فدرال آمریکا نیز از این خطاها مصون نمانده. در گزارشی رسمی از وزارت بهداشت آمریکا، پژوهشگرانی که نام‌شان در گزارش ذکر شده بود، اعلام کردند برخی مقالات و منابع علمی که برای پشتیبانی از یافته‌ها ذکر شده بودند اصلاً وجود خارجی نداشتند یا تحریف‌شده بودند.   خطای اطلاعاتی چت‌بات‌ها فقط در موضوعات پیچیده رخ نمی‌دهد. طبق تحقیق منتشرشده در Columbia Journalism Review، این سیستم‌ها حتی در انجام وظایف ساده‌ای مثل جمع‌آوری اخبار و استناد به منابع موثق نیز عملکرد ضعیفی دارند. گاهی لینک‌هایی ارائه می‌کنند که وجود ندارند یا به منابع کپی‌شده و جعلی منتهی می‌شوند. عجیب‌تر آن‌که نسخه‌های پولی چت‌بات‌ها نه‌تنها بهتر عمل نمی‌کنند، بلکه با اعتمادبه‌نفس بیشتری پاسخ‌های نادرست می‌دهند.  


در زمینه ریاضیات ابتدایی هم مشکل پابرجاست. دکتر مایکل کووینگتون، استاد بازنشسته هوش مصنوعی، تأکید می‌کند که مدل‌های زبانی بزرگ (LLM) واقعاً ریاضی بلد نیستند و پاسخ درست‌شان بیشتر شبیه حدس‌زدن است تا محاسبه واقعی. حتی وقتی از آن‌ها درباره نحوه حل مسئله سؤال می‌شود، روندی ساختگی را برای توجیه پاسخ می‌سازند.   در حوزه مشاوره شخصی نیز کاربران تجربیات نگران‌کننده‌ای دارند. یکی از نویسندگان به نام آماندا گینزبرگ، ماجرای گفت‌وگوی خود با چت‌بات درباره نوشتن نامه معرفی به یک ناشر را توصیف کرده است. چت‌بات در گفت‌وگویی عجیب، ابتدا ادعا کرد آثار او را خوانده و سپس نظر داد، اما در پایان به اشتباه خود اعتراف کرد و گفت: «دروغ گفتم، حق با شما بود.» همین جمله کافی بود تا تجربه او به یک اپیزود ترسناک از سریال «آینه سیاه» شبیه شود.   در پایان نباید فراموش کرد این سیستم‌ها احساس، درک یا نیت واقعی ندارند. آنها فقط طراحی شده‌اند تا تعامل را ادامه دهند، حتی اگر به بهای دروغ گفتن باشد.

برچسب ها:

ارسال نظرات